jazzy-software - Le blog

jazzy-software Dimanche, 5. Novembre 2023

Mis à jour Vendredi, 29. Mars 2024

gigabyte.jpg

À propos de l'intelligence artificielle

Il y a quelques années « Blockchain », aujourd’hui « l’Intelligence Artificielle » est la solution à tous les problèmes. Que cela corresponde ou non au problème.

Le battage médiatique autour de ChatGPT cette année s'est quelque peu calmé après que son utilisation créative des faits ait été connue à plusieurs reprises. Néanmoins, l'IA reste sur toutes les lèvres comme une nouvelle technologie miracle, des chefs de gouvernement et des commissions jusqu'à Microsoft et Oracle.

Oracle Database 23c est là : requêtes SQL en langage naturel

L'IA également pour la nouvelle base de données 23c d'Oracle : les fonctionnalités visent à rendre les développeurs plus productifs et les employés à pouvoir évaluer eux-mêmes leurs montagnes de données.

[...]

Cela devrait permettre aux développeurs de formuler des requêtes SQL en langage naturel, que le système traduit automatiquement en SQL. Les travaux dans ce domaine sont déjà très avancés : selon Andy Mendelsson, vice-président exécutif du développement des technologies de serveurs de bases de données, la précision actuelle de ces requêtes SQL générées automatiquement est de 60 à 70 %. "Les experts en IA me disent que 70 pour cent est une très bonne valeur qui peut difficilement être augmentée même avec de meilleures données d'entraînement", telle est son évaluation de l'exactitude des requêtes en langage naturel.

https://www.heise.de/news/Oracle-Datenbank-23c-ist-da-SQL-Abfragen-in-natuerlicher-Sprache-9317378.html

L’idée n’est pourtant pas si nouvelle. Dès 1985, la base de données « Q&A » de Symantec a été vendue, dotée d'une fonction de requête en langage naturel. Celui-ci était basé sur un vocabulaire de 600 mots et fonctionnait étonnamment bien. Le système est devenu obsolète lorsque MS Windows s'est imposé et que les utilisateurs préféraient cliquer sur les listes de sélection avec la souris plutôt que de formuler des requêtes et de les saisir avec le clavier.

Alors que F&A fonctionnait à l'époque sur un processeur 8086 avec quelques 100 kilo-octets de mémoire principale et dépassait de loin le taux de réussite d'Oracle de 70 %, aujourd'hui l'IA est tout sauf « verte ». La version de bureau de ChatGPT, gpt4all, fonctionne au minimum sur un ordinateur doté d'au moins 6 cœurs et 16 Go de mémoire. Une requête dure alors plusieurs minutes, pendant lesquelles tous les processeurs fonctionnent à pleine charge. Si vous souhaitez entraîner vos propres données, 32 Go de mémoire graphique constituent le minimum requis.

La formation de grands modèles de langage est un processus gourmand en énergie avec une immense empreinte CO2. Microsoft envisage déjà d'alimenter ses centres de données avec de petites centrales nucléaires (SMR).

https://futurism.com/the-byte/microsoft-power-train-ai-small-nuclear-reactors

La question est de savoir si la dépense énergétique est justifiée par le résultat. Jürgen Schmidt tire une conclusion qui concorde avec mes expériences :

"... dans les domaines dans lesquels j'ai de bonnes à très bonnes connaissances, il est rapidement devenu évident que les réponses de ChatGPT sont souvent inexactes, peu utiles en termes de compréhension et parfois carrément fausses. Cela rend non seulement ChatGPT inadapté en tant qu'enseignant, mais même carrément dangereux."

https://www.heise.de/hintergrund/Hintergrund-zum-Quiz-ChatGPT-erfindet-Security-7491475.html

L'exemple Oracle ci-dessus ne montre pas un bon résultat mais plutôt une disqualification pour la tâche à accomplir. Mais c’est la licence permettant de collecter des données sans retenue qui entretient le battage médiatique de l’IA. Au nom de la science et de la sécurité, comme ici chez Microsoft :

"À l'avenir, l'entreprise déclare vouloir étendre ses solutions de protection telles que Microsoft Threat Analysis Center (MTAC) pour inclure des outils d'IA. Avec cela, elle souhaite, entre autres, détecter et analyser les menaces plus efficacement. Les clients devraient en bénéficier directement. Microsoft déclare que "pour obtenir 65 000 milliards [américains] de signaux provenant d'appareils. Les approches d'IA devraient optimiser l'évaluation et faciliter la recherche d'une aiguille dans une botte de foin."

https://www.heise.de/news/Microsoft-will-IT-Security-besser-machen-und-startet-Secure-Future-Initative-9352878.html

La télémétrie envoie donc déjà plus de données que Microsoft ne peut en traiter. L'IA est censée traiter la masse de données et ainsi corriger ce qui a été gâché par le marketing de masse de concepts inadaptés et le manque de contrôle qualité dans le développement de logiciels, comme ici :

Microsoft Exchange est affecté par quatre vulnérabilités zero-day que les attaquants pourraient exploiter pour exécuter à distance du code arbitraire ou obtenir des informations sensibles sur les installations affectées.

https://www.bleepingcomputer.com/news/microsoft/new-microsoft-exchange-zero-days-allow-rce-data-theft-attacks/

Selon la Chambre de Commerce et d'Industrie, une telle situation relève du destin et vous ne pouvez rien y faire :

Avec le site Internet de l'entreprise, le trafic quotidien des e-mails des employés ou les processus en réseau, votre entreprise est également quotidiennement confrontée à la roue de la fortune des cyberattaques.

https://www.it-sicherheitstag-ihk-nrw.de/Start.html

En particulier, il semble que vous ne puissiez pas remplacer des logiciels notoirement non sécurisés par des solutions plus sécurisées.

Lorsqu’il s’agit de collecter des données, il existe également des souhaits venant d’autres horizons :

Europol veut collecter indéfiniment les données de contrôle du chat

Europol souhaite un accès non filtré aux données de contrôle du chat pour former les algorithmes d'IA. Cela ressort des documents internes que nous publions. Deux anciens policiers de l'UE ont rejoint l'organisation américaine Thorn, qui exerce un lobby massif en faveur du projet de loi.

https://netzpolitik.org/2023/interne-dokumente-europol-will-chatkontrolle-daten-unbegrenzt-sammeln/

La Commission européenne le dit alors ainsi :

Une intelligence artificielle (IA) fiable peut apporter de nombreux avantages, tels que de meilleurs soins de santé, des transports plus sûrs et plus écologiques, une fabrication plus efficace et une énergie moins chère et plus durable. L'approche de l'UE donnera aux citoyens la confiance nécessaire pour utiliser cette technologie et encouragera les entreprises à la développer.

https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age/excellence-and-trust-artificial-intelligence_de

Nous avons déjà discuté ci-dessus du respect de l’environnement durable de l’IA. La Commission européenne mentionne trois projets financés par l'UE sur cette page, dont je voudrais souligner le dernier :

NousVérifions

Une plate-forme open source visant à impliquer les communautés et les journalistes citoyens, ainsi que les rédacteurs en chef et les journalistes indépendants, pour une vérification, un suivi et une démystification collaborative et décentralisée du contenu.

https://weverify.eu

L'AFP et Deutsche Welle sont également impliquées. L’analyse des images et des vidéos à la recherche de contrefaçons peut encore être acceptable. Il existe également « l’arbre coordonné de détection des comportements inauthentiques », qui dit :

Bien qu’il manque actuellement une définition claire et largement acceptée du CIB, le concept gagne de plus en plus de soutien sur la plateforme, notamment parce qu’il permet à la plateforme de travailler sur la suppression de comptes sans visualiser ni juger le contenu.

https://weverify.eu/news/coordinated-inauthentic-behaviour-detection-tree/

Il s'agit de la suppression automatique des contenus indésirables "sans examiner et juger le contenu". L'IA devrait être utilisée pour la suppression automatique des comptes des réseaux sociaux, en d'autres termes : elle devrait effectuer des tâches de censure.

Deux questions se posent ici :

1. L'IA elle-même est-elle suffisamment capable et digne de confiance pour faire cela ?

2. La censure automatique est-elle compatible avec la liberté d’expression garantie par la Constitution ?

Conclusion

Le danger de l’IA ne réside clairement pas dans son « intelligence ». Cela réside dans son application par des responsables qui n’ont aucune idée de la technologie et de ses limites, mais voient l’IA comme un instrument bienvenu pour contrôler les données et les personnes. Comme nous le savons tous, les données sont le nouveau pétrole et l’IA est censée être l’appareil de forage. L’industrie informatique elle-même sera heureuse de maintenir le mythe vivant, étant donné son pool de financement complet et ses clients prêts à payer.

Cela conduira probablement à ce que l’IA prenne des décisions qui influenceront l’économie, les gouvernements, les lois et nos vies. Des décisions que personne ne peut comprendre et dont personne n’est responsable par la suite. Qu'est ce qui pourrait aller mal?

Écrire un commentaire

Votre adresse e-mail ne sera pas publiée, mais nous vous enverrons un lien d'activation.