Un sourire sur les lèvres, Sam Altman a dû rentrer très satisfait de son escapade à Washington. On picture le directeur d’OpenAI, éditeur de ChatGPT, taper dans les mains de ses collaborateurs de retour à San Francisco. Mission accomplie, sans doute au-delà de ses espérances, après avoir passé mardi soir trois heures devant une fee parlementaire. Non seulement Sam Altman a charmé les sénateurs. Mais en moreover, il s’est posé comme le noble défenseur d’une régulation de l’intelligence artificielle (IA). Un sommet d’hypocrisie, à notre sens.

La partie a été beaucoup trop facile pour le directeur d’OpenAI. On a été loin, très loin des interrogatoires musclés de directeurs d’autres géants de la tech, questionnés ces dernières années sur les effets nocifs des réseaux sociaux ou sur des fuites de données. Non, Sam Altman a pu tranquillement présenter les avantages et inconvénients de l’IA et une nouvelle fois appeler à sa régulation. Petits extraits: «Si cette technologie tourne mal, elle peut tourner très mal. Et nous voulons nous exprimer à ce sujet», «Nous voulons travailler avec le gouvernement pour éviter que cela ne se produise», «L’intervention des gouvernements pour réguler l’IA va être cruciale pour limiter les risques» ou encore «Mes pires craintes sont que nous causions des dommages importants au monde.»

Plusieurs objectifs

Avec de tels propos convenus, Sam Altman poursuit plusieurs objectifs. D’abord, amadouer le législateur, montrer qu’il est conscient des risques de l’IA et assurer le monde entier de sa bonne volonté. Ensuite, le directeur d’OpenAI vise sans doute un double but à moreover lengthy terme. Si, d’ici à quelques jours, semaines ou mois, un incident majeur (cyberattaque colossale, fausse nouvelle à effet dévastateur, etc.) dû à l’utilisation de ses products and services intervient, il aura beau jeu d’avoir averti des risques. Un moyen aussi de tenter de prévenir des amendes – qui peuvent être lourdes aux Etats-Unis – pour d’éventuels manquements à des lois actuelles.

Car or truck pour des lois ou règlements futurs, on demande à voir aux Etats-Unis. Il y a bien sûr l’affrontement everlasting entre républicains et démocrates, qui entrave toute avancée législative. Il y a aussi la peur, à Washington, qu’une régulation de l’IA affaiblisse ses champions nationaux de la tech, face à l’émergence d’acteurs significatifs ailleurs sur la planète. «Si l’industrie américaine ralentit, la Chine ou quelqu’un d’autre peut progresser as well as vite», a d’ailleurs glissé malicieusement Sam Altman mardi.

Pompiers pyromanes

Reconnaissons que le directeur d’OpenAI a élaboré des propositions: la mise en area d’une agence fédérale qui pourrait accorder des licences pour créer des modèles d’IA dépassant certaines capacités, un sure seuil de capacités, l’édiction de normes de sécurité pour les modèles d’IA très évolués, assortie de tests indépendants, ainsi que des audits réalisés par des gurus externes. Des idées louables, mais qui se heurteront à tous les problèmes cités précédemment. Et on peut y ajouter un impediment supplémentaire: on devine qu’OpenAI, Google ou Microsoft feront tout pour présenter leurs providers basés sur l’IA comme inoffensifs, tout en refusant d’ouvrir leurs algorithmes à des professionals externes.

Sam Altman, tout comme Sundar Pichai, directeur de Google, et Satya Nadella, patron de Microsoft, appelle à une régulation. Mais tous, un peu comme des pompiers pyromanes, continuent à développer à toute attract leurs systèmes d’IA. Il est évident que de nouvelles fonctions, de nouveaux solutions et de nouvelles offres commerciales seront lancés prochainement par ces sociétés, lancées dans une concurrence effrénée entre elles, mais aussi encounter à des petites sociétés qui tentent de se profiler sur ces marchés gigantesques.

Elon Musk, extrême

On avait vu Elon Musk cosigner une lettre appelant à une pause de six mois dans le développement de l’IA… tout en créant en parallèle sa propre société spécialisée dans l’IA. Sam Altman & Co, appelant à réguler tout en développant de nouvelles IA, fait preuve d’une hypocrisie equivalent. Ce double discours avait été récemment mis en avant par le magazine Time, qui avait révélé les efforts importants de Google et Microsoft pour tenter de saper les projets européens de réglementer l’IA. L’objectif de ces sociétés, facial area à une très hypothétique législation américaine, et foreseeable future réglementation européenne, est que leur IA dite générative, utilisée par le grand community, ne soit quasiment pas régulée.

Notons enfin un dernier position, qui montre remark OpenAI a – pour le instant en tout cas – la partie si facile. Mardi, il ne lui a pas été demandé pourquoi ChatGPT a été lancé en novembre 2022 sans aucun garde-fou pour le public, ni comment les données ont été récoltées pour créer ce service…

Il ne s’agit évidemment pas, à notre sens, d’interdire tout développement de l’IA, qui possède par ailleurs tant de côtés positifs et enthousiasmants. Mais simplement d’exiger, de la portion des créateurs de ces systèmes, un minimum amount d’honnêteté experience aux politiciens et confront au grand public. L’IA est un sujet trop essential pour qu’il soit entouré d’une telle hypocrisie.

Notre suivi en continu: Fil spécial intelligence artificielle: Les nouveaux usages des modèles de langage



Source connection