Nouvelles technologies
ChatGPT. Vivre ou ne pas vivre avec des IA génératives ? (6/6)
30.11.2023
Les IA génératives ne vont sans doute pas sauver la planète, mais elles sont susceptibles de causer de sérieux dégâts à l’humanité. Conscients des risques, des milliers d’acteurs ont réclamé un moratoire sur leur développement. Dans le même temps, le Parlement européen s’apprête à légiférer.
ChaosGPT « a été conçu pour détruire l’humanité ». Cette mise en œuvre autonome de la technologie de ChatGPT présente une vision dystopique de la technologie, mettant en scène un vrai programme informatique chargé de semer le chaos et la destruction. Le système a d’ailleurs compris très vite que l’arme nucléaire l’aiderait à assouvir ses intentions malveillantes. Il en a cherché sur Google et a même tenté de recruté des partisans sur X (ex-Twitter). ChaosGPT n’a heureusement pas réussi à accomplir sa mission, mais son code source est toujours disponible en ligne. Le problème, pourrait-on dire, avec les idées tordues, c’est qu’il y en aura toujours un plus tordu que l’autre pour tenter de les faire aboutir.
Fin mars 2023, le Future of Life Institute, une association américaine fondée sur la visée d’une réduction des risques menaçant l’humanité, publiait une lettre ouverte réclamant un moratoire de six mois concernant le développement des intelligences artificielles génératives. La missive est signée par 33 712 acteurs du monde de la technologies, parmi lesquels des figures bien connues, comme l’ imprévisible patron de Tesla et de X, Elon Musk, et le cofondateur d’Apple, Steve Wozniak.
Le texte souligne que le développement de l’IA devrait être planifié avec soin et tenir compte des ressources terrestres, ce qui n’est pas le cas actuellement. « Devons-nous automatiser toutes les tâches, y compris les plus enrichissantes ? Devrions-nous développer des esprits non humains qui pourraient éventuellement être plus nombreux, plus intelligents, obsolètes et nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ? De telles décisions ne doivent pas être déléguées à des dirigeants technologiques non élus », souligne la lettre.
Bill Gates, autre guru de la Big Tech, s’est opposé à cette demande, considérant l’impossibilité de sa mise en œuvre. Pour certains observateurs, il s’agissait pourtant d’une bonne idée, permettant d’alerter sur la nécessité d’engager un débat politique de fond. Car il est illusoire de croire en l’autorégulation de société richissimes, donc puissantes. D’autres ont également estimé qu’il est déjà bien trop tard, compte tenu des avancées majeures dont font preuves ces technologies, notamment en termes de business plan et d’investissements.
Pour le PDG de Google, Eric Schmidt, pas question de freiner le développement des technologies fondées sur l’IA, et cela d’autant plus que, estime-t-il, cela profitera à la Chine. Mais s’il y avait bel et bien une course à l’IA, les États-Unis l’emporteraient haut la main : c’est là-bas que se trouvent les plus importants laboratoires de recherche, et tous sont aux mains de la Big Tech. Sont-ils guidés par une vision technocentrique déconnectée des besoins humains ? S’inscrivent-ils dans une perspective ultra-libérale, conjuguant la croissance et la maximisation des profits ? Il y a un peu de tout cela. Ce qui rend aussi dangereuses les technologies de l’IA est le point suviant : derrière tout système technique, il y a des décisions humaines, dont les fondements ne sont pas toujours vertueux ou qui ne considèrent pas toujours les conséquences de leur mise en œuvre. C’est pour cela que le domaine de l’IA a non seulement besoin d’éthique, mais de lois.
L’Europe se pose en modèle
Le 14 juin 2023, le Parlement européen adoptait l’IA Act, un projet de régulation de l’intelligence artificielle, dont l’objectif est de promouvoir des technologies axées sur l’être humain, la protection des droits fondamentaux et la démocratie. Le texte est ambitieux, et il doit encore faire l’objet d’un accord, attendu pour la fin 2023. Reste qu’il se pose en modèle pour promouvoir une technologie responsables et éthique, qui tienne compte de ses nombreuses possibilités – car les technologies de l’intelligence artificielle peuvent aussi apporter de nombreux bénéfices, à commencer par le secteur des soins de santé – mais aussi de ses limites et de ses dangers.
L’objet est, indique le communiqué du Parlement, « de veiller à ce que les systèmes d’IA utilisés dans l’UE soient sûrs, transparents, traçables, non discriminatoires et respectueux de l’environnement. Les systèmes d’IA devraient être supervisés par des personnes plutôt que par l’automatisation, afin d’éviter des résultats néfastes ». Le cadre réglementaire européen se fonde sur une approche fondée sur les risques. Un risque limité implique de respecter des exigences minimales de transparence, de manière à permettre aux utilisateurs de « prendre des décisions éclairées ». Le texte prévoit que les utilistratrices et utilisateurs soient informés lorsqu’ils interagissent avec des systèmes d’IA, et ceci inclut les intelligences artificielles génératives.
Un risque élevé concerne les applications, aux conséquences potentiellement négatives sur la sécurité et les droits fondamentaux, et celles-ci devront être évaluées, avant leur mise sur le marché. Ces technologies incluent notamment l’identification biométrique, la catégorisation des personnes et la gestion de la migration, de l’asile et du contrôle des frontières. Un risque inacceptable concerne des technologies considérées comme une menace pour les personnes. Celles-ci seront interdites. Il s’agit, par exemple, de jouets encourageant des comportements dangereux chez les enfants, de technologies permettant d’attribuer un score social aux personnes en fonction de leur comportement (comme en Chine), et de systèmes d’identification biométrique en temps réel et à distance (comme la reconnaissance faciale). Toutefois, le texte prévoit des exceptions, en cas de crimes graves et seulement après approbation d’un tribunal.
Et les IA génératives dans tout ça ? Elles font l’objet d’un paragraphe à part entière, sans définir de quel type de risques elles relèvent. Pour autant, ces dispositions ne seront pas sans conséquences pour les concepteurs de technologies génératives. Aussi, un modèle devra être conçu pour empêcher de générer du contenu illégal – alors que les sociétés développant des IA génératives reconnaissent une impossibilité d’éviter le phénomène d’hallucinations.
A cela s’ajoute l’obligation d’indiquer aux utilisateurs lorsqu’un contenu a été généré par une IA et de publier des résumés des données protégées par le droit d’auteur qui ont été utilisées pour l’entraînement du système. Se conformer à cette dernière obligation sera un casse-tête que les sociétés développant des IA génératives devront s’atteler à résoudre, pour continuer à opérer en Europe. Pour autant, elle ne résout pas les violations des contenus relevant du droit d’auteurs, pas plus qu’elle n’adresse directement les questions relatives aux contenus relevant de la vie privée.
Dans le même temps, la présidente de la Commission européenne a exprimé son souhait de mettre en place un groupe d’experts visant à évaluer les risques de l’IA pour l’humanité, à l’image du Giec pour le climat. Von der Leyen considère qu’il y a urgence et que ces risques doivent être considérés de la même manière que tous les autres risques, comme les pandémies ou les guerres nucléaires. Mais il ne faut pas être dupe : la présidente multiplie les communications pré-électorales ces derniers temps, une manière pour elle de faire oublier les quelques (grosses) « casseroles » de son mandat.
Des pistes de réflexion pour nourrir les débats
Ce mini-dossier autour de ChatGPT avait pour objectif d’éclairer les enjeux principaux liés aux développements des IA génératives, et ils sont nombreux. S’il apporte des pistes de réflexion pour nourrir les nécessaires débats, il pose surtout une question fondamentale, celle de la possibilité d’usages responsables de technologies qui méprisent les droits d’auteur, violent le cadre de conversations privées, participent à l’exploitation de travailleurs et travailleuses sur le continent africain, génèrent des contenus biaisés, voire complètement fabriqués.
Ironie de l’histoire, OpenAI vient d’annoncer l’octroi d’une bourse de 395 000 dollars à une université new-yorkaise. Son objectif ? Promouvoir des initiatives de journalisme éthique… Avec plus de cent millions d’utilisatrices et d’utilisateurs dans le monde, ChatGPT n’est pas la seule IA générative sur le marché. Bard, l’agent conversationnel de Google, a débarqué en Europe à la mi-juillet 2023. Le système n’est pas plus éthique que ChatGPT et tout comme son concurrent, il est d’ores et déjà considéré comme un menteur pathologique.