Parti Pirate - L'IA, c'est comme un chat : ça fait ce qu'elle veut

Budget Européennes 2024

57981.52 €
Prochain objectif !
100 000 €
Nous pouvons financer 6 000 000 bulletins
Image d'illustration

L'IA, c'est comme un chat : ça fait ce qu'elle veut

Publié le 27/02/2023
  • farlistener
  • florie
  • maakrin

À moins que vous ne viviez au fond d'une grotte, vous n'avez pas pu passer à côté des dernières applications d'Intelligences Artificielles, d'abord en bruit de fond avec Dall-E, puis en novembre avec l'arrivée fracassante de Midjourney et, maintenant, ChatGPT, cette IA qui est capable de tenir des conversations, en tout bien tout honneur. Étonnements, peurs, questionnements, opinions, il est temps de faire un petit tour d'horizon.

C'est quoi, une IA ?

Intelligence Artificielle, IA, AI, deep learning, apprentissage par renforcement, réseaux de neurones, algorithmes génétiques pour les termes barbares, Midjourney, Dall-e, Stable Diffusion, ChatGPT (prononcez "djipiti"), Watson, AlphaGo pour les stars entraînées par les plus grandes firmes, la multiplication des termes fait tourner la tête. Mais il ne faut pas avoir peur du premier mot énoncé dans ce paragraphe : intelligence. Ici, et pour l'instant encore, il n'est pas question de l'intelligence au sens où nous le concevons tous les jours et qui fait la part belle aux romans de science-fiction, cette forme de conscience qui pourrait se révéler dangereuse dans ses désirs et ses besoins que l'on appelle "Intelligence Artificielle Forte", le Saint Graal de la recherche sur les IA. Mais, heureusement pour l'humanité, nous n'en sommes pas encore là.

Dans le cas qui nous intéresse, le terme intelligence c'est le "traitement-de-l'information-plutôt-futé-qui-n'a-pas-été-proprement-créée-par-un-être-humain". Cette Intelligence Artificielle, dite Faible, est un algorithme comme un autre mais, comme votre cerveau, il s'agit d'un algorithme un peu plus spongieux et mou que ceux que l'on a l'habitude de voir ou de créer dans l'industrie du développement d'application.

Spongieux et mou, cerveau, réseaux de neurones ? Humour ? Non. Les chercheurs et chercheuses et leurs collègues de l’ingénierie aiment beaucoup s'approprier des mécanismes de la Nature, cet être anthropomorphique qui joue depuis toujours avec le hasard. En outre, les "problèmes" que l'on propose de résoudre avec ces IA ne sont pas vraiment compatibles avec la vision binaire habituelle des ordinateurs pour qui, en dehors des 0 et des 1, point de salut.

  • "Ça ressemble plus à un chat qu'à un chien"
  • "Habituellement ce coup aux échecs a plus de chance d'apporter la victoire que ce coup là"
  • "On dirait bien qu'il y a quelque chose d'anormal dans cette image".

Réagir en fonction de probabilités, c'est ce côté un peu mou qui est recherché afin de permettre de réagir au plus grand nombre des possibles tout en essayant au maximum de réduire la complexité du problème à résoudre.

Par ailleurs, une intelligence artificielle ne sort pas ex nihilo de l'esprit d'une équipe de développement, il y a d'abord une phase d'absorption d'informations, de sélection, d'apprentissage où les "prémices" d'une IA sont confrontés à des mécanismes impitoyables de reproduction, de génétique, d'analyse, un peu comme pour les neurosciences et la sélection naturelle. Il n'est toutefois pas question encore une fois ici de biomimétisme, c'est tout simplement une façon naturelle de travailler. De fait, l'apprentissage, le renforcement, sont des mécanismes que nous connaissons à notre niveau, nous transformant, nous aussi, en éponge.

Issus de ces apprentissages et d'une sélection impitoyable, nos IA sont donc maintenant capables de nous battre aux échecs ou au jeu de go, de faire de jolies images et des textes syntaxiquement corrects, voire, avec quelques artifices, de tenir des conversations ou encore, et c'est pour le mieux, de détecter des tumeurs sur des radios. Alors on est aujourd'hui en droit de s'interroger, faut-il continuer à faire des études de médecine pour sauver les gens d'un cancer ? Ou encore, y-a-t-il un espoir de percer dans le monde artistique si l'on peut demander à une IA de faire un dessin sur demande ?

"Le Terminator de nos métiers"

Rassurez-vous, le spectre d'un Skynet, conscient, qui se retourne contre l'humanité, reste encore, pour l'heure, du domaine de la science-fiction, le reste ne serait qu'erreur humaine. Non, les IA qui émergent aujourd'hui ne sont pas conscientes et elles ne font des choses que parce que les humains les y autorisent. Mais tout cela n’empêche pas d'autres peurs d'émerger du tréfonds de nos cerveaux prompts à voir tous les dangers dans les nouveautés qui arrivent, à tort ou à raison.

Aujourd'hui, les domaines d'activités qui se sentent, à juste titre, en danger, sont les domaines du graphisme, de la communication et… du développement. Et cette peur n'est pas sans fondement, on a appris, en décembre dernier, qu'une maison d'édition avait choisi d'utiliser une création d'IA en couverture d'un roman1. L'argument avancé de la concurrence déloyale est fondé.

Malgré tout, il reste une incompréhension ici entre l'homme et la machine. Que ce soit du code, une peinture ou un texte généré par une IA, cela n'enlève pas le jugement de qualité par un être humain. Oui, la photographie a mis au chômage les portraitistes, cela a-t-il mis fin à toute forme de peinture ? Il est sain d'avoir peur pour son gagne-pain quand il est de plus en plus difficile d'avoir une situation stable, et se voir confronté à la concurrence d'une IA qui pond des images à la demande, en quelques secondes, tel un stakhanoviste sous stéroïde, est quelque peu décourageant.

D'un autre côté, de nouveaux "métiers" de prompteurs, autrement joliment dit des personnes qui murmurent à l'oreille des IA, apparaissent, leur talent réside en la compréhension du fonctionnement de ces IA afin de les guider vers le résultat souhaité. Cela n'invalide absolument pas la peur légitime des personnes qui se sentent dépossédées de leur art, et si déjà les illustrateurs et les scénaristes sont au courant, il y a fort à parier que l'ensemble de l'industrie du divertissement, en passant par les acteurs, les compositrices et autres accessoiristes voient à leur tour leur avenir s'assombrir tant les capacités de calcul vont permettre, dans un court avenir, de composer plus facilement de la musique ou de remplacer des acteurs voire de créer des scènes entières sans leurs concours. Et ce n'est qu'un exemple parmi d'autres puisque le champ d'activité des IA s'étend de jour en jour, allant de la recherche sur les protéines jusqu'à l'innovation architecturale…

Mais au fond le problème vient-il de l'IA ou de notre accès à une vie décente ?

Efficacité et Usages

Il semble plus facile d'accepter d'une IA qu'elle nous batte aux échecs ou au jeu de go2 car l'humain sent bien que la combinatoire de ces jeux est en faveur de la machine, et quand bien même une IA serait plus forte que les humains à ceux-ci, cela ne les empêche pas de s'affronter afin de chercher le potentiel de l'être humain qui, malgré tout, aura pu créer un outil qui lui est supérieur sur bien des aspects. En revanche, l'arrivée de ChatGPT, et de ses co-intelligences, nous interpelle un petit peu plus car nous avons l'impression qu'elle touche un petit peu plus à ce qui nous caractérise en tant qu'être conscient : la subtilité, la compréhension, l'échange, la créativité. Mais il faut comprendre leur fonctionnement pour se rassurer un peu et se dire que, sur ces domaines, ces dernières feront de bons assistants mais, pour l'instant, elles ne sont pas capables de nous évincer. Ce qui fait la force des IA qui nous vainquent sur les jeux stratégiques, ce n'est pas tant la force de calcul que la brutalité de l'expérience acquise : l'IA peut jouer contre elle-même rapidement, très rapidement. L'IA qui a vaincu Lee Sedol avait "seulement" joué une trentaine de millions de partie, ce qui en temps humain équivaut à plus de 3500 années de jeu non-stop3. En revanche, la tâche de nos compères créatifs est bien plus subtile à mesurer, puisque ce sont nos sentiments, notre intelligence qui sont mesurés et non la qualité et la diversité d'un jeu. Et à ce jeu, ce qui les rend digne d'être des assistants et non des maîtres, c'est que ces IA ont plus appris à nous "manipuler" qu'à nous répondre. En effet, l'être humain mesure l'efficacité de l'IA avec ses biais, son sens du beau, son sens du vrai, cependant une IA vous répondra ce qu'elle vous répondra non pas pour l'amour de la vérité, mais pour réussir à avoir un pouce bleu un bon score d'acceptabilité, ce qui n'est pas forcément la bonne méthode pour éclairer les faits de vérité mais reste assez intelligent pour survivre une semaine de plus… Le rapprochement avec le corps politique et sa vision court-termiste électoraliste est tout proche : plaire à la personne qui demande et non lui répondre correctement, tel est son credo.

Ethique et morale

Que ce type d'intelligences artificielles faites pour s'approcher du comportement humain aboutisse à un comportement de tromperie est un problème en soi. En effet, le monde n'est pas constitué que de gens vertueux qui n'essaient que de faire le bien autour d'eux. Le fait que ChatGPT soit capable de générer des textes ayant un trait de véracité rien que pour ceux qui l'interroge permet, de fait, de créer des contenus vraisemblables, et à une vitesse folle, parfaitement adaptés pour les "spécialistes" de l'hameçonnage, de l'usurpation de l'identité et autres spammeurs.

L'utilisation à bon escient est l'un des problèmes que la science essaie de résoudre par le biais des mécaniques de renforcement humain et d'une "scolarisation" des IA pour les rendre moralement justes, mais ce n'est pas ce qui est le plus facile, et cela l'est d'autant moins que cette même recherche a, elle aussi, des problèmes quant à sa propre éthique. Les problèmes principaux rencontrés aujourd'hui tournent autour des sources de données, de leur labellisation et des personnes qui s'occupent d'"éduquer" ces jeunes pousses numériques.

Pour éduquer les IA, pour les nourrir, la somme des données utilisées est gigantesque. Pour l'entrainement d'IA génératrices d'images, on utilise allègrement des bases d'images, de photos, de dessins, de peintures, soit des milliards d'objets4. Ces banques d'images ratissent large, elles aspirent des sites puis labellisent le contenu et ne s'occupent qu'après, si elles s'en occupent, de la gestion des droits d'auteurs. Et quelque soit votre (et notre) opinion sur le sujet, c'est important, ne serait-ce que d'un point de vue légal.

Sur ces banques d'images, des messages d'alerte fleurissent pour indiquer que ce "problème" est en cours de résolution, et qu'il serait sage de ne pas laisser ces applications d' IA ouvertes et accessibles tant que ce n'est pas résolu, mais il semblerait que pour certaines autres banques d'images, ce côté légal ou éthique soit mis de côté au nom du progrès. Droits d'auteur, RGPD et autres législations seraient alors considérés comme des adversaires du progrès. Par ailleurs, que devrions-nous penser si une banque d'images copyleft (réutilisation et évolution possible en gardant la même licence) était utilisée dans le cadre de l'entrainement d'une IA potentiellement payante ? D'un autre coté, est-ce qu'un peintre s'étant éduqué en étudiant des œuvres exclusivement disponibles dans des musées payants ou des manuels hors de prix ne serait pas dans une situation similaire ?

Quant à l'utilisation à bon escient de la technologie, ce problème peut se résumer à la maxime Quis custodiet ipsos custodes ?5 (Qui me gardera de mes gardiens ?) Ces IA, on l'a vu, sont éduquées "moralement" pour éviter tout débordement qu'ont connu leurs aînées par le contact non contrôlé avec un public de trolls. Ces gardiens imposent donc une vision fatalement biaisée de leur morale à des IA qui feront en sorte de la respecter. Et ce biais permet possiblement de perpétuer des mécanismes de pensées, en plus de déjà perpétuer, voire d'amplifier, d'autres biais liés aux genre, sexe, religion, couleur de peau, issus des données. Ces mêmes données peuvent en outre être noyées à dessein par de l'information de piètre qualité pour contrebalancer des faits importants, justement quand on touche à cette notion précieuse de vérité. C'est ce qui rend le travail encore plus difficile pour ces éducateurs dont le métier apporte de nouvelles souffrances, tant une IA amorale peut générer comme horreurs6.

Bien entendu, l'entrainement de ces "êtres" numériques demande du matériel et de l'énergie. Heureusement, la gestion de la consommation de ressources est rentrée dans nos mœurs et est aujourd'hui bien plus mesurée7 et raisonnée, l'entrainement des algorithmes, qui est plus coûteux que l'utilisation unitaire, doit s'effectuer dans un centre de calcul alimenté par une électricité décarbonée.

Le dernier point, et peut-être le plus important quant à la naissance de certaines IA, réside dans la pertinence de leurs usages. Passer de la génération d'image, de texte, voire de vidéos, à la prise de décisions, qui pour aider la police, qui pour aider la justice, qui pour aider l'armée, est très tentant… Et c'est sur les limites à ne pas dépasser que la science-fiction nous met en garde. "Si les machines ne doivent pas être tenues responsables, alors elles ne doivent pas prendre de décision de gestion8". C'est pourquoi la recherche doit faire attention aux projets qu'elle lance en incluant des comités d'éthique sur le sujet, et les industriels doivent en faire autant, afin de ne pas s'aventurer sur un chemin où un être humain ne serait plus "nécessaire" pour faire du mal à l'un de ses semblables ou à une communauté, où l'IA serait "trop" libre.

S'en sortir

"On va nous remplacer et en plus les méthodes pour le faire ne sont pas des plus vertueuses".

Est-ce la fin de l'histoire ? Doit-on tirer un trait sur des assistants qui peuvent faciliter notre travail ? Doit-on surréagir et les bannir de notre sphère d'action ? Le fait est que ces IA existent, elles ne disparaîtront pas comme ça. Alors il serait sage d'introduire l'éthique et la morale qui pouvaient manquer jusque là.

La recette est simple : l'ouverture et la transparence.

Tant dans la recherche que dans la mise à disposition, il faudra impérativement faire preuve de précision et de justesse autant dans les sources d'apprentissage que sur les méthodes et la mécanique de labellisation et de renforcement, quitte à demander de l'aide aux différentes communautés qui souhaiteraient bénéficier des avantages de ces futurs assistants. Il faudra bien entendu permettre la réplication et l'utilisation autonome des modèles déjà entraînés ou des projets en cours de développement. En ce sens, l'équipe derrière "Stable Diffusion" a publié le code source9 et le modèle de son IA proposant de la création d'image numérique.

Les IA ne sont que des algorithmes un peu plus sophistiqués que la moyenne, et même s'il n'est pas nécessaire de savoir coder pour les comprendre, il est important de savoir que ça existe.

Nous vous invitons donc, avant d'émettre un avis tranché à leur sujet, à vous approcher de ces technologies pour "jouer" avec afin de pouvoir comprendre par vous-même leurs usages ET leurs limitations mais aussi pour pouvoir vous prémunir de manipulations. Un "c'est vrai parce que je l'ai lu/vu sur internet" ne doit pas se transformer en "c'est vrai, c'est ChatGPT qui me l'a dit".

Oui, une personnalité politique vous promettrait parfois la lune pour avoir votre soutien, une IA aussi.

D'ailleurs, l'IA ChatGPT le dit elle-même mieux que personne :

farlistener :

Bonjour, as-tu des biais cognitifs ?

ChatGPT :

En tant que modèle de langage développé par OpenAI, je n'ai pas de sentiments, d'émotions ou de perceptions, donc je ne suis pas soumis à des biais cognitifs dans le sens traditionnel. Cependant, il est important de noter que tous les modèles de langage formés sur des données dépendent en partie des biais présents dans ces données, donc il est possible que mes réponses reflètent des biais implicitement appris à partir des données d'entraînement. C'est pourquoi il est important de toujours examiner les réponses des modèles de langage avec un esprit critique et de les vérifier avec des sources fiables.