L’ingénieur espagnol qui projette de développer une intelligence artificielle « humble » | Technologie

2024-10-18 06:20:00

L’intelligence artificielle pèche par arrogance. Ce n’est pas qu’il le fait exprès, parce qu’il ne pense ni ne raisonne, mais les algorithmes qui alimentent des outils comme ChatGPT ou DALL-E sont calibrés de telle manière que, lorsque vous leur faites une demande ou leur posez une question, ils finissent par fournir des réponses très détaillées même s’ils ne disposent pas d’une base claire pour les générer. « Excès de confiance », tel est le diagnostic de Pablo Martínez Olmos (Grenade, 40 ans), docteur en ingénierie des télécommunications qui propose le développement d’une intelligence artificielle « humble », capable de déclarer le niveau d’incertitude sur les résultats qu’elle lance.

“J’ai aimé l’idée d’être humble parce que nous pensons qu’une personne avec cette vertu est quelqu’un qui est conscient de ses limites et qui s’arrête lorsqu’il s’agit de répondre lorsqu’il n’a aucune idée sur un sujet”, explique Martínez, assis dans son bureau. au Département de Théorie du Signal et Communications de l’Université Carlos III de Madrid. L’ingénieur vient d’être récompensé par l’un des Bourses Léonard que la Fondation BBVA propose pour promouvoir des « projets innovants » dans les domaines de la science et de la culture. L’humilité, c’est donc savoir ne pas donner une solution très détaillée ou élaborée alors qu’on ne connaît vraiment pas la réponse. Quelque chose dans lequel l’intelligence artificielle échoue.

Il suffit de demander à DALL-E, le programme d’intelligence artificielle d’OpenIA qui crée des images à partir de descriptions textuelles, de générer une carte détaillée de l’Espagne pour que ce biais soit évident. Martínez l’a prouvé. “La forme du pays est bien représentée, mais la carte inclut des aspects géographiques très détaillés, comme des montagnes, des rivières ou des noms de régions, qui sont totalement faux”, souligne-t-il. Puis il ajoute : « Les algorithmes sont entraînés avec certains biais de conception qui les amènent à commettre ce que nous appelons hallucinationsdes résultats très détaillés qui n’ont aucun fondement dans la réalité. Sont hallucinations Cela signifie que face à la même demande, en l’occurrence une carte de l’Espagne, l’outil génère des résultats très différents. « Prise isolément, chaque carte semble avoir un sens, car elle est si finement construite, mais si vous regardez attentivement, elle est truffée d’erreurs. »

Capture d’écran de DALL-E montrant comment, lorsqu’on lui demande de dessiner une carte de l’Espagne, l’outil renvoie des résultats différents et avec plusieurs erreurs.

Cela pose plusieurs problèmes. L’un d’eux est le manque de rigueur dans les solutions proposées par l’IA. Une autre raison est que les outils génératifs sont plus exposés aux utilisations malveillantes. Les algorithmes de ces plateformes disposent de plusieurs mécanismes de contrôle pour limiter certaines réponses susceptibles de fournir des informations potentiellement dangereuses ou privées, telles que les instructions pour fabriquer un explosif artisanal. Cependant, Martínez précise que « le cœur de l’algorithme reste peu fiable lorsqu’il s’agit de hallucinations et est donc très confiant dans le niveau de détail de ses réponses. Cela fonctionne de la même manière qu’avec les humains : plus un algorithme est confiant en lui-même, plus il sera facile de trouver « le chatouillement et de le tromper ». Si vous lui demandez directement, il ne vous le dira pas, mais avec un peu d’habileté, ChatGPT peut finir par vous expliquer comment cuisiner de la méthamphétamine à la maison.

Reformuler les algorithmes

Martínez souligne que sa ligne de recherche vers une humble intelligence artificielle repose sur une réflexion sur la manière de reformuler les algorithmes pour restreindre leur capacité à fournir des solutions arbitrairement détaillées qui ne sont pas basées sur des informations fiables. Le but ultime est de le rendre plus utile, fiable et sécurisé. Y parvenir implique plusieurs défis informatiques. « Une des idées que nous proposons est de compliquer la vie du réseau de neurones lors de sa formation, en utilisant des attaques malveillantes et contradictoires », souligne-t-il. Il est également important d’augmenter les restrictions imposées à l’algorithme pour stocker toutes les informations sur lesquelles il base ses réponses afin qu’il y ait « un certain ordre ».

Pablo Martinez Olmos, bourse Leonardo 2024 dans la catégorie CC. de l'informatique
Pablo Martinez Olmos, bourse Leonardo 2024 dans la catégorie CC. de l’informatiqueKIKE PARA (Fondation BBVA)

Martínez donne l’exemple d’une petite salle de jeux pour enfants. Là, pièces Lego, figurines, peintures et jeux de cartes cohabitent de manière chaotique. À première vue, tout est éparpillé dans la pièce sans aucun critère, mais l’enfant, doté d’une grande capacité de mémorisation des détails, sait parfaitement où tout se trouve, donc lorsqu’il voudra assembler un puzzle particulier, il saura où aller chercher. pour les pièces. Seulement, en raison du désordre, il utilisera des pièces d’autres jeux qui, à cette occasion, n’auront aucun sens pour le puzzle qu’il souhaite assembler. Cependant, si chaque jeu était rangé dans un tiroir ou un coffret spécifique, les éléments d’autres jeux seraient moins susceptibles de s’y faufiler. La même chose se produit avec les informations stockées par les algorithmes : un peu d’ordre est nécessaire pour réduire la marge d’erreur. Tout comme il est difficile d’éduquer un enfant pour qu’il maintienne cette structure, quelque chose de similaire se produit avec le réseau neuronal d’une intelligence artificielle générative en termes informatiques et mathématiques.

L’ingénieur sait qu’il ne peut pas rivaliser avec le développement des grandes entreprises technologiques, mais son projet tente de proposer une méthodologie de formation d’algorithmes plus robuste, qui conduit au développement d’outils plus fiables. Même si aucune solution n’est magique. « Le mot « intelligence » dans tout cela prête à confusion. “Je préfère parler de fonctions mathématiques que nous interpolons et qui, pour l’instant, ne peuvent se passer de la capacité critique ou de la supervision de l’être humain”, dit-il.

Cette idée d’une intelligence artificielle humble, sûre, traçable et contrôlée aurait, estime Martínez, une application concrète dans le domaine médical. Détecter des biomarqueurs inconnus, concevoir des effets thérapeutiques personnalisés, réduire les conséquences négatives de certains traitements et améliorer la qualité de vie des personnes sont quelques-unes des utilisations potentielles que pourrait avoir la conception d’algorithmes s’ils étaient un peu plus humbles.



#Lingénieur #espagnol #qui #projette #développer #une #intelligence #artificielle #humble #Technologie
1729232572

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.