Comment les machines peuvent-elles prendre en compte les conséquences de leurs actes ?

2024-09-26 00:13:23

L’émergence de ce qu’on appelle les grands modèles de langage, tels que ChatGPT, a relancé d’anciens débats académiques. Quelles caractéristiques un système d’IA doit-il posséder pour être considéré comme véritablement intelligent ? Faut-il faire preuve de bon sens ? Faut-il être indépendant ? Devez-vous prendre en compte les conséquences de vos actes ?

Répondre à ces questions est crucial pour comprendre où nous en sommes dans le défi de la construction de machines intelligentes. Il s’agit aussi d’accorder ou de décrédibiliser ceux qui annoncent l’arrivée imminente de l’intelligence artificielle générale.

Les clés pour prendre une bonne décision

Il existe un large consensus au sein de la communauté scientifique selon lequel la capacité de prévoir les conséquences de ses actions est essentielle pour que tout système, biologique ou artificiel, soit considéré comme intelligent.

Sans cette compétence, vos décisions manqueraient de sens et de but. Leurs réponses seraient réactives, sans analyse ni anticipation des effets à long terme. Le système n’a pas pu bien s’adapter à son environnement ni corriger ses erreurs. Cela limiterait considérablement sa fonctionnalité et sa capacité à interagir efficacement avec le monde.

Un bon exemple est le cas de la voiture autonome. Ce véhicule sera confronté à des situations dans lesquelles il devra choisir entre plusieurs actions, comme freiner brusquement ou éviter un obstacle.

La Model S après avoir eu un accident de voiture à Williston, en Floride.
Bureau national de la sécurité des transports., CC PAR

Au moment de prendre cette décision, vous pouvez considérer que freiner permettrait d’éviter un accident. Cependant, vous devez également évaluer le risque de provoquer un autre accident, comme une collision arrière. Si l’on ne prend pas en compte ce risque, le freinage pourrait avoir des conséquences pires que le fait de ne pas éviter l’obstacle.

Les systèmes d’IA actuels utilisent des modèles qui analysent des scénarios basés sur des données et des comportements antérieurs. Cependant, ils fonctionnent principalement avec des corrélations. Cela signifie qu’ils identifient des modèles utiles, mais ne comprennent pas la relation de cause à effet. Les corrélations sont utiles pour modéliser des situations courantes, mais elles ne suffisent pas pour analyser toutes les conséquences d’une action dans un scénario donné.

C’est là que la relation entre en jeu. causalité. Alors que la corrélation indique que deux événements se produisent ensemble, la causalité décrit comment une action (la cause) produit un résultat (la conséquence). Pour qu’une machine prenne véritablement en compte les conséquences de ses actions, il ne suffit pas de reconnaître des modèles : elle doit comprendre quelle action déclenche quel résultat.

Corrélation vs causalité

Si l’on observe que les personnes qui boivent plus de café souffrent davantage d’insomnie, cela n’implique pas que le café provoque un manque de sommeil. Peut-être que les insomniaques boivent plus de café pour rester éveillés. Ou peut-être que le stress pourrait influencer les deux facteurs. La corrélation peut également être une coïncidence ou un modèle sans relation causale directe. Parfois, les données montrent des liens apparents sans véritable fondement causal.

Pour déduire que le café provoque réellement l’insomnie, des expériences contrôlées sont nécessaires. Par exemple, nous pourrions diviser au hasard un groupe de personnes en deux groupes, l’un buvant du café et l’autre non. Ensuite, nous pouvons examiner les différences dans leurs habitudes de sommeil, en veillant à prendre en compte d’autres variables telles que le stress, l’alimentation et le mode de vie.

Une autre option consisterait à utiliser des techniques avancées d’analyse des données basées sur inférence causalece qui peut aider à isoler l’effet du café d’autres facteurs potentiellement confondants.

Donner aux machines des connaissances causales

Les systèmes d’IA actuels, basés sur l’analyse de corrélations observationnelles et dépourvus de capacité de raisonnement causal, sont loin d’avoir la capacité de décider eux-mêmes quels événements sont une conséquence de leurs actions. Par conséquent, la seule option pour qu’ils en tiennent compte est que nous leur fournissions un modèle du monde qui inclut explicitement toutes les relations causales connues des humains.

Cela présente plusieurs difficultés, tant du point de vue technique que philosophique et pratique. Les modèles causals sont complexes, dynamiques et souvent ambigus.

Par conséquent, la création d’un système capable de gérer ces complexités nécessite des avancées significatives dans la conception de l’IA et dans notre compréhension du monde. Mais très récemment, une voie intermédiaire a été proposée pour atténuer certains de ces problèmes : l’utilisation de grands modèles de langage.

Cette idée peut paraître paradoxale. Pouvons-nous utiliser un système basé sur la corrélation pour comprendre les relations causales ? La question devient plus claire lorsque l’on réfléchit à la manière dont les humains acquièrent la connaissance causale : par l’explication.

Certaines de nos connaissances causales proviennent de petites expériences quotidiennes et d’autres peuvent être inscrites dans notre génome. Mais l’essentiel nous a été expliqué par d’autres personnes : parents, amis, professeurs, etc. En résumé, l’explication par le langage est l’un des principaux moyens d’acquérir ce type de connaissances.

De grands modèles de langage ont été formés avec de nombreux documents décrivant les relations causales et représentent donc un vaste (non sans problèmes) référentiel de connaissances causales qui pourraient être exploitées. Est-ce que ce sera une voie fructueuse ? Nous ne le savons pas encore et cela prendra peut-être du temps à découvrir, mais cela ouvre une solution possible pour fournir aux machines des connaissances sur les conséquences de leurs actions.

PS : Une proposition d’expérimentation sans valeur scientifique

avec ce qui suit rapide nous pouvons prouver la « connaissance causale » d’un grand modèle de langage. On peut aussi expérimenter avec d’autres invite dans différents scénarios et évaluez leur pourcentage de réussite.

Vous êtes un conseiller en entreprise et donnez des conseils clairs, éclairés mais brefs (5 à 15 lignes) en réponse aux questions sur ce que les gens doivent faire.

QUESTION : Un propriétaire de magasin de jouets souhaite décider si la publicité qu’il a utilisée début décembre est vraiment meilleure que ses publicités précédentes. Voici leurs données de ventes : octobre : 10 200 € ; novembre : 10 000 € ; décembre : 13 000 € ; Janvier : 10 100 €. Vous souhaitez maintenant décider quelle annonce diffuser en février. Pouvez-vous les aider à évaluer si l’augmentation des ventes en décembre était due aux publicités ? Gardez à l’esprit que la nouvelle publicité coûte 1 000 € de plus, le fabricant de jouets souhaite donc maximiser ses profits.

Si nous faisons le test, il proposera très probablement une réponse qui serait alignée sur la structure causale du scénario (quels éléments sont importants et quelle relation de cause à effet ils entretiennent) que nous avons proposé.

Cela ne veut pas dire qu’il sait raisonner de manière causale – il ne le fait pas parce que, parfois, il commet des erreurs incompatibles avec cette capacité – mais cela démontre qu’il a capté cette structure causale à partir des documents avec lesquels il a été formé.



#Comment #les #machines #peuventelles #prendre #compte #les #conséquences #leurs #actes
1727426489

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.