2024-01-18 19:39:05
Qu’est-ce que l’intelligence artificielle et à quoi sert-elle ? Il ne s’agit pas seulement d’une question philosophique, mais aussi, de plus en plus, d’une question juridique. Le cas d’un animateur de radio pro-armes de l’État américain de Géorgie est intéressant. Il poursuit Open AI en raison d’une soi-disant hallucination de ChatGPT, c’est-à-dire d’une déclaration inventée par le chatbot. ChatGPT avait calomnié Walters lors d’une conversation avec un journaliste qui faisait des recherches sur lui. Le robot avait affirmé que Walters avait détourné de l’argent et était poursuivi en justice pour cela. Ars Technica prend la peine d’accompagner en détail le procès de Walters contre Open AI.
Les arguments d’Open AI, que le tribunal doit maintenant clarifier, sont intéressants. Ils montrent à quel point les résultats de l’IA sont étranges et comment les entreprises d’IA tentent de se décharger des responsabilités.
Questions que soulève Open AI dans le processus :
- Selon Open AI, les déclarations faites par l’IA dans le processus de chat ne constituent pas une « publication ». Si le journaliste n’avait pas alerté Walters, le mensonge n’aurait jamais été révélé. La déclaration n’a donc causé aucun préjudice à Walters.
- Les utilisateurs de ChatGPT sont pour ainsi dire des sous-traitants de l’Open AI, et les déclarations de l’IA sont donc des « communications au sein d’une entreprise », c’est-à-dire des conversations que l’IA a essentiellement avec elle-même.
- Un avertissement a été rédigé pour mettre en garde contre les hallucinations (remarque : cela n’aide généralement pas si vous prévenez quelqu’un que vous mentez parfois et que vous le calomniez ensuite).
- Mon préféré : les déclarations du chatbot sont la « propriété » de la personne qui discute avec lui (en l’occurrence le journaliste). Donc Open AI va bien.
Tout cela semble assez artificiel par Open AI. Il sera intéressant de voir comment le tribunal tranchera sur ces questions fondamentales concernant les résultats de l’IA.
#forum.eu #Mes #hallucinations #tes #hallucinations
1718088320