Le créateur de ChatGPT avoue avoir peur de voir l’IA devenir plus intelligente

Le créateur de ChatGPT avoue avoir peur de voir l’IA devenir plus intelligente

Jakarta

PDG OpenAI Sam Altmann met en garde contre les dangers derrière la popularité de l’application intelligence artificielle (IA) comme ChatGPT. Il a même avoué qu’il avait peur de voir le développement très rapide de l’IA.

En tant que PDG d’OpenAI, Altman a joué un rôle majeur dans le développement de ChatGPT. Dans une interview avec ABC News, Altman a déclaré que les régulateurs et la société doivent prendre soin de cette technologie pour éviter des effets néfastes sur l’avenir de l’humanité.

“Nous devons être prudents. Je pense que les gens devraient être heureux que nous ayons un peu peur de cela”, a déclaré Altman, cité par The Guardian, samedi (18/3/2023).

“Je suis très inquiet que ce modèle puisse être utilisé pour la désinformation à grande échelle. Maintenant qu’ils se sont améliorés dans l’écriture de code informatique, l’IA peut être utilisée pour des cyberattaques offensives”, a-t-il poursuivi.

Cet avertissement a été émis Altman après OpenAI a publié son nouveau modèle de langage AI GPT-4 il y a quelque temps. GPT-4 est le nouveau cerveau de ChatGPT et est censé être beaucoup plus intelligent et plus créatif, et peut même analyser les commandes sous la forme d’une combinaison de texte et d’images.

Altman admet que GPT-4 n’est toujours pas parfait et éprouve souvent des hallucinations, où cette IA peut afficher des informations considérées comme factuelles mais qui s’avèrent n’être que le résultat de sa création.

Même ainsi, Altman a toujours défendu le GPT-4 plus intelligent après avoir obtenu un score de 90% à l’examen d’avocat aux États-Unis et un score presque parfait à l’examen de mathématiques SAT pour les lycéens. GPT-4 peut également écrire du code informatique dans divers langages de programmation.

Altman a également ouvert sa voix à propos de cette préoccupation IA peut déplacer le rôle humain. L’homme de 37 ans souligne que l’IA ne peut fonctionner que sous les ordres ou la contribution des humains, mais il s’inquiète du fait que des personnes contrôlent l’IA de manière irresponsable.

“Il y aura d’autres personnes qui n’appliqueront pas les limites de sécurité que nous appliquons”, a déclaré Altman.

“Je pense que la société dispose d’un temps limité pour réfléchir à la manière d’y réagir, de la réglementer, de la gérer”, a-t-il conclu.

Regarder la vidéo “Lancé en seulement 2 mois, ChatGPT atteint 100 millions d’utilisateurs

(vmp/fr)

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.