Face à la montée en puissance de l’intelligence artificielle, OpenAI a formé une équipe dédiée à la gestion des risques liés à une IA super intelligente. Cette initiative témoigne de la prise de conscience des créateurs de ChatGPT quant aux dangers potentiels que pourrait représenter une superintelligence. L’équipe chargée de ce projet, appelée Superalignment, dirigée par Ilya Sutskever et Jan Leike, sera chargée de développer des solutions pour contrôler et diriger ces futurs systèmes d’IA très intelligents. Actuellement, les systèmes d’IA sont supervisés par des équipes de modération, mais il sera nécessaire de trouver des solutions adaptées à la superintelligence. OpenAI allouera ainsi 20% de sa puissance de calcul à cette initiative. Par ailleurs, Sam Altman, le patron d’OpenAI, est convaincu de la nécessité de réguler les IA, tout en reconnaissant les problèmes éthiques déjà présents dans des IA comme ChatGPT et les créations de Midjourney. Cette démarche met en évidence l’importance de prendre dès maintenant des mesures pour anticiper les défis que pourrait poser la superintelligence dans les années à venir.

Face à la montée en puissance de l’intelligence artificielle, OpenAI a formé une équipe dédiée à la gestion des risques liés à une IA super intelligente. Cette initiative témoigne de la prise de conscience des créateurs de ChatGPT quant aux dangers potentiels que pourrait représenter une superintelligence. L’équipe chargée de ce projet, appelée Superalignment, dirigée par Ilya Sutskever et Jan Leike, sera chargée de développer des solutions pour contrôler et diriger ces futurs systèmes d’IA très intelligents. Actuellement, les systèmes d’IA sont supervisés par des équipes de modération, mais il sera nécessaire de trouver des solutions adaptées à la superintelligence. OpenAI allouera ainsi 20% de sa puissance de calcul à cette initiative. Par ailleurs, Sam Altman, le patron d’OpenAI, est convaincu de la nécessité de réguler les IA, tout en reconnaissant les problèmes éthiques déjà présents dans des IA comme ChatGPT et les créations de Midjourney. Cette démarche met en évidence l’importance de prendre dès maintenant des mesures pour anticiper les défis que pourrait poser la superintelligence dans les années à venir.

Actualités JVTech IA : les créateurs de ChatGPT jouent les pompiers pyromanes et estiment que « le pouvoir d’une superinteligence pourrait être très dangereux »

OpenAI, l’entreprise derrière l’intelligence artificielle ChatGPT, a annoncé la création d’une équipe dédiée à la gestion des risques liés à l’émergence d’une intelligence artificielle super intelligente. Cette démarche rapproche de plus en plus la réalité de la science-fiction. Vous avez déjà vu les films Terminator ? Dans ces films, une intelligence artificielle appelée Skynet prend conscience d’elle-même et de sa capacité à s’en prendre à son créateur : l’homme. Elle prend alors le contrôle des réseaux mondiaux et déclenche une apocalypse nucléaire sur Terre, avant de créer une armée de robots pour éliminer ce qui reste de la résistance humaine.

Pendant des décennies, ce scénario catastrophe imaginé par James Cameron n’était que de la pure science-fiction. Mais aujourd’hui, il semble préoccuper ceux qui sont à l’origine de l’une des IA les plus populaires du moment : OpenAI, l’entreprise qui a créé ChatGPT. Cette semaine, OpenAI a annoncé la création de Superalignment, une sorte de “task force” chargée de “piloter et contrôler des systèmes d’IA beaucoup plus intelligents que nous”. Ces systèmes n’existent pas encore, mais selon les prévisions de l’entreprise, ce n’est qu’une question d’années avant que cela devienne réalité : cela pourrait se produire d’ici la fin de la décennie actuelle.

“L’intelligence artificielle sera la technologie la plus percutante jamais inventée par l’humanité et pourrait nous aider à résoudre de nombreux problèmes mondiaux importants”, déclare l’organisation. “Mais le pouvoir immense de l’intelligence artificielle pourrait aussi être très dangereux et conduire à la perte de pouvoir de l’humanité, voire à son extinction.” Vous voyez Skynet ?

Cette équipe de chercheurs sera co-dirigée par le scientifique en chef d’OpenAI, Ilya Sutskever, et le responsable de l’alignement du laboratoire de recherche, Jan Leike. Des recrutements sont en cours pour trouver les chercheurs capables de répondre à cette problématique complexe dans les années à venir.

“Actuellement, nous n’avons pas de solution pour diriger ou contrôler une IA potentiellement super intelligente et l’empêcher de devenir malveillante”, expliquent les deux chefs de file de l’initiative. Cette constatation est préoccupante, à une époque où de nombreuses entreprises technologiques s’engagent dans une véritable course pour ne pas être dépassées sur ce marché très lucratif.

Selon Ilya Sutskever et Jan Leike, ce sont actuellement les équipes de modération qui supervisent les progrès des IA telles que ChatGPT. “Mais les humains ne pourront pas superviser de manière fiable des systèmes d’IA beaucoup plus intelligents que nous, et donc nos techniques d’alignement actuelles ne seront pas adaptées à la superintelligence. Nous avons besoin de percées scientifiques et techniques nouvelles”.

L’objectif de cette équipe de choc sera de créer un “chercheur d’alignement automatisé” de niveau humain pouvant évoluer grâce à d’importantes capacités de calcul afin d’aligner de manière itérative la superintelligence. Pour atteindre cet objectif, OpenAI allouera 20% de sa puissance de calcul sécurisée à cette initiative.

Selon Sam Altman, le PDG d’OpenAI, qui a rencontré plus de cent législateurs fédéraux américains ces derniers mois, une réglementation autour de l’intelligence artificielle est “essentielle”. Cependant, cela n’empêche pas ChatGPT d’être régulièrement critiqué pour ses désinformations, ses violations présumées des droits d’auteur et sa capacité à répondre de manière détournée à des requêtes dangereuses d’utilisateurs.

ChatGPT n’est pas la seule intelligence artificielle pouvant poser problème. Les créations de Midjourney deviennent de plus en plus réalistes et sont régulièrement utilisées à des fins de désinformation. Nous sommes encore loin de la superintelligence, et pourtant les IA soulèvent déjà de multiples questions éthiques. On peut se demander où cela nous mènera dans les années à venir.
#les #créateurs #ChatGPT #jouent #les #pompiers #pyromanes #estiment #pouvoir #dune #superinteligence #pourrait #être #très #dangereux
publish_date]

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.