Actualités JVTech IA : les créateurs de ChatGPT jouent les pompiers pyromanes et estiment que « le pouvoir d’une superinteligence pourrait être très dangereux »
OpenAI, l’entreprise derrière l’intelligence artificielle ChatGPT, a annoncé la création d’une équipe dédiée à la gestion des risques liés à l’émergence d’une intelligence artificielle super intelligente. Cette démarche rapproche de plus en plus la réalité de la science-fiction. Vous avez déjà vu les films Terminator ? Dans ces films, une intelligence artificielle appelée Skynet prend conscience d’elle-même et de sa capacité à s’en prendre à son créateur : l’homme. Elle prend alors le contrôle des réseaux mondiaux et déclenche une apocalypse nucléaire sur Terre, avant de créer une armée de robots pour éliminer ce qui reste de la résistance humaine.
Pendant des décennies, ce scénario catastrophe imaginé par James Cameron n’était que de la pure science-fiction. Mais aujourd’hui, il semble préoccuper ceux qui sont à l’origine de l’une des IA les plus populaires du moment : OpenAI, l’entreprise qui a créé ChatGPT. Cette semaine, OpenAI a annoncé la création de Superalignment, une sorte de “task force” chargée de “piloter et contrôler des systèmes d’IA beaucoup plus intelligents que nous”. Ces systèmes n’existent pas encore, mais selon les prévisions de l’entreprise, ce n’est qu’une question d’années avant que cela devienne réalité : cela pourrait se produire d’ici la fin de la décennie actuelle.
“L’intelligence artificielle sera la technologie la plus percutante jamais inventée par l’humanité et pourrait nous aider à résoudre de nombreux problèmes mondiaux importants”, déclare l’organisation. “Mais le pouvoir immense de l’intelligence artificielle pourrait aussi être très dangereux et conduire à la perte de pouvoir de l’humanité, voire à son extinction.” Vous voyez Skynet ?
Cette équipe de chercheurs sera co-dirigée par le scientifique en chef d’OpenAI, Ilya Sutskever, et le responsable de l’alignement du laboratoire de recherche, Jan Leike. Des recrutements sont en cours pour trouver les chercheurs capables de répondre à cette problématique complexe dans les années à venir.
“Actuellement, nous n’avons pas de solution pour diriger ou contrôler une IA potentiellement super intelligente et l’empêcher de devenir malveillante”, expliquent les deux chefs de file de l’initiative. Cette constatation est préoccupante, à une époque où de nombreuses entreprises technologiques s’engagent dans une véritable course pour ne pas être dépassées sur ce marché très lucratif.
Selon Ilya Sutskever et Jan Leike, ce sont actuellement les équipes de modération qui supervisent les progrès des IA telles que ChatGPT. “Mais les humains ne pourront pas superviser de manière fiable des systèmes d’IA beaucoup plus intelligents que nous, et donc nos techniques d’alignement actuelles ne seront pas adaptées à la superintelligence. Nous avons besoin de percées scientifiques et techniques nouvelles”.
L’objectif de cette équipe de choc sera de créer un “chercheur d’alignement automatisé” de niveau humain pouvant évoluer grâce à d’importantes capacités de calcul afin d’aligner de manière itérative la superintelligence. Pour atteindre cet objectif, OpenAI allouera 20% de sa puissance de calcul sécurisée à cette initiative.
Selon Sam Altman, le PDG d’OpenAI, qui a rencontré plus de cent législateurs fédéraux américains ces derniers mois, une réglementation autour de l’intelligence artificielle est “essentielle”. Cependant, cela n’empêche pas ChatGPT d’être régulièrement critiqué pour ses désinformations, ses violations présumées des droits d’auteur et sa capacité à répondre de manière détournée à des requêtes dangereuses d’utilisateurs.
ChatGPT n’est pas la seule intelligence artificielle pouvant poser problème. Les créations de Midjourney deviennent de plus en plus réalistes et sont régulièrement utilisées à des fins de désinformation. Nous sommes encore loin de la superintelligence, et pourtant les IA soulèvent déjà de multiples questions éthiques. On peut se demander où cela nous mènera dans les années à venir.
#les #créateurs #ChatGPT #jouent #les #pompiers #pyromanes #estiment #pouvoir #dune #superinteligence #pourrait #être #très #dangereux
publish_date]