OpenAI dissout l’équipe qui devait assurer la sécurité de l’IA « hyper-intelligente » – IT Pro – Actualités

OpenAI dissout l’équipe qui devait assurer la sécurité de l’IA « hyper-intelligente » – IT Pro – Actualités

OpenAI a dissous son équipe chargée d’atténuer les risques de sécurité de ses systèmes d’IA avancés. Selon OpenAI, le groupe sera intégré à d’autres départements de recherche. L’un des chefs d’équipe critique l’entreprise chez X.

OpenAI confirme vers Bloomberg qu’il a dissous l’équipe « Superalignment ». Cette équipe était dans fondée en juillet 2023 pour limiter les risques des futurs systèmes d’IA, « beaucoup plus intelligents » que les humains. Le département avait pour objectif résoudre les principaux défis techniques liés à l’ajustement et au contrôle de « l’intelligence artificielle hyper-intelligente » d’ici 2027.

OpenAI a déclaré à l’agence de presse que le groupe n’existerait plus en tant que département autonome, mais serait plutôt « plus profondément intégré à nos activités de recherche pour atteindre les objectifs de sécurité ». Les deux dirigeants de l’équipe, Ilya Sutskever et Jan Leike, ont démissionné de l’entreprise cette semaine. Le premier est co-fondateur d’OpenAI et a voté l’année dernière pour le limogeage du PDG Sam Altman. Il n’a pas donné de raison pour son départ.

Leike faites-le nous savoir à qu’il est depuis un certain temps en désaccord avec les dirigeants d’OpenAI sur les « priorités fondamentales » et qu’un « point de rupture a maintenant été atteint ». L’équipe n’aurait pas reçu suffisamment de ressources ces derniers mois pour poursuivre ses recherches « cruciales ». “Construire des machines plus intelligentes que les humains est une quête intrinsèquement dangereuse. OpenAI porte une énorme responsabilité au nom de l’humanité tout entière, mais la culture et les procédures de sécurité sont devenues secondaires par rapport aux produits brillants ces dernières années.”

Altman remercie Leike dans un article sur X pour sa contribution aux enquêtes de sécurité. Il répond également brièvement aux messages du chercheur : “Il a raison, nous avons encore beaucoup à faire et nous voulons nous y engager.”


2024-05-18 11:10:56
1716027098


#OpenAI #dissout #léquipe #qui #devait #assurer #sécurité #lIA #hyperintelligente #Pro #Actualités

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.