2024-06-20 13:00:00
Il a cofondé la société derrière Chat-GPT et a dirigé ses recherches à long terme sur la sécurité. Mais ses objectifs et ceux de Sam Altman continuaient de diverger.
Ilya Sutskever et Sam Altman ne se sont jamais vraiment entendus. Sutskever est un chercheur ringard dont la principale préoccupation est la sécurité à long terme de l’humanité. Sam Altman est un investisseur sûr de lui et chéri qui évoque les dangers de l’intelligence artificielle (IA), mais seulement pour rassurer dans la phrase suivante que l’Open AI agit de manière très responsable. Il met en garde contre le pouvoir de l’IA, mais préconise une réglementation stricte.
En 2015, les deux hommes semblaient toujours avoir les mêmes objectifs. Sutskever et Altman ont fondé Open AI avec d’autres experts en IA et entrepreneurs en tant que startup à but non lucratif, car ils considéraient l’intelligence artificielle comme trop importante pour laisser son développement aux seules grandes entreprises technologiques. Le but ultime ne devrait pas être le profit, mais plutôt le bien-être de l’humanité.
Sutskever fonde désormais une entreprise qui pourrait concurrencer Open AI avec un objectif très similaire. La nouvelle société baptisée Safe Superintelligence souhaite construire une intelligence artificielle inoffensive et très avancée, a annoncé mercredi Ilya Sutskever.
Ilya Sutskever a participé pour la première fois à l’expulsion d’Altman
L’Open AI s’est progressivement éloignée de son objectif initial au fil des années. La recherche étant devenue plus chère et l’argent plus rare, il a été décidé en 2019 d’attirer de nouveaux investisseurs avec une filiale à but lucratif. Microsoft est arrivé avec un milliard de dollars. Le reste appartient à l’histoire : Open AI est devenu mondialement connu en 2022 avec la sortie du chatbot Chat-GPT et a depuis captivé le public avec des produits toujours nouveaux.
Mais alors que le PDG Sam Altman était enthousiasmé par le développement, les inquiétudes grandissaient parmi ceux qui étaient toujours intéressés par l’objectif initial de la startup : développer non seulement l’IA vocale, mais une intelligence artificielle qui dépasse les capacités humaines et peut mener des recherches et des recherches par elle-même. développer davantage.
Cette vision est aussi appelée intelligence artificielle générale ou superintelligence. La grande question de savoir comment construire un tel système et garantir qu’il ne nuise pas à l’humanité a toujours préoccupé Sutskever.
Le conflit s’est aggravé l’automne dernier avec l’expulsion de Sam Altman, dans laquelle Ilya Sutskever était également impliqué. Cependant, il a rapidement exprimé ses remords, qui ont peut-être joué un rôle dans la réintégration de Sam Altman après quelques jours. Ce qui se cache exactement derrière tout cela n’est toujours pas clair, même s’il y a de plus en plus de signes d’un mauvais style de leadership de la part d’Altman.
Pour l’instant, Ilya Sutskever est resté dans son poste de co-responsable de l’équipe Superalignment, dont le but était de découvrir d’ici quatre ans comment « guider et contrôler » des systèmes d’IA « plus intelligents que nous ».
La nouvelle société veut éviter la pression commerciale
La question de savoir si les systèmes d’IA pourraient devenir dangereux pour l’humanité une fois devenus plus puissants et indépendants est une préoccupation de l’industrie depuis des années. Certains experts, dont le pionnier de l’IA Geoffrey Hinton, le prennent très au sérieux. Hinton était le directeur de doctorat d’Ilya Sutskever. D’autres considèrent ces préoccupations comme très futuristes et exagérées et plaident pour qu’une plus grande attention soit accordée aux dommages concrets causés par l’IA, comme la désinformation ou la discrimination.
Open AI souhaitait investir au moins 20 % de la puissance de calcul dans ce domaine, a-t-il été annoncé lors de l’annonce de l’équipe Superalignment il y a un an.. Mais apparemment, les chercheurs n’étaient pas satisfaits. Sutskever l’a annoncé il y a environ un mois, et d’autres chercheurs en sécurité ont emboîté le pas. Parmi eux se trouvait Jan Leike, collègue de Sutskever, qui s’est plaint publiquement du fait qu’avec Open AI, les problèmes de sécurité devaient céder la place à des produits brillants.
Sutskever fonde sa nouvelle société Safe Superintelligence avec Daniel Gross, qui a travaillé sur l’IA chez Apple et est maintenant investisseur et entrepreneur, et Daniel Levy, qui, comme Sutskever, a travaillé chez Open AI.
Les fondateurs veulent éviter que l’histoire de l’Open AI ne se répète. Sutskever a déclaré au service financier Bloomberg : “La particularité de l’entreprise est que son premier produit sera une superintelligence sécurisée – et elle ne publiera rien d’autre avant cela.” Le chercheur affirme que cela évitera la pression commerciale et la concurrence avec d’autres laboratoires d’IA. On ne sait toujours pas exactement comment le nouveau laboratoire de superintelligence de Sutskever sera financé.
Avec le matériel de l’agence
#Ilya #Sutskever #crée #propre #entreprise #dIA #après #Open
1718925970