OpenAI commence à former son prochain modèle d’IA et crée un comité de sécurité pour guider les décisions critiques

OpenAI commence à former son prochain modèle d’IA et crée un comité de sécurité pour guider les décisions critiques

2024-05-28 16:27:18

MADRID, le 28 mai. (Portail/EP) –

OpenAI a commencé à entraînez votre prochain modèle d’intelligence artificielle (IA), avec lequel il prévoit d’atteindre le « prochain niveau de capacités » pour progresser vers l’intelligence artificielle générale (AGI) et, compte tenu de cette avancée, a a annoncé la création d’un nouveau comité de sécuritéavec lequel vous ferez des recommandations sur les décisions de sécurité critiques pour les projets et les opérations de l’entreprise.

Durant ce mois de mai, l’entreprise technologique a lancé son dernier modèle d’IA GPT-4o mis à jour, Qu’est que c’est plus rapide et plus performant que les versions précédentescar il offre des réponses en moyenne de 320 millisecondes (similaire au temps de réponse humain), en plus d’accepter toute combinaison de texte, d’audio et d’image.

Toutefois, la société dirigée par Sam Altman continue d’avancer dans le développement de ses modèles d’IA et, bien que leur intention soit de continuer à lancer des modèles « à la pointe du secteur », tant en termes de capacités que de sécurité, ils ont également indiqué qu’il était nécessaire d’encourager “un débat vigoureux en ce moment important”, concernant les dernières avancées de l’entreprise.

Dans ce cadre, OpenAI a partagé que a “récemment” commencé à entraîner son prochain modèle d’IA, qu’il a qualifié de « modèle de la prochaine frontière » et qui devrait succéder au GPT-4, avec lequel il a assuré que Ils disposeront de la technologie nécessaire pour passer au « prochain niveau de capacités » sur la voie de l’AGI.

Face à cette innovation, l’entreprise technologique a annoncé le création d’un nouveau comité de sécurité, qui sera chargé d’évaluer et de développer les processus et les garanties de l’entreprise pour, ensuite, faire recommandations au Conseil sur les « décisions critiques en matière de sécurité » liés aux projets et opérations OpenAI.

C’est ce qu’OpenAI a partagé dans un déclaration sur leur site Webdans lequel il a précisé que le comité de sécurité est dirigé par des experts en technologie de l’IA, Bret Taylor, Adam D’Angelo et Nicole Seligman, ainsi que par le PDG de l’entreprise technologique, Sam Altman.

Spécifique, au cours des 90 prochains joursle Comité de sécurité évaluera et développera « davantage » les processus et les garanties qu’OpenAI a actuellement en place. Après cette période, vous discuterez de vos recommandations avec l’OpenAI Board puis partagera publiquement une mise à jour sur les recommandations adoptées.

Tout cela dans le cadre de l’objectif OpenAI de rendre plus cohérentes les mesures de sécurité des nouvelles technologies de la compagnie. De cette manière, l’entreprise a souligné que le Comité disposera également d’experts techniques et de sécurité pour soutenir ce travail, notamment d’anciens responsables de la cybersécurité, Rob Joyce et John Carling.



#OpenAI #commence #son #prochain #modèle #dIA #crée #comité #sécurité #pour #guider #les #décisions #critiques
1716952468

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.