La société a modifié ses directives sur l’intelligence artificielle, éliminant l’interdiction des armes et des applications de surveillance, citant un contexte géopolitique de plus en plus complexe.
Google a Mise à jour de ses principes éthiques sur l’intelligence artificielleÉliminer l’engagement à ne pas développer des technologies pour le secteur militaire, la surveillance ou qui peuvent causer des dommages importants. La modification a été identifiée pour la première fois par le Washington Post et confirmée par les archives Internet, marquant un changement de stratégie dans un moment de concurrence croissante dans le secteur de l’IA.
Dans le nouveau document publié par Google Deepmind, le PDG Demis Hassab Et le vice-président pour la technologie et la société James Manyika a redéfini les principes directeurs de l’entreprise, maintenant axés sur l’innovation, la collaboration et le développement responsable de l’IA. Cependant, le concept de «responsabilité» est délibérément laissé vague, sans exclure explicitement les applications militaires.
Intelligence artificielle entre la sécurité et la concurrence mondiale
Selon Google, la décision est dicté par le nouveau contexte internationalcaractérisé par une race mondiale vers le leadership en intelligence artificielle. Dans le poste officiel, l’entreprise souligne comment les gouvernements démocrates doivent guider le développement de l’IA, protégeant des valeurs telles que la liberté, l’égalité et les droits de l’homme, mais aussi soutenir la sécurité nationale.
L’ancienne liste
Cette déclaration Il s’aligne sur la tendance des autres grandes technologiesEn tant que destination, OpenI et Amazon, qui ont déjà ouvert la voie aux collaborations avec le gouvernement et les entités militaires.
Du refus des armes aux collaborations avec les gouvernements
Malgré les déclarations de principe précédentes, Google a déjà collaboré avec le secteur militaire dans le passé. Parmi les contrats les plus discutés figurent:
- Project Maven (2018): Un accord avec le Pentagone pour l’analyse des images des drones via l’IA, un projet qui a soulevé de fortes manifestations entre les employés de Google.
- Project Nimbus (2021): Une collaboration pour fournir des services cloud avancés à l’armée israélienne.
Dans le passé, Google Deepmind avait précisé qu’elle ne voulait pas appliquer sa technologie à la sphère militaireMais avec les nouvelles modifications apportées aux politiques d’entreprise, ce poste semble avoir été mis de côté.
Google n’est pas la seule entreprise à avoir changé sa position sur l’IA à des fins militaires. Meta permet l’utilisation limitée de son modèle LLAMA pour les applications liées à la sécurité, tandis qu’OpenII a ouvert la porte aux utilisations du gouvernement sélectionnées pour Chatgpt. Amazon, avec un accord avec Palantir, a également mis Alta di Anthropic à la disposition des agences de sécurité américaines.
#Google #change #route #promesse #pas #développer #darmes