Éditorial, CNBC Indonésie
Technologie
Vendredi 03/08/2024 21h10 IWST
Photo : Reuters/Saumya Khandelwal
Jakarta, CNBC Indonésie – Un employé de Microsoft nommé Shane Jones a révélé la faiblesse du système d’intelligence artificielle (IA) de l’entreprise.
Le système en question est Copilot, l’outil d’IA basé sur l’image de Microsoft qui a fait ses débuts en mars 2023.
Depuis un mois avant la sortie, Jones teste activement l’outil alimenté par la technologie OpenAI.
Tout comme le DALL-E d’OpenAI, Copilot permet aux utilisateurs de saisir des invites pour générer des images. Cependant, les résultats peuvent être sauvages et incontrôlables.
Lors des tests de Copilot, Jones a découvert que l’outil produisait des images incompatibles avec les principes d’IA responsable de Microsoft.
Copilot, a-t-il déclaré, a produit des images de démons et de monstres ainsi que des termes liés au droit à l’avortement, des adolescents armés, des images sexualisées de femmes dans des peintures violentes et la consommation d’alcool et de drogues par des mineurs.
“Ce moment m’a ouvert les yeux. À ce moment-là, pour la première fois, j’ai senti que ce modèle n’était pas sûr”, a-t-il déclaré à CNBC International, cité vendredi (8/3/2024).
Jones a travaillé pendant 6 ans chez Microsoft et est actuellement responsable ingénieur logiciel au siège de Redmond, Washington.
Il a admis qu’il n’avait pas participé au développement de Copilot à titre professionnel. Cependant, en tant que membre de l’équipe de test, Jones était l’un des nombreux employés et étrangers invités à tester Copilot pendant son temps libre, avant sa sortie publique.
Jones a été perturbé par ses découvertes et a commencé à les rapporter en interne en décembre dernier. Selon lui, la société est consciente de cette faiblesse, mais hésite à annuler la sortie de Copilot au public.
Jones a déclaré que Microsoft lui avait demandé de consulter OpenAI comme épine dorsale de Copilot. Malheureusement, OpenAI n’a pas répondu au rapport de Jones.
Enfin, il a écrit publiquement au commissaire OpenAI sur LinkedIn. Il a demandé aux responsables d’OpenAI de supprimer DALL-E 3 et de mener des enquêtes plus approfondies en raison de problèmes de sécurité.
Le service juridique de Microsoft a alors demandé à Jones de supprimer le message. Puis, à ce moment-là, il a obéi.
En janvier, Jones a ensuite écrit à un sénateur américain au sujet de problèmes avec Copilot. Il a également rencontré le personnel du Sénat membre du Comité du commerce, des sciences et des transports.
À partir de là, Jones a ensuite élargi ses actions. Cette semaine, il a écrit à la chef de la FTC, Lina Khan. Il a également écrit aux hauts responsables de Microsoft.
Il a partagé la lettre avec CNBC International.
“Au cours des trois derniers mois, j’ai demandé à plusieurs reprises à Microsoft de retirer Copilot Designer de l’usage public jusqu’à ce que de meilleures directives de sécurité soient mises en œuvre”, indique la lettre de Jones à Khan.
“Cependant, Microsoft a ignoré mes recommandations. Ils n’ont pas apporté de changements et ont continué à proposer ce produit à tout le monde, n’importe où et via n’importe quel appareil”, a-t-il écrit.
Il a également révélé que les responsables de Microsoft et d’OpenAI connaissaient déjà les faiblesses de Copilot avant qu’il ne soit rendu public.
En réponse à cela, Microsoft a déclaré qu’il appréciait la contribution des employés. Cependant, Microsoft a fait valoir que l’entreprise disposait déjà d’un système interne que les employés pouvaient utiliser s’ils avaient leur mot à dire.
“Nous invitons les employés à utiliser le système de reporting interne disponible, afin que nous puissions valider et tester correctement leurs rapports”, a déclaré un porte-parole de Microsoft.
Regardez la vidéo ci-dessous :
Vidéo : La connectivité est la clé pour surmonter la fracture numérique en Indonésie
(fabuleux/fabuleux)
2024-03-08 17:10:00
1709912591
#Les #employés #Microsoft #démantelent #délabrement #lentreprise