Écouter l’article
Apple a fait l’objet d’un examen minutieux après qu’une vidéo Tiktok virale a révélé que sa fonction de voix à texte iPhone affiche brièvement le mot “Trump” lorsque les utilisateurs dictent “racistes” avant de se corriger.
En réponse à la controverse, un porte-parole d’Apple a reconnu le problème, déclarant:
“Nous sommes conscients d’un problème avec le modèle de reconnaissance vocale qui alimente la dictée, et nous déploions un correctif dès que possible.”
Selon Apple, les modèles de reconnaissance vocale selon lesquels la dictée de puissance peut afficher temporairement des mots avec un chevauchement phonétique avant de s’installer sur le mot correct. L’entreprise a précisé que le bogue affecte d’autres mots à commencer par «R», pas seulement «raciste».
Probands techniques et controverse politique
Ce n’est pas la première fois que les grandes entreprises technologiques sont confrontées à des accusations de parti pris politique dans leurs caractéristiques axées sur l’IA.
En septembre 2024, l’assistant virtuel d’Amazon, Alexa, était au centre d’une controverse similaire après qu’une vidéo virale lui a montré des raisons de voter pour Kamala Harris, mais refusant d’offrir la même chose à Donald Trump ou Joe Biden. Amazon a confirmé plus tard que le problème était survenu en raison de remplacements manuels préprogrammés et était résolu en quelques heures.
Alors qu’Apple insiste sur le fait que son problème de voix à texte est purement une erreur technique et non un exemple de biais politique, la controverse a de nouveau mis en évidence les préoccupations concernant le rôle de l’intelligence artificielle dans la formation du discours public.
#Apple #Glitch #fait #apparaître #Trump #lorsquil #est #dicté #raciste #dans #fonction #voix #texte