Lorsque ChatGPT a été lancé il y a deux ans, il a mis l’intelligence artificielle (IA) générative sous les projecteurs des médias. Alors que de nombreux acteurs du monde des affaires ont vu les opportunités d’une efficacité accrue, d’autres ont exprimé de sérieuses inquiétudes aux deux extrêmes.
La plupart des Américains craignent que l’IA ne leur prenne leur emploi. Un récent sondage Gallup a révélé que près de sept personnes sur dix pensent que cela se produira sur le long terme. Cependant, ce que l’on sait moins, c’est que les utilisateurs de l’IA sont également inquiets. Le problème qu’ils voient est multiforme mais se résume finalement à une seule chose : la confiance.
«Tout le thème tourne autour de la confiance», explique Raj Venkatesan, professeur d’administration des affaires à la Darden School of Business de l’Université de Virginie. En tant qu’expert en marketing, il voit, comme ses collègues, l’importance de l’adoption par les consommateurs pour que cette nouvelle technologie décolle. Pour que cela se produise, la confiance est essentielle.
« Ce n’est pas parce qu’un produit est bon qu’il se vend », dit-il.
Venkatesan souligne que ChatGPT n’a pas encore été pleinement adopté par le marché de masse. “Vous avez constaté beaucoup d’utilisation lorsque ChatGPT est sorti”, dit-il. La première vague d’adoptants était composée d’innovateurs qui maîtrisaient la technologie et étaient à l’aise avec la prise de risques. “Mais le pourcentage de personnes qui l’utilisent dans le monde se situe toujours dans un monde beaucoup plus petit et instruit. .» En d’autres termes, cela n’est pas généralisé.
Une partie de l’hésitation est due au manque de confiance.
Omar Garriott, directeur exécutif du Batten Institute for Entrepreneurship, Innovation and Technology, affirme que la confiance dans la technologie et l’IA a chuté. Il y a huit ans, neuf pays sur dix faisaient confiance au secteur technologique, mais ce pourcentage est désormais tombé à 76 %, selon les données qu’il cite du baromètre Edelman Trust. La confiance dans l’IA est encore plus faible, à seulement 50 %.
Garriott affirme que le secteur technologique dans son ensemble, y compris le sous-secteur de l’IA, doit être proactif pour regagner la confiance. Ce n’est pas quelque chose d’agréable à avoir, dit-il. C’est plutôt essentiel.
Un autre problème troublant survient lorsque les gens pensent que chaque erreur de l’IA signifie que toute IA est mauvaise, explique Luca Cian, professeur de marketing à UVA Darden. Ses recherches ont révélé que lorsque les systèmes d’intelligence artificielle (IA) commettent des erreurs lors de la fourniture de services gouvernementaux, les citoyens sont plus susceptibles de perdre confiance dans les autres systèmes d’IA, même ceux gérés par différentes agences. Cet effet de « transfert algorithmique » ne se produit pas au même degré avec les erreurs humaines.
“Lorsque les gens découvrent qu’un système d’IA commet des erreurs dans une agence gouvernementale, ils hésitent davantage à interagir avec les systèmes d’IA d’autres agences, car ils pensent que les mêmes erreurs se reproduiront”, dit-il.
Il convient de mentionner que la présomption publique dans cette affaire est fausse. “L’IA utilisée par les différents États est très différente”, explique Cian. Le problème pour gagner la confiance dans cet exemple est que la confiance disparaît en raison du manque de compréhension du public.
Un autre domaine dans lequel l’IA est adoptée mais qui pose également des problèmes est celui de l’information. De nombreux éditeurs utilisent désormais l’IA pour rédiger des articles, car c’est moins cher, explique Cian.
« Ce que nous avons découvert, c’est que les gens trouvent les informations écrites par l’IA moins précises », dit-il. Les informations réelles et fausses étaient considérées comme moins crédibles lorsque les gens pensaient qu’elles étaient écrites par l’IA.
Il existe également des considérations stratégiques quant au moment où il faut ou non annoncer l’utilisation de l’IA aux consommateurs. Cian souligne que les consommateurs exigent parfois une touche humaine lorsqu’il s’agit de recommandations pour certains biens et services. Il pointe du doigt des éléments « hédoniques » ou associés aux sens. Lorsqu’un service de streaming de films suggère quelque chose à regarder, il ne mentionnera probablement pas l’IA. Au lieu de cela, cela ressemble davantage à « des gens comme vous ont aimé ces films ».
Pour les produits uniquement utilitaires, l’IA peut bien fonctionner. “Pour les articles utilitaires comme les lubrifiants automobiles, l’IA est parfaite”, explique Cian. « Il en va de même pour les aliments utilitaires, ou en d’autres termes, sains ; mais pour un gâteau, vous voudrez peut-être éviter de mentionner l’IA.
Il est presque impossible de suivre la rapidité des changements dans la réglementation sur l’IA, ainsi que le manque de compréhension des consommateurs, dit Garriott. C’est au moins en partie la raison pour laquelle lui, Venkatesan et d’autres discuteront des questions de confiance et d’éthique en matière d’IA lors de la prochaine conférence sur le leadership dans les affaires, les données et l’intelligence, le 6 décembre au Forum Hotel sur Darden School Grounds, organisée par le Institut LaCross pour l’intelligence artificielle éthique en entreprise.
Le professeur Darden Luca Cian a co-écrit «On croit moins aux nouvelles de l’intelligence artificielle générative” avec Chiara Longoni, Andrey Fradkin et Gordon Pennycook. Il est également co-auteur de «Transfert algorithmique : les gens généralisent à outrance les échecs de l’IA au sein du gouvernement» avec Chiara Longoni et Ellie Kyung, et «L’intelligence artificielle dans des contextes utilitaires ou hédoniques : l’effet « parole de machine »» avec Chiara Longoni.
Le professeur Darden Rajkumar Venkatesan a co-écrit « Influence de la réglementation sur la confidentialité sur les acquisitions d’IA centrées sur le client : cas du RGPD » avec S. Arunachalam.
#Lintelligence #artificielle #vous #inquiète #Vous #nêtes #pas #seul