Rejoignez nos newsletters quotidiennes et hebdomadaires pour les dernières mises à jour et du contenu exclusif sur la couverture de l’IA de pointe. Apprendre encore plus
Dans notre hâte de comprendre et de comprendre l’IA, nous sommes tombés dans un piège séduisant : attribuer des caractéristiques humaines à ces systèmes robustes mais fondamentalement non humains. Cette anthropomorphisation de l’IA n’est pas seulement une bizarrerie inoffensive de la nature humaine : elle devient une tendance de plus en plus dangereuse qui pourrait obscurcir notre jugement de manière critique. Les chefs d’entreprise comparent l’apprentissage de l’IA à l’éducation humaine pour justifier leurs pratiques de formation auprès des législateurs qui élaborent des politiques basées sur des analogies erronées entre l’homme et l’IA. Cette tendance à humaniser l’IA pourrait influencer de manière inappropriée des décisions cruciales dans tous les secteurs et dans les cadres réglementaires.
Le piège de la langue
Écoutez comment nous parlons de l’IA : nous disons qu’elle « apprend », « pense », « comprend » et même « crée ». Ces termes humains semblent naturels, mais ils sont trompeurs. Lorsque nous disons qu’un modèle d’IA « apprend », il ne comprend pas comme un étudiant humain. Au lieu de cela, il effectue des analyses statistiques complexes sur de grandes quantités de données, ajustant les poids et les paramètres de ses réseaux neuronaux sur la base de principes mathématiques. Il n’y a pas de compréhension, d’eurêka, d’étincelle de créativité ou de compréhension réelle – juste une correspondance de modèles de plus en plus sophistiquée.
Ce tour de passe-passe linguistique est plus que simplement sémantique. Comme indiqué dans le document, Les arguments illusoires de l’IA générative en faveur d’une utilisation équitable: “L’utilisation d’un langage anthropomorphique pour décrire le développement et le fonctionnement des modèles d’IA est déformante car elle suggère qu’une fois formé, le modèle fonctionne indépendamment du contenu des œuvres sur lesquelles il s’est formé.” Cette confusion a des conséquences réelles, notamment lorsqu’elle influence les décisions juridiques et politiques.
La déconnexion cognitive
L’aspect le plus dangereux de l’anthropomorphisation de l’IA est peut-être la façon dont elle masque les différences fondamentales entre l’intelligence humaine et l’intelligence artificielle. Alors que certains systèmes d’IA excellent dans des types spécifiques de tâches de raisonnement et d’analyse, les grands modèles de langage (LLM) qui dominent le discours actuel sur l’IA – et sur lesquels nous nous concentrons ici – fonctionnent grâce à une reconnaissance de formes sophistiquée.
Ces systèmes traitent de grandes quantités de données, identifiant et apprenant les relations statistiques entre les mots, les phrases, les images et autres entrées pour prédire ce qui devrait suivre dans une séquence. Lorsque nous disons qu’ils « apprennent », nous décrivons un processus d’optimisation mathématique qui les aide à faire des prédictions de plus en plus précises basées sur leurs données d’entraînement.
Considérez cet exemple frappant issu des recherches de Berglund et ses collègues : Un modèle formé sur des matériaux indiquant « A est égal à B » ne peut souvent pas raisonner, comme le ferait un humain, pour conclure que « B est égal à A ». Si une IA apprend que Valentina Tereshkova a été la première femme dans l’espace, elle pourrait répondre correctement « Qui était Valentina Tereshkova ? » mais luttez avec « Qui a été la première femme dans l’espace ? » Cette limitation révèle la différence fondamentale entre la reconnaissance de formes et le véritable raisonnement – entre prédire des séquences probables de mots et comprendre leur signification.
L’énigme du droit d’auteur
L’angle mort des entreprises
L’IA anthropomorphisée crée des angles morts dangereux dans la prise de décision commerciale, au-delà de simples inefficacités opérationnelles. Lorsque les dirigeants et les décideurs considèrent l’IA comme « créative » ou « intelligente » en termes humains, cela peut conduire à une cascade d’hypothèses risquées et à des responsabilités juridiques potentielles.
Surestimation des capacités de l’IA
- Déployer des systèmes d’IA qui reproduisent par inadvertance du matériel protégé par le droit d’auteur, exposant ainsi l’entreprise à des poursuites pour violation
- Ne pas mettre en œuvre des mécanismes appropriés de filtrage et de surveillance du contenu
- Supposer à tort que l’IA peut faire la distinction de manière fiable entre le domaine public et le matériel protégé par le droit d’auteur
- Sous-estimer la nécessité d’un examen humain dans les processus de génération de contenu
Le point mort de la conformité transfrontalière
Le coût humain
L’un des coûts les plus préoccupants est le coût émotionnel de l’IA anthropomorphisée. Nous constatons de plus en plus de cas de personnes nouant des liens émotionnels avec les chatbots IA, les traitant comme des amis ou des confidents. Cela peut être particulièrement dangereux pour les personnes vulnérables qui pourraient partager des informations personnelles ou compter sur l’IA pour un soutien émotionnel qu’elle ne peut pas fournir. Les réponses de l’IA, bien qu’apparemment empathiques, sont des correspondances de modèles sophistiquées basées sur des données d’entraînement – il n’y a pas de véritable compréhension ni de lien émotionnel.
Cette vulnérabilité émotionnelle pourrait également se manifester dans le cadre professionnel. À mesure que les outils d’IA sont de plus en plus intégrés au travail quotidien, les employés peuvent développer des niveaux de confiance inappropriés dans ces systèmes, les traitant comme de véritables collègues plutôt que comme des outils. Ils peuvent partager trop librement des informations professionnelles confidentielles ou hésiter à signaler des erreurs par sentiment de loyauté déplacé. Bien que ces scénarios restent isolés pour le moment, ils mettent en évidence à quel point l’IA anthropomorphisée sur le lieu de travail pourrait obscurcir le jugement et créer des dépendances malsaines à l’égard de systèmes qui, malgré leurs réponses sophistiquées, sont incapables d’une véritable compréhension ou d’une véritable attention.
Se libérer du piège anthropomorphique
Alors comment avancer ? Premièrement, nous devons être plus précis dans notre langage à propos de l’IA. Au lieu de dire qu’une IA « apprend » ou « comprend », nous pourrions dire qu’elle « traite les données » ou « génère des résultats basés sur des modèles présents dans ses données d’entraînement ». Ce n’est pas seulement pédant – cela aide à clarifier ce que font ces systèmes.
Deuxièmement, nous devons évaluer les systèmes d’IA en fonction de ce qu’ils sont plutôt que de ce que nous imaginons qu’ils soient. Cela signifie reconnaître à la fois leurs capacités impressionnantes et leurs limites fondamentales. L’IA peut traiter de grandes quantités de données et identifier des modèles que les humains pourraient manquer, mais elle ne peut pas comprendre, raisonner ou créer comme le font les humains.
La voie à suivre
Plus tôt nous comprendrons la véritable nature de l’IA, mieux nous serons équipés pour faire face à ses profondes implications sociétales et aux défis pratiques de notre économie mondiale.
Roanie Levy est conseillère en licences et juridique chez CCC.
DataDecisionMakers
Bienvenue dans la communauté VentureBeat !
Si vous souhaitez en savoir plus sur des idées de pointe et des informations à jour, sur les meilleures pratiques et sur l’avenir des données et de la technologie des données, rejoignez-nous sur DataDecisionMakers.
#anthropomorphisante #les #conséquences #désastreuses #confusion #entre #humain #humain #sont #déjà #apparues