5 mars 2025
Bangkok – L’âge de l’intelligence artificielle est ici. Le terme «IA génératif» est désormais monnaie courante, le public fasciné par le fait que l’IA puisse produire activement du contenu tel que les créations écrites et audio. En fait, le monde se dirige vers l’intelligence générale artificielle (AGI), par laquelle les robots pourront égaler et même surpasser l’intelligence humaine. Il est donc important que sa relation avec les enfants (moins de 18 ans) invite la réflexion et la précaution.
D’une part, l’IA peut apporter de grands avantages, en s’appuyant sur les forces de la numérisation existante. Il peut s’agir d’un outil éducatif utile, comme pour aider les enfants qui sont confrontés à des difficultés d’apprentissage ou à des handicaps. Il s’agit d’une technologie de connectivité et aide à faciliter la communication et la diffusion de l’information.
D’un autre côté, l’IA apporte également des risques. Il pourrait s’agir d’un outil d’exploitation, comme par rapport aux abus sexuels et à l’exploitation. Il s’agit d’une technologie d’aliénation utilisée pour l’intimidation, le discours de haine, la discrimination et la violence. Il s’agit d’un instrument de stress, rempli de dépendance et d’auto-validation superficielle. Il émerge comme un instrument de soumission et de découragement humain, surtout quand et où il contrôle la vie humaine, peut-être absolument.
Comment alors la communauté mondiale est-elle de gérer cette ambivalence? Le cadre de guidage international est la Convention sur les droits de l’enfant et son commentaire général n ° 25 sur les droits des enfants dans l’environnement numérique, mettant en évidence la protection de l’enfance.
Sur un front, il y a la situation à deux pistes par laquelle une approche générale est contrastée avec une approche plus spécifique pour gérer la relation entre l’IA et les enfants. Le premier est illustré par diverses lois et directives de nature générale, par exemple pour protéger la vie privée et la sécurité des enfants et pour mettre en évidence la transparence de l’IA, en particulier pour aider à expliquer les avantages et les inconvénients de l’IA aux enfants.
Sur un autre front, il y a la vision contrastée entre les directives éthiques de nature persuasive concernant l’utilisation de l’IA et l’approche normative des réglementations contraignantes avec responsabilité conséquente en cas de violations. L’approche éthique est sortie de plusieurs agences internationales et met en évidence les principes de base, tels que «ne pas nuire», la sécurité et la sécurité, la confidentialité et la protection des données, la responsabilité et la responsabilité, la transparence et l’explication des fonctions de l’IA.
Le premier exemple de l’approche normative est la loi sur l’IA de l’Union européenne, qui est entrée en vigueur en 2025. Il existe une liste de pratiques interdites. Le profilage social, où les données peuvent être utilisées pour discriminer les gens, est interdite. Le ciblage subliminal des émotions des enfants comme une sorte de manipulation est prescrit. La collecte de données biométriques en temps réel à des fins de surveillance n’est pas autorisée, bien qu’il puisse y avoir une certaine latitude en ce qui concerne la sécurité nationale. Avec des risques moindres, le secteur des entreprises est appelé à avoir des codes de conduite comme une sorte d’autorégulation pour la police lui-même, sous réserve de liaison avec le système de supervision de l’UE dans son ensemble.
D’après une autre dimension, il y a la question de savoir comment faire face à un contenu nocif qui n’est pas illégal. Par exemple, le simple fait que X déteste y n’est pas nécessairement illégal dans le droit international ou le droit national. D’autres actions peuvent donc être nécessaires. À l’heure actuelle, l’industrie numérique, en particulier ses développeurs et déploieurs, a déjà adopté certains outils grâce à l’autorégulation pour modérer le contenu et éliminer le contenu nocif, parfois avec et par le filtrage. Cela pourrait également couvrir diverses formes d’intimidation et de toilettage des enfants, ce qui pourrait autrement conduire à la discrimination ou à la violence.
La clé réside dans l’alphabétisation numérique et de l’IA afin que le public puisse profiter des avantages de la technologie en toute sécurité, en toute sécurité, «intelligemment» et durablement. Cela peut être aidé par l’industrie de l’IA garantissant que ses membres sont alphabétisés de l’angle d’évaluation des risques dans le cadre de la diligence raisonnable et de les atténuer.
En substance, il ne peut y avoir de substitut à un public instruit et alphabétisé avec un esprit exigeant et critique, ainsi que pour avoir des moyens cognitifs et efficaces pour se protéger des transgressions.
De toute urgence, les familles doivent avoir des options de «désintoxication numérique». Cela permettrait aux parents de travailler avec des enfants pour protéger certains espaces à la maison sans technologie. Il doit y avoir des périodes d’interaction humaine sans technologie, ainsi que le temps de loisirs en tant qu’êtres humains.
Les activités humaines telles que l’aide pro bono pour les groupes défavorisés doivent être nourris, pour générer la chaleur de l’empathie, qu’aucune technologie ne peut remplacer.
Par conséquent, la communauté a besoin de «meilleurs conseils pour la désintoxication numérique» maintenant!
L’écrivain est professeur émérite à la Faculté de droit de l’Université Chulalongkorn.
#Protéger #les #enfants #lère #lintelligence #artificielle