Nouvelles Du Monde

L’intelligence artificielle dans les procédures d’asile : les gens ne sont pas humains non plus

2024-07-10 11:04:00

Scholz aimerait voir AI aider dans les procédures d’asile à l’avenir. Cela semble effrayant, mais cela pourrait également conduire à des décisions plus rapides et plus humaines.

De combien de papiers avez-vous besoin pour demander l’asile ? Photo: Jungeblodt

Rester ou expulser ? L’intelligence artificielle pourrait bientôt trancher de plus en plus cette question dans les procédures d’asile. Du moins si le chancelier Olaf Scholz parvient à ses fins. Il s’est rendu lundi au BAMF et a expliqué que « grâce aux développements modernes, des décisions de routine pourraient être prises rapidement et pourtant avec une grande qualité ».

Des machines qui décident du sort des gens ? Cela ressemble plus à de la science-fiction effrayante qu’à un système d’asile humanitaire que nous pourrions désespérément utiliser. Mais c’est peut-être exactement le problème.

Les procédures migratoires allemandes sont actuellement inhumaines, même sans intelligence artificielle. Ils peuvent être racistes à l’extrême. Et ils dépendent des décisions des individus, comme on a notamment pu le constater dans le cas du juge Bengt-Christian Fuchs de Gera.

Lire aussi  HereAfter AI : Parler à ceux qui ne sont plus là : le risque de ressusciter les morts avec l’intelligence artificielle | Technologie

Fuchs aurait rédigé en ligne des discours de haine d’extrême droite contre les réfugiés et aurait en même temps été responsable des procédures d’asile. Il était remarquablement rare qu’il fasse droit à des plaintes contre des demandes d’asile rejetées, a rapporté le MDR. Suite à ces allégations, le tribunal administratif de Gera a décidé : il ne devrait plus être compétent en matière de demandes d’asile.

Mais l’inhumanité prévaut aussi ailleurs, comme en témoigne l’envie avec laquelle l’Union regarde d’autres pays européens qui veulent autoriser des règles d’expulsion plus strictes vers des pays tiers – vers l’Italie, par exemple, qui fait examiner ses demandes d’asile en Albanie et seulement après une positif Remarquez que les gens veulent être autorisés à entrer. L’inhumanité se voit dans le fait que des travailleurs qualifiés et bien formés, dont l’Allemagne a un besoin si urgent, sont expulsés.

Objectif et impartial

Tous ces cas montrent que le système est inhumain, coûteux et sujet aux erreurs. C’est peut-être pour cela que nous devons accepter l’idée que l’IA et la numérisation, si redoutées en Allemagne, peuvent faire la différence.

Lire aussi  Nessel et 23 AG défendent la loi pour empêcher le "déplacement injustifié" d'enfants autochtones - Oregon Capital Chronicle

Cela pourrait être une aide pour les municipalités qui gémissent sous la charge bureaucratique : par exemple, en lisant plus rapidement les documents et en rédigeant des avis qui accompagnent chaque demande d’asile individuelle. Ils seraient également d’une grande aide pour les personnes qui doivent parfois vivre des mois durant dans l’incertitude de savoir si leur demande d’asile sera acceptée ou rejetée.

Les systèmes d’IA peuvent être programmés pour fonctionner de manière objective et impartiale, sur la base de critères et d’exigences juridiques clairement définis. Cela pourrait conduire à des décisions plus justes et cohérentes qui ne dépendent pas des opinions personnelles des décideurs individuels.

Bien entendu, l’utilisation de l’IA dans des décisions aussi vitales n’est pas totalement anodine. Ce qui est clair, c’est que les systèmes doivent être vérifiés régulièrement pour garantir qu’ils fonctionnent correctement et qu’ils ne contiennent pas d’erreurs systématiques ou de préjugés (inconscients). Parce que chaque algorithme est finalement formé par des humains ou du moins avec des données générées par l’homme. Comment garantir qu’elle ne soit pas formée en fonction d’une partie de la population qui a perdu son soutien à l’immigration et à l’asile ?

Lire aussi  Offre de 300 millions pour Cristiano Ronaldo

De plus, l’IA ne peut pas remplacer complètement les personnes au sein de l’autorité. D’une part à cause des emplois, d’autre part parce que toute personne en quête de protection mérite de voir lors de sa recherche un visage amical qui comprend le drame de sa situation de vie.

On ne sait pas exactement comment le gouvernement fédéral envisage l’utilisation de l’IA au BAMF. Dès que le plan est en place, il vaut la peine d’y jeter un regard critique. Mais la visite de Scholz laisse un peu d’espoir. Parce que si les gens ne parviennent pas à garantir une procédure d’asile humaine, alors peut-être que la machine le fera.



#Lintelligence #artificielle #dans #les #procédures #dasile #les #gens #sont #pas #humains
1720621797

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT