2024-05-28 18:30:17
AGI – Déléguer certaines décisions judiciaires à des algorithmes pourrait garantir un jugement plus juste pour les accusés, éliminant certains préjugés systémiques des juges. C’est ce que révèle une nouvelle étude de l’Université d’Oxford, publiée dans le Quarterly Journal of Economics. Les entreprises utilisent de plus en plus de modèles basés sur l’apprentissage automatique pour prendre des décisions à enjeux élevés. Plusieurs hypothèses sur le comportement humain sous-tendent ces modèles d’apprentissage, ce qui se traduit par des recommandations de produits sur Amazon, un filtrage anti-spam dans les e-mails et des SMS prédictifs sur votre téléphone.
Les chercheurs ont analysé le système de mise en état de New York et ont découvert qu’une partie importante des juges commettent des erreurs systématiques de prédiction du risque de mauvaise conduite avant le procès en fonction des caractéristiques des accusés, notamment leur origine ethnique, leur âge et leur comportement antérieur. La recherche a utilisé des informations fournies par les juges de New York, qui sont affectés presque au hasard aux affaires réglées dans la salle d’audience. L’étude était basée sur les informations provenant de 1 460 462 cas de la ville de New York, dont 758 027 cas ont abouti à une décision de mise en liberté avant procès. Les chercheurs ont développé un test statistique pour déterminer si un juge avait commis des erreurs de prédiction systématiques et ont fourni des méthodes pour estimer la manière dont les prédictions des juges sont systématiquement biaisées.
En analysant les décisions de libération provisoire des juges de New York, l’étude a révélé qu’au moins 20 % des juges commettent des erreurs systématiques en prédisant le risque de mauvaise conduite de l’accusé, compte tenu de ses caractéristiques. Motivés par ces résultats, les scientifiques ont estimé les effets du remplacement des juges par des règles de décision algorithmiques. Des recherches ont montré que les décisions d’au moins 32 % des juges de New York étaient incompatibles avec la capacité réelle des accusés à verser leur caution et avec le risque réel qu’ils ne se présentent pas au procès.
Les résultats ont montré que, lorsque l’on considère à la fois l’origine ethnique et l’âge de l’accusé, le juge commet des erreurs de prédiction systématiques sur environ 30 % des accusés qui lui sont assignés. Lorsqu’il considère à la fois l’origine ethnique de l’accusé et le fait de savoir si l’accusé a été accusé d’un crime, le juge commet des erreurs de prédiction systématiques sur environ 24 % des accusés assignés. Même si l’étude observe que le remplacement des juges par une règle de décision algorithmique a des effets ambigus qui dépendent de l’objectif de la classe politique, à savoir un plus grand nombre d’accusés comparaissant au procès ou un nombre moindre d’accusés restant en prison en attendant leur procès, elle Il semble que le remplacement des juges par un algorithme entraînerait des améliorations allant jusqu’à 20 % dans les résultats des procès, mesurés par le taux de défaut de comparution des accusés libérés et le taux de détention provisoire.
“Les effets du remplacement des juges humains par des algorithmes dépendent du compromis entre le fait que les humains commettent des erreurs de prédiction systématiques basées sur les informations observables disponibles pour l’algorithme et le fait que les humains observent des informations privées utiles”, a déclaré Ashesh Rambachan, l’auteur principal de l’ouvrage. « Le cadre économétrique de ce travail permet aux chercheurs de fournir des preuves directes de ces forces concurrentes », a conclu Rambachan.
#Avec #des #algorithmes #plutôt #des #juges #les #peines #sont #justes
1717069097