Home » Sciences et technologies » Emilio Carrizosa, Mathématicien: “Le leadership de l’intelligence artificielle n’a pas de gouvernements en ce moment, mais des entreprises privées” | Technologie

Emilio Carrizosa, Mathématicien: “Le leadership de l’intelligence artificielle n’a pas de gouvernements en ce moment, mais des entreprises privées” | Technologie

by Nouvelles

2025-03-05 07:20:00

Emilio Carrizosa, à la Faculté de mathématiques de l’Université de Séville.Fondation BBVA

UN Emilio CarrizosaCordoue de 58 ans, ils sont passionnés par les mathématiques depuis l’enfance, ils semblaient “un exercice mental très intéressant”. Mais face à cette dévotion, la rive lointaine de la vie quotidienne a vu, ce qui l’a amené à chercher un pont entre les chiffres et leur application en résolution de problèmes. Le doute que c’était “une flèche ou une révélation mystique”, mais a trouvé le lien dans la recherche opérationnelle, qui définit comme “cette discipline qui aide à décider avec des ressources limitées”. Il a participé à des recherches sur les indices climatiques des sécheresses, les statistiques des sans-abri, le diagnostic de cancer ou quelle est la voie la plus éclairée pour rentrer chez elle la nuit de la distance effective de la reconnaissance faciale.

Il a sauté du bureau étudiant à la table du professeur de la Faculté de mathématiques de l’Université de Séville, où il a pu combiner sa vocation pédagogique inébranlable (il est le fils de deux professeurs d’école primaire) avec la passion d’enquêter. Ses œuvres en mathématiques appliquées et en sciences des données ont été Récompensé par la Statistics Society et la BBVA Foundation.

Demander. Avez-vous obsédé de prendre des mathématiques à la vie quotidienne?

Répondre. Je me suis beaucoup amusé avec le défi intellectuel des mathématiques, jusqu’à ce que, au milieu de la course, j’avais des matières qui avaient une composante plus appliquée, où ce que les mathématiques avaient été intuités à d’autres moments, quand ils étaient un outil pour résoudre des problèmes. Ensuite, j’ai commencé à poursuivre des statistiques et une optimisation mathématique avec l’intention de ne pas être laissée seule dans l’exercice intellectuel, qui était fascinant et est toujours, mais aussi de faire un autre pas, que les choses que j’ai apprises pourraient servir de règles pour un nouveau jeu, pour essayer de modéliser la réalité et d’essayer, d’une manière ou d’une autre, de participer à l’aide à la prise de décision. Nous pourrions dire oui, que c’est un peu une obsession qui a augmenté avec l’intelligence artificielle, avec laquelle il semble que les citoyens donnent le droit de décider de manière informelle et de déléguer à une machine qui prend des décisions pour nous. Ceci, il en va de même pour un humain, car, entre autres, il a eu une base de données pour apprendre qu’il est dans de nombreux ordres de grandeur au-dessus de ce qu’un humain peut gérer, mais en même temps, il implique une série de vices que nous ne contrôlons pas.

P. Les données ont-elles clairement une incertitude?

R. Non, mais ils aident à le contrôler. Je ne pourrai pas éliminer l’incertitude, mais j’aurai une idée assez précise de ce que je peux trouver demain. Je ne peux pas savoir s’il pleuvra ou non, mais je peux savoir la probabilité que demain il pleut et, selon cela, la prise de décisions. Les mathématiques, lorsqu’elles sont appliquées, sont basées sur des modèles où la clé est la relation entre les différents ingrédients et une paire de paramètres là-bas. Les modèles collectent beaucoup d’informations pour réduire l’incertitude. Je ne peux pas prédire que cela se produira, mais je peux, par exemple, avoir de bonnes estimations des probabilités selon lesquelles tout se passe et le prendre en compte pour prendre une décision compatible ou conforme aux informations que nous retirons des données.

Je ne peux pas prédire que cela se produira, mais je peux, par exemple, avoir de bonnes estimations des probabilités que tout se passe et le prendre en compte pour prendre une décision compatible ou conforme aux informations que nous retirons des données

P. Si les données sont l’ingrédient, quel est l’algorithme?

R. Ce serait la recette. L’algorithme est comme une recette pour faire un pot pour lequel vous lancez les ingrédients dans un certain ordre.

P. Et en suivant cette comparaison, quelles sont les biais?

R. Quand on m’a dit que la viande était la première et était la deuxième ou que les pois chiches étaient tendres et qu’ils n’allaient pas quitter la peau. C’est un défi très important car le biais existe et, avec l’intelligence artificielle, nous ne savons pas comment ils ont appris ces outils. Ils ont sûrement bu tous les biais existants qui sont parfois innocents, mais d’autres fois ils impliquent une discrimination des gens. C’est un danger que les mathématiques puissent détecter, corriger ou réduire. De retour à la comparaison des pois chiches, ce serait de les mettre dans l’eau pour un bon moment pour qu’ils soient doux. Les biais sont un problème très inquiétant. L’intelligence artificielle pose actuellement de nombreux défis positifs et est un outil assez démocratique dans le sens où vous n’avez pas besoin d’être dans le groupe des élus pour pouvoir l’utiliser, mais le danger que nous sommes confrontés est le manque possible de transparence et d’équité pour la prise de décision. L’exemple le plus célèbre est le programme pour aider les juges à déterminer la liberté provisoire d’un défendeur. Si vous étiez africain -American, je vous ai quitté en prison et si c’était du Caucase, avec une très grande probabilité, je vous ai dit “vous ne récupérerez pas, sortez”. De plus, nous ne pouvons pas perdre de vue le fait que la direction de l’intelligence artificielle n’a pas de gouvernements en ce moment, mais des entreprises privées qui regardent leur intérêt commercial. Nous ne savons pas qui décide pour nous.

P. Y a-t-il des décisions qui ne devraient pas être laissées à l’intelligence artificielle?

R. Il existe certains tests de diagnostic médical, par exemple, basés sur l’image, où la machine est capable de détecter le cancer dans une meilleure phase mieux que le spécialiste. C’est peut-être, par conséquent, un outil d’aide à la décision, mais j’aimerais que la décision ultime soit prise par une personne consciente, à qui je pourrais regarder dans les yeux en cas de problème, que je pourrais dire qu’il le ressent parce qu’il a une moralité.

P. Parce que les données n’ont pas de morale.

R. Les données sont à la fin de Ceros et certains à l’intérieur de l’ordinateur et reflètent une réalité, mais c’est comme parler de la morale d’un couteau: je peux l’utiliser pour manger ou pour attaquer quelqu’un. Les données sont neutres, mais pas l’utilisation que nous pouvons en faire. Et nous ne pouvons pas penser que les entreprises privées ou un gouvernement étranger feront une utilisation neutre des données lorsqu’elles nous aident à prendre des décisions. Je peux faire confiance aux critères d’un médecin qui fait de moi un diagnostic, mais si ce médecin a un intérêt commercial pour le diagnostic qu’il me donne, il devrait le prendre avec une grande prudence. C’est un problème que nous avons avec la prise de décision basée sur les données, avec si le dernier mot a toujours la machine et non quelqu’un avec une âme.

P. L’IA peut-elle prédire un Dana comme celui de Valence?

R. C’est un autre problème, celui des rares phénomènes non stationnaires. Nous n’avons pas d’échantillon suffisant pour pouvoir prédire le résultat avec certitude. Nous parlons de phénomènes pour lesquels nous n’avons pas de données similaires ou identiques à ceux que nous voulons étudier mais uniquement similaires et nous pouvons avoir un biais que nous ne pouvons pas contrôler la même chose et qui est décisif dans le phénomène.

P. La criminalité ne peut pas non plus être prédite.

R. Je travaille avec un groupe de l’Université du Chili qui collabore avec les Carabineros de Chili en faisant des cartes d’intensité du crime pour pouvoir prédire et prendre la décision où nous devons patrouiller plus ou moins, pour pouvoir savoir comment il est probable qu’il y a plus de crimes.

P. Mais si les données sont appliquées, par exemple, aux bourses, la machine peut décider de les supprimer là où il y a plus d’abandon scolaire, où il est essentiel d’investir des ressources.

R. C’est pourquoi la transparence des procédures est si importante et que la classe politique est consciente que la prise de décision doit être transparente, quelles sont les règles du jeu lorsque les ressources sont dédiées aux administrations publiques. J’aimerais voir objectivement quelle est la fonction qu’ils ont essayé d’optimiser quand ils ont pris une décision. Nous exigeons des machines une transparence que nous ne demandons pas aux personnes qui utilisent les données pour prendre des décisions.

P. Quel est l’algorithme le plus nécessaire pour la société?

R. Le défi en attente dans les sociétés occidentales, et malheureusement, il ne semble pas que nous nous inscrivons dans cette direction, est un algorithme avec des critères transparents pour la distribution des ressources. Ils nous parlent toujours du revenu par habitant et je ne suis pas intéressé. C’est une moyenne. Si un magnat milliardaire et moi vivons dans le même village, il aura un revenu par habitant très élevé lorsque le magnat aura 99,99% de tout.

P. Les mathématiques pourraient-elles empêcher la fraude?

R. Ils le font. En fait, les mécanismes de prédiction en ce sens sont très simples, il peut être détecté avec des mécanismes statistiques des années 80. Les auditeurs ne sont pas aveugles. Vous pouvez maintenant prédire avec un certain Tino lorsqu’une transaction est frauduleuse. Dans un atelier, en fonction du nombre d’employés dont il dispose, des heures de sécurité sociale élevée, de la lumière utilisée, de l’eau consommée et du matériel qu’il a acheté, par exemple, il est facile de prédiction de la quantité qui a vraiment facturé.

P. Mais la vie privée est-elle violée?

R. C’est un problème sur lequel nous devons décider en tant que citoyenneté: dans quelle mesure je suis prêt à donner des informations, en tant que pacte social, à me sentir plus en sécurité et à avoir un monde plus équitable.



#Emilio #Carrizosa #Mathématicien #leadership #lintelligence #artificielle #pas #gouvernements #moment #mais #des #entreprises #privées #Technologie
1741155289

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.