Aperçu des innovations du centre de compétences KARL

2024-10-23 12:08:00

Temps de lecture env. 6 minutes

Le KARL Competence Center est l’interlocuteur central pour les entreprises qui souhaitent intégrer l’intelligence artificielle (IA) dans leurs processus de travail et qui souhaitent répondre aux exigences les plus élevées en matière de protection des données. En mettant clairement l’accent sur les systèmes d’IA respectueux de la protection des données, KARL aide les entreprises à développer des solutions innovantes qui rendent les processus de travail et d’apprentissage plus efficaces sans négliger les droits des personnes concernées. À travers des ateliers pratiques, des recherches et des projets pilotes, KARL propose aux entreprises de précieuses lignes directrices pour rendre l’utilisation de l’IA durable et conforme au RGPD. En étroite collaboration avec des acteurs et des spécialistes régionaux, KARL crée un cadre évolutif pour les environnements de travail basés sur l’IA.

Dans une interview avec Ariane Lindemann, Pascal Birnstill, scientifique principal au Fraunhofer IOSB et responsable de l’IA et des données chez KARL, évoque les défis et les opportunités liés à l’utilisation de l’IA dans les domaines sensibles à la protection des données.

Quels sont les plus grands défis liés au traitement des données personnelles dans les systèmes de travail et d’apprentissage basés sur l’IA ?

Les systèmes de travail et d’apprentissage basés sur l’IA doivent respecter les règles de protection des données, tout comme les autres systèmes. Cependant, le règlement européen sur l’IA ajoute de nouvelles réglementations, notamment pour les systèmes dits à haut risque. Il s’agit par exemple des systèmes d’IA utilisés dans des environnements de travail ou d’apprentissage. Ces systèmes ont besoin de données de qualité particulièrement élevée pour fonctionner correctement. Si vous traitez des données personnelles, par exemple celles d’employés ou d’étudiants, le consentement des personnes concernées ou un accord de travail est généralement requis. Les entreprises sont alors responsables de la protection de ces données, par exemple au travers de mesures techniques de sécurité. Avec les systèmes d’IA fonctionnant grâce à l’apprentissage automatique, de nombreuses données doivent être collectées pendant la phase de développement afin de former les modèles. Davantage de données sont souvent collectées initialement pour comprendre quelles informations sont importantes. Pendant le fonctionnement en cours, nous veillons à ce que le système traite uniquement les données personnelles réellement nécessaires au maintien de la protection des données.

Quel rôle joue la protection des données dans le développement de systèmes d’IA au sein du projet KARL ?

La protection des données joue un rôle central dans le projet KARL. Notre approche consiste à concevoir nos systèmes pour qu’ils soient aussi efficaces que possible en matière de données. Bien entendu, les méthodes d’IA nécessitent toujours des données d’entraînement, mais pendant le fonctionnement, l’utilisation des données personnelles peut souvent être réduite au minimum. Si le système ne nécessite pas d’adaptation continue aux utilisateurs, nous pouvons le faire fonctionner de manière à ce qu’aucune donnée ne soit stockée de manière permanente. Cela minimise les problèmes potentiels de protection des données et garantit que les personnes concernées sont plus disposées à rendre leurs données disponibles, car leur vie privée est mieux protégée.

Comment KARL aide-t-elle les entreprises à se conformer au RGPD et à protéger les droits des personnes concernées, comme les employés, lors de l’utilisation de systèmes d’IA ?

KARL propose un accompagnement complet aux entreprises pour garantir que les systèmes d’IA sont mis en œuvre dans le respect des réglementations en matière de protection des données. Cela se fait notamment par le biais d’ateliers au cours desquels les entreprises reçoivent des introductions pratiques à la protection des données et à la sécurité de l’information et peuvent discuter de leurs propres cas d’utilisation. Un élément central ici est la protection des droits des personnes concernées, tels que le droit à l’information ou à la suppression. Nous attachons une grande importance à ce que toutes les parties prenantes – y compris les salariés ou leurs représentants – soient impliquées à un stade précoce dans le processus. De cette manière, des solutions centrées sur l’humain peuvent être développées, conformes aux réglementations en matière de protection des données et respectant les droits des personnes concernées.

Dans quelle mesure les nouvelles réglementations juridiques, telles que le futur règlement européen sur l’IA, influencent-elles la mise en œuvre de systèmes d’IA dans le projet KARL ?

Le règlement européen sur l’IA impose des exigences supplémentaires notamment aux systèmes d’IA dits à haut risque. Dans le contexte des systèmes de travail et d’apprentissage, par exemple, les systèmes d’IA qui évaluent automatiquement les performances des étudiants et des employés, évaluent les candidats ou même ceux qui demandent un prêt ou une assurance. Cependant, de tels systèmes font également l’objet de discussions d’un point de vue éthique. Les cas d’utilisation du projet KARL, en revanche, concernent davantage les systèmes d’assistance qui soutiennent le travail et éclairent les décisions, mais ne sont pas destinés à les influencer. La partie active reste aux utilisateurs humains.

Comment les solutions techniques peuvent-elles soutenir la protection et la sécurité des données dans les systèmes de travail et d’apprentissage basés sur l’IA ?

Outre les exigences classiques en matière de sécurité des informations, qui s’appliquent également aux systèmes non basés sur l’IA, il existe des technologies spéciales qui peuvent améliorer la protection des données dans les systèmes d’IA. Ceux-ci incluent, par exemple, les environnements d’exécution de confiance (TEE) et les technologies d’amélioration de la confidentialité (PET). Les TEE fournissent un environnement matériel sécurisé dans lequel les données sensibles peuvent être traitées sans être consultées ou manipulées par des tiers non autorisés. Les PET, tels que l’apprentissage distribué ou l’apprentissage automatique différentiellement privé, permettent d’entraîner des modèles sans avoir à traiter les données brutes à un emplacement central, ou de telle manière qu’aucune information sur les données brutes ne puisse être récupérée à partir des modèles. Ces technologies minimisent les données personnelles traitées et protègent la vie privée des utilisateurs.

Comment les entreprises de la région de Karlsruhe profitent-elles des ateliers et des documents sur la protection des données du projet KARL ?

Nous proposons aux entreprises de la région diverses options d’accompagnement. Il s’agit principalement d’ateliers au cours desquels nous transmettons des connaissances pratiques sur la protection des données et la sécurité des informations. Les entreprises ont la possibilité de présenter leurs propres cas d’utilisation et de discuter de questions spécifiques. Nous mettons également à disposition des guides juridiques et techniques accessibles via notre site Internet. Ces lignes directrices aident les entreprises à rendre les systèmes d’IA respectueux de la protection des données et à se conformer au RGPD.

Quel rôle joue la transparence dans le traitement des données dans les systèmes basés sur l’IA et comment est-elle mise en œuvre dans les projets pilotes du KARL Competence Center ?

La transparence est l’un des principes de protection des données et joue également un rôle important dans la réglementation sur l’IA. Les obligations d’information des organismes responsables et les droits des personnes concernées, en particulier le droit à l’information, font partie des instruments centraux. Mais KARL va encore plus loin dans les projets pilotes et tente d’augmenter la transparence des systèmes basés sur l’IA en utilisant des méthodes dites « d’IA explicable ». Il s’agit d’un domaine de recherche distinct chez KARL qui vise à rendre les méthodes d’IA explicable accessibles aux utilisateurs finaux. Même si chez KARL nous nous intéressons plutôt aux systèmes d’assistance, il est important qu’ils puissent expliquer leurs suggestions au groupe cible si nécessaire.

Comment la protection des données peut-elle devenir un avantage géographique européen, notamment en ce qui concerne les systèmes de travail et d’apprentissage basés sur l’IA ?

Les solutions d’IA respectueuses de la vie privée peuvent constituer un avantage concurrentiel, notamment en Europe où le RGPD impose des exigences élevées. Les entreprises qui développent des systèmes d’IA respectueux de la vie privée peuvent se positionner comme des acteurs dignes de confiance. Cependant, il ne faut pas oublier que les fournisseurs internationaux tels que Microsoft déclarent également que leurs services OpenAI peuvent être utilisés dans le cloud Azure dans le respect des réglementations en matière de protection des données. Cependant, selon des études de 2021, de nombreuses entreprises allemandes ne considéraient pas encore la protection des données comme un avantage évident en matière de localisation. Cependant, avec l’importance croissante des applications d’IA qui s’appuient fortement sur les données, cette situation pourrait changer. La protection des données pourrait être de plus en plus perçue comme un élément de qualité des solutions européennes – et constituer ainsi un avantage concurrentiel évident.

À propos de Karl

Cible de CARL est de rendre les systèmes de travail et d’apprentissage basés sur l’IA centrés sur l’humain, transparents et propices à l’apprentissage et de les rendre démontrables dans des applications pratiques concrètes. Le projet s’adresse aux entreprises, aux salariés et aux personnes intéressées de la région de Karlsruhe qui utilisent des systèmes de travail et d’apprentissage assistés par l’IA, les manipulent ou souhaitent mieux les comprendre. KARL est actuellement l’un des 13 centres de compétences régionaux qui s’occupent des effets de l’intelligence artificielle (IA) sur le monde de l’apprentissage et du travail.

Le CyberForum fait partie du consortium du projet et est principalement responsable des relations publiques, de la gestion communautaire et du concept de durabilité. Le chef de file du consortium est l’Université des sciences appliquées de Karlsruhe. Outre sept partenaires de recherche et de transfert, les partenaires du projet comprennent également dix entreprises régionales.



#Aperçu #des #innovations #centre #compétences #KARL
1729688096

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.