Nouvelles Du Monde

Les fausses images ne sont pas le plus gros problème

Les fausses images ne sont pas le plus gros problème

2023-11-03 07:30:00

La désinformation est endémique dans les conflits comme ceux entre Israël et le Hamas. L’intelligence artificielle va exacerber le problème et miner fondamentalement la confiance dans l’information.

La diffusion d’informations manipulées est aussi un moyen de guerre au Moyen-Orient : frappe aérienne israélienne sur la bande de Gaza.

Francisco Seco / AP

La guerre de l’information a également commencé avec les premiers tirs de roquettes sur Israël. Le Hamas lui-même a publié des vidéos de son attaque terroriste sur Internet. Il s’agissait de semer la terreur et de célébrer ses propres succès. Mais tous les enregistrements n’étaient pas réels. Par exemple, une vidéo est apparue montrant un hélicoptère israélien abattu. En réalité, il s’agit d’une séquence tirée d’un jeu vidéo.

L’exemple est inoffensif. Le faux est relativement facile à repérer. Cela va changer avec les images générées par l’intelligence artificielle (IA). Aujourd’hui, ceux-ci semblent encore irréalistes ou comportent des erreurs. Mais la technologie progresse rapidement. À l’avenir, les images, vidéos ou voix générées par l’IA seront impossibles à distinguer ou à peine des enregistrements réels.

L’IA va fondamentalement exacerber le problème de la désinformation à deux niveaux : le contenu avec de fausses images et vidéos et la distribution avec de faux comptes.

L’explosion à l’hôpital arabe Ahli déclenche des manifestations

Les images de mort et de destruction jouent un rôle crucial dans la guerre au Moyen-Orient : elles déclenchent des émotions et influencent l’opinion publique. Le conflit au Moyen-Orient est aussi une bataille pour gagner la sympathie du public. Mais les images peuvent aussi conduire à de nouvelles flambées de violence. L’IA peut être un outil dangereux ici.

Lorsqu’une explosion s’est produite à l’hôpital arabe Ahli dans la bande de Gaza à la mi-octobre, la nouvelle d’une attaque à la roquette israélienne qui a tué 500 personnes s’est rapidement répandue. Ces déclarations des autorités du Hamas sont douteuses. Néanmoins, des manifestations et des émeutes ont éclaté dans plusieurs pays arabes.

Les images générées par l’IA montrant des enfants morts et blessés lors de l’attaque présumée à la roquette auraient pu envenimer davantage l’ambiance. Les réactions auraient pu être plus violentes. Les attaques contre les Juifs et les institutions juives, comme celles qui ont déjà lieu, se sont multipliées – avec peut-être des conséquences politiques. Le chemin de la fausse image au meurtre n’est pas loin.

Lire aussi  Quel est l'intérêt de la GeForce RTX 4060 Ti ? Les données suggèrent presque zéro

L’idée selon laquelle les contrefaçons visent à influencer le public est un phénomène ancien. Mais l’IA conduit à deux innovations fondamentales. Les deepfakes de visages ou de voix sont d’une telle qualité que même les experts peuvent difficilement les reconnaître comme générés artificiellement.

L’IA permet également à un large éventail de personnes de produire elles-mêmes des contrefaçons. Ce ne sont plus seulement les États qui peuvent créer des images qui semblent faussement réelles, mais aussi des organisations non gouvernementales comme le Hamas et même des particuliers. Les contrefaçons deviennent un produit de masse.

Les réseaux de désinformation deviennent plus crédibles

Mais le danger va au-delà des fausses images ou voix. L’IA menace la crédibilité des informations sur Internet en général. Les opérations d’influence menées par les acteurs étatiques ne fonctionnent que s’ils peuvent effectivement apporter leur propre contenu au public cible souhaité. L’IA va révolutionner cette propagation de la désinformation et des récits.

Pour comprendre la révolution qui se prépare ici, il faut comprendre comment fonctionnent les opérations d’influence. Les campagnes d’État, telles que celles menées par la Russie contre l’Occident, s’appuient généralement sur des conflits sociaux ou politiques existants. Ce n’est donc pas de la pure désinformation qui est diffusée, mais plutôt un mélange d’informations réelles, ciblées et manipulées. Plus un récit est proche de la réalité, plus il paraît crédible.

Techniquement, les acteurs étatiques utilisent une infrastructure numérique complète dans leurs campagnes dans l’espace de l’information. Il s’agit notamment de faux profils sur des plateformes sociales telles que Facebook ou X (anciennement Twitter). A travers ces réseaux, les acteurs diffusent des informations qui correspondent à leur récit.

Ce qui est crucial pour le succès, c’est que les faux comptes semblent crédibles et ne soient pas reconnus comme faux par les opérateurs de la plateforme. L’IA peut être d’une grande aide ici. Il peut créer des profils crédibles qui présentent un comportement d’utilisation normal et communiquent entre eux d’une manière apparemment naturelle. Détecter les faux comptes devient plus difficile.

Lire aussi  Le créateur d'Angry Birds Rovio accepte le rachat de 706 millions d'euros par le japonais Sega

L’IA peut également être utilisée pour diffuser du contenu dans diverses langues et pour mieux atteindre des groupes cibles spécifiques. Il peut s’agir de groupes ayant une certaine position politique ou des intérêts professionnels. Comme pour la publicité, l’IA permet également un micro-ciblage de la désinformation. Cela peut même conduire à une désinformation personnalisée, capable d’influencer plus efficacement le public cible.

Les criminels peuvent mener des campagnes professionnelles

Lorsque les campagnes d’information deviennent plus faciles, ce ne sont pas seulement les États et leurs services secrets qui en profitent. Les organisations non gouvernementales pourraient également avoir pour la première fois l’occasion de mener leurs propres campagnes d’influence à grande échelle.

L’organisation terroriste Hamas en est un exemple. Elle est active dans le cyberespace depuis des années et a grandement développé ses compétences. Son répertoire comprend également des opérations d’information au cours desquelles elle a par le passé dégradé des sites Internet israéliens ou publié des vidéos de l’armée israélienne qui auraient… proviendraient d’une attaque de pirate informatique. Le Hamas l’aurait fait il y a des années ont publié des recommandations pour les plateformes sociales, pour répandre le récit des victimes civiles innocentes à Gaza.

Influencer l’opinion publique en sa faveur est un moyen de guerre important. Dans un conflit asymétrique, la partie la plus faible profite particulièrement de cet instrument. Les opérations d’information peuvent être réalisées avec relativement peu d’effort. Le savoir-faire nécessaire est plus facile à obtenir que les armes. Le danger qu’une organisation comme le Hamas utilise un jour l’IA pour mener des actions dans l’espace numérique est réel.

Les prestataires commerciaux de campagnes d’information bénéficieront également de l’IA. Ceux-ci existent déjà aujourd’hui, comme l’ont montré les recherches menées au début de l’année sur ce que l’on appelle la « Team Jorge ». Une entreprise israélienne aurait proposé ses services de piratage et d’influence dans le monde entier. Un réseau de 30 000 faux profils aurait été exploité.

L’IA rendra ces opérations moins chères et entraînera l’émergence d’un plus grand nombre de fournisseurs de ces services. La « désinformation contre rémunération » – c’est-à-dire la fausse information sur commande – devient abordable pour les grands cercles.

Lire aussi  Les nouveaux produits Samsung dévoilés en juillet ont déjà fuité sur les réseaux sociaux

Les opérations d’influence utilisant de faux profils peuvent devenir un phénomène répandu, comme c’est déjà le cas pour l’achat de followers sur les plateformes sociales. Des particuliers pourraient par exemple acheter des campagnes pour noircir leurs concurrents ou influencer les marchés financiers.

La confiance dans les informations provenant d’Internet est en déclin

L’émergence de l’IA rendra les gens moins confiants à l’égard de l’information en général. La pollution de l’espace informationnel augmente. Cela renforce la tendance déjà évidente aujourd’hui : il devient de plus en plus difficile de reconnaître quelles informations sont exactes dans l’espace numérique. L’ambiguïté augmente.

Cette évolution est dangereuse. La confiance dans les institutions communes telles que la science, le journalisme ou les autorités est le fondement des démocraties libérales. Si chaque citoyen peut trouver sa propre vérité, il n’y a pas de terrain d’entente. Les valeurs occidentales sont menacées.

Cette évolution profite aux régimes autoritaires. Il n’est donc pas surprenant que des États comme la Russie et, de plus en plus, la Chine, utilisent la désinformation comme outil dans la lutte géopolitique avec l’Occident.

Il est difficile de prédire exactement comment l’IA modifiera l’espace d’information. Des tentatives seront également faites pour contrecarrer les évolutions négatives, par exemple avec des filigranes numériques ou d’autres instruments d’IA. Mais une chose est claire : l’espace informationnel dans son ensemble perd en crédibilité.

Grâce à cette évolution, des informations réelles et fiables gagneront en valeur. Les connaissances éprouvées deviennent de plus en plus un produit d’élite. La fracture numérique au sein de la population se creuse. Le contraire de ce que semblait autrefois promettre l’espoir d’un Internet libre est en train de se produire.

La désinformation basée sur l’IA renforcera la tendance actuelle selon laquelle les utilisateurs doivent s’identifier en ligne avec leur vrai nom. La navigation anonyme devient de plus en plus difficile et la surveillance augmente. Il s’agit d’une évolution qui a commencé il y a des années dans des pays comme la Chine et la Russie.

Les pays libéraux occidentaux doivent veiller à ne pas combattre l’influence des États autoritaires par une réglementation et un contrôle excessifs. Si l’ordre libéral souffre dans la lutte contre la désinformation, le monde autoritaire finit par gagner.



#Les #fausses #images #sont #pas #gros #problème
1699078828

Facebook
Twitter
LinkedIn
Pinterest

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

ADVERTISEMENT