IA et élections : Laurent Simon alerte sur la préservation de la chaîne de responsabilité
IA et élections : l'alerte de Laurent Simon sur la responsabilité

L'intelligence artificielle dans les campagnes politiques : un enjeu démocratique majeur

L'enseignant-chercheur bordelais Laurent Simon lance un appel pressant à préserver la chaîne de responsabilité dans l'utilisation de l'intelligence artificielle en politique. « Si une erreur est commise, il faut pouvoir rendre des comptes », insiste-t-il, soulignant que cette exigence est fondamentale pour la santé démocratique.

Un expert au cœur des enjeux technopolitiques

Laurent Simon est enseignant-chercheur à l'Enseirb-Matmeca, l'École nationale supérieure d'électronique, informatique, télécommunications, mathématique et mécanique de Bordeaux. Il dirige également la chaire IA Digne de confiance, une position qui lui donne une vision privilégiée des défis posés par l'IA dans la société contemporaine.

L'IA : une présence ancienne mais en mutation rapide

L'intelligence artificielle n'a jamais été aussi présente dans une campagne politique en France, mais son utilisation pour influencer les élections n'est pas nouvelle. « La technologie que l'on voit émerger aujourd'hui n'est pas celle-ci, mais ce qu'on observe, c'est que l'IA, comme outil pour faire basculer une élection, est présente depuis longtemps », rappelle Laurent Simon.

Bannière large Pickt — app de listes de courses collaboratives pour Telegram

Il évoque le cas emblématique de Cambridge Analytica dans les années 2010, qui avait aspiré les données de Facebook pour micro-cibler des utilisateurs et tenter de modifier leurs orientations politiques. L'entreprise a depuis fermé suite à un procès, mais les pratiques ont évolué.

Les nouveaux usages problématiques de l'IA générative

La nouveauté réside dans l'IA générative et ses assistants conversationnels. « En prémâchant la recherche, ils orientent celle-ci », explique l'expert. Ces systèmes, souvent peu informés de l'actualité, ont tendance à fournir avec assurance des réponses fausses mais plausibles, amplifiant les risques de désinformation.

Laurent Simon souligne un paradoxe : « Un chatbot ne porte pas la responsabilité des conseils qu'il vous donne. Seul vous la portez ». Cette dissociation entre l'outil et la responsabilité des contenus produits pose des questions cruciales d'éducation des utilisateurs et de vérification des informations.

Des outils qui ouvrent la porte au populisme

De nouveaux outils permettent désormais de générer des sondages crédibles sur des territoires définis sans interroger la moindre personne. « Ils proposent même une assistance pour qu'un discours ou une idée touche positivement une population », alerte le chercheur.

Il qualifie cette évolution de « pivot hyper important » car elle introduit une dimension contrefactuelle : les politiques peuvent imaginer, à partir de sondages générés par IA, quelle serait l'opinion d'une population suite à certaines déclarations. « C'est une porte ouverte au populisme », prévient-il.

Un cadre législatif européen prometteur mais insuffisant

Face à ces évolutions rapides et déterminantes, le cadre législatif européen, notamment l'IA Act, constitue une avancée. « Il prévoit, par exemple, l'interdiction d'utiliser des techniques subliminales pour manipuler les gens à leur insu », reconnaît Laurent Simon.

Mais pour lui, l'essentiel reste ailleurs : « Ce qu'il faut pouvoir préserver, c'est la chaîne de responsabilité ». Il appelle à renforcer la responsabilité éditoriale des messages fournis aux utilisateurs et à garantir que toute erreur puisse être imputée et corrigée. « C'est un enjeu démocratique », conclut-il, rappelant que la transparence et l'imputabilité sont les piliers d'une démocratie résiliente face aux défis technologiques.

Bannière post-article Pickt — app de listes de courses collaboratives avec illustration familiale