Wikipédia sous influence : l'affaire des manipulations estoniennes
En décembre dernier, le média estonien Geenius a révélé une vaste opération de manipulation touchant de nombreuses pages Wikipédia concernant des personnalités politiques et sportives estoniennes. Un utilisateur avait tenté à plusieurs reprises de modifier les lieux de naissance des intéressés pour les aligner sur la propagande russe. Ainsi, Kaja Kallas, représentante de l'Union européenne, n'était plus présentée comme née en Estonie occupée mais en URSS.
Plus de 400 biographies modifiées
Ronald Liive, journaliste pour Geenius, a dévoilé que l'individu en question avait altéré plus de 400 biographies, tout en supprimant des éléments de contexte et des sources sur les pages relatives à l'Estonie et sur le sentiment « anti-russe ». Interrogé par 20 Minutes, Ivo Kruusamägi, directeur exécutif de Wikimédia Estonie, affirme cependant qu'il est impossible de relier formellement cette attaque à la Russie, bien que l'acte ait été « préparé et coordonné ».
Les « guerres d'édition » difficiles à prouver
L'exemple estonien illustre ce qu'on appelle dans le jargon de l'encyclopédie en ligne une « guerre d'édition », comme l'explique Rémy Gerbet, directeur exécutif de Wikimédia France. « Parfois, il peut arriver que deux contributeurs se disputent une version d'une page parce qu'ils ne sont pas d'accord sur le fond, sur la méthode, ou sur les sources. » Dans ces cas, des administrateurs peuvent intervenir pour restreindre temporairement l'édition de certaines pages, le temps de « faire redescendre la pression et relancer une discussion ».
Ces « disputes », bien qu'elles aient toujours existé, sont aujourd'hui infiltrées par des tentatives d'influence visant à promouvoir un récit alternatif. Rémy Gerbet rejoint son collègue estonien : il est très difficile de prouver ces tentatives de désinformation. « On observe des pics de consultation sur certaines pages, des pics d'édition, tout semble toujours très coordonné, mais c'est difficile d'affirmer qu'il y a volonté de nuire. » Un faisceau d'indices important mais insuffisant pour désigner clairement un pays ou un groupe malveillant.
La Russie, habituée des réécritures historiques
La Russie n'en serait pourtant pas à son premier essai. Les réécritures de l'Histoire soviétique et européenne sont constantes pour justifier l'invasion ukrainienne, influencer l'Europe de l'Est, ou simplement nourrir des illusions de grandeur. Wikipédia est ainsi devenu un adversaire récurrent de Vladimir Poutine. En 2022, un tribunal russe avait condamné la plateforme à une amende de 2 millions de roubles (environ 20.000 euros) pour désinformation sur la guerre en Ukraine. Un Wiki « maison » a même été lancé en 2023 sous le nom de Ruwiki, présenté comme une alternative « indépendante » « qui respecte la loi russe », selon son fondateur.
La France également touchée
Et la France n'est pas épargnée par ce genre d'attaques. « Il y a quelques années, des utilisateurs étaient parvenus à inscrire des sites russes entièrement générés par IA comme sources sérieuses, raconte Rémy Gerbet. Dans un autre cas, certains tentaient de minimiser la puissance de la Chine, en modifiant le nombre de sous-marins de l'armée chinoise. » Les enjeux nationaux sont également concernés. Wikipédia a ainsi dû bannir en 2022 des militants d'Eric Zemmour qui réécrivaient constamment sa biographie pour la rendre plus attractive ou moins problématique.
Si à chaque nouvelle attaque, il est difficile de prouver l'origine de la désinformation, le directeur de Wikimédia France garde confiance en sa plateforme : « Wikipédia, c'est le temps long. On n'est pas pressés. L'idée, c'est toujours de laisser le temps à d'autres sources, d'autres ouvrages d'apparaître, qui nous permettront d'atteindre plus tard un consensus. »
Wikipédia face au défi de l'intelligence artificielle
Si Wikipédia devient un terrain d'affrontement idéologique, c'est aussi parce que la majorité des intelligences artificielles actuelles s'entraînent et puisent leurs réponses dans la plateforme, qui constitue l'une des plus grandes sources ouvertes de connaissances sur Internet. Il y a quelques mois, dans sa croisade contre Wikipédia, qu'il jugeait trop « woke », Elon Musk avait lancé « Grokipédia », une intelligence artificielle censée devenir la nouvelle encyclopédie numérique. Mais l'université américaine de Cornell avait révélé que la quasi-totalité du contenu de l'IA était tiré… de Wikipédia.
Infiltrer l'encyclopédie, c'est s'assurer une visibilité planétaire sans vérification, puisque les utilisateurs de ChatGPT vérifient rarement la source de leurs réponses. « Il y a en effet un risque de « data poisoning » (empoisonnement des données), concède Rémy Gerbet. Tout ce qu'on peut faire, c'est outiller nos contributeurs face à ces enjeux. »
Des pistes d'amélioration
Parmi les solutions envisagées, Rémy Gerbet évoque la mise en place d'un « baromètre » interne, qui analyserait le contenu et les actions suspectes. Si une page habituellement ignorée est soudainement très consultée, ou si plusieurs utilisateurs tentent de la modifier simultanément, une alerte serait transmise aux administrateurs.
En rendant Wikipédia moins visible, les IA comme ChatGPT contribuent également à la baisse du nombre de contributeurs, seuls gardiens d'une information vérifiée et sourcée. Un enjeu majeur pour la plateforme, qui doit désormais jongler avec trois impératifs : outiller les modérateurs face aux influences extérieures, recruter de nouveaux contributeurs, et maintenir sa visibilité face aux géants de l'IA.



