Un quart des tweets climato-sceptiques serait l'œuvre de robots

Des chercheurs américains ont mis en évidence le rôle de programmes informatiques dans la propagande niant le réchauffement climatique sur Internet. Si la guerre aux bots est déjà déclarée, elle est loin d’être gagnée.

Publication 23 oct. 2020 à 14:56 CEST, Mise à jour 5 nov. 2020 à 06:29 CET
Twitter n’est pas seulement alimenté par des hommes, mais aussi par des BOTS, des programmes d’intelligence ...

Twitter n’est pas seulement alimenté par des hommes, mais aussi par des BOTS, des programmes d’intelligence artificielle qui peuvent republier des contenus mais aussi générer des messages.

Photographie de Bakal / iStock

Vaste forum planétaire, carrefour mondial des idées et des rumeurs, Twitter n’est pas seulement alimenté par des Hommes, il l’est aussi par des robots. Des bots plus précisément. Ces programmes d’intelligence artificielle peuvent entre autres republier des contenus, mais également générer des messages en se faisant passer pour des humains. Des chercheurs de l’université de Brown, aux États-Unis, se sont penchés sur leurs posts au sujet du changement climatique et ont révélé un activisme d’une ampleur insoupçonnée.

En étudiant 6,8 millions de tweets sur le réchauffement envoyés entre fin mai et fin juin 2017 - une période charnière où Donald Trump annonçait le retrait de son pays de l’Accord de Paris sur le climat -, ils ont découvert qu’un quart d’entre eux, en moyenne, étaient générés par des bots.

« Au départ, nous nous sommes intéressés aux raisons pour lesquelles la polarisation des discours autour du changement climatique restait très forte aux États-Unis, malgré le consensus scientifique », explique Thomas Marlow, l’un des auteurs de l’étude, aujourd’hui postdoctorant au CITIES (Center for Interacting Urban Networks) de l’université de New York à Abu Dhabi. « Depuis les événements de l’élection présidentielle américaine de 2016 (ndlr: marquée par une ingérence russe via des bots qui ont diffusé des tweets majoritairement pro-Trump), en particulier, l’un des mécanismes proposés pour expliquer cette polarisation dans d’autres domaines du débat public était l’activité des bots et des trolls (ndlr : des individus créant à dessein des polémiques sur internet) sur les plateformes des médias sociaux. Nous nous sommes donc demandé si les bots avaient une présence similaire dans les discussions en ligne sur le réchauffement. »

Pour différencier les tweets humains de ceux générés par des bots, les scientifiques se sont appuyés sur un autre outil de l’intelligence artificielle : Botometer. Cet algorithme, développé par l’université de l’Indiana, analyse les messages en fonction de divers critères, comme le nombre de followers ou la fréquence des tweets. Conclusions de ce passage au crible : la majorité des tweets identifiés comme l’œuvre probable de bots avaient vocation à alimenter le climato-scepticisme. Ainsi 38% d’entre eux contenaient par exemple les mots « fake science », fausse science, en référence à la climatologie.

Une petite minorité, 5%, soutenaient toutefois la lutte contre le réchauffement et la signature de l’Accord de Paris. L’identité des hommes ou des groupes derrière ces divers bots reste un mystère. Quant à l’impact de cette désinformation automatisée à grande échelle, il demeure difficile à mesurer. Les chercheurs prévoient d’y consacrer de prochaines études. « Nous pensons que ces bots jouent principalement le rôle d’amplificateur de messages existants. Mais cette amplification pourrait s’avérer importante car elle donne de la crédibilité à des opinions marginales comme la négation du réchauffement climatique », souligne Thomas Marlow.

Dans cette cartographie chaque point représente un compte Twitter (il y en a 32.000) et les lien entre les points représentent des retweets entre comptes. La structure globale de la carte reflète l’organisation des débats en ligne. Certaines études ont démontré la présence massive de bots dans les comptes relayant des thèses climato-sceptiques. On peut y voir les sphères d’influence de deux comptes actifs pendant le 4ème trimestre 2019 qui ont été par la suite suspendus par Twitter, ce qui rend très probable le fait qu’ils aient été opérés par des bots :  GillesnFio et SyviaD32911201. Ces comptes, très actifs sur Twitter ont été relayé ou ont amplifiés les messages de comptes situés dans le cœur de la communauté climato-sceptique.

Photographie de CNRS/ISC-PIF : Chavalarias D, Panahi M, Chomel V, CC BY-SA 4.0

Certaines précautions permettent de restreindre l’emprise de ces bots, indique le chercheur. « Les utilisateurs de réseaux sociaux peuvent ajuster les paramètres de leurs comptes en limitant par exemple les messages provenant de personnes qu’ils ne suivent pas, qui n’ont ni email ni photo de profil. Cela étant dit, nous devons aussi pousser les plateformes des réseaux sociaux à développer des outils qui protègent leurs usagers contre ces manipulations malveillantes. » Après avoir longtemps minimisé, et même nié le problème, ces dernières le prennent désormais à bras le corps.

« Depuis environ un an, les plateformes comme Twitter et Facebook détectent et suppriment de façon beaucoup plus agressive les faux comptes et les faux réseaux de comptes », note Filippo Menczer, professeur émérite en sciences informatiques et directeur de l’Observatoire des médias sociaux de l’université de l’Indiana. Les chercheurs en informatique comme lui se sont, eux, emparés de la question depuis une décennie, en créant divers programmes d’IA pour identifier ces bots. Filippo Menczer a fait partie de l’équipe qui a développé Botometer, le premier d’entre eux, initialement baptisé BotOrNot. Mis au point entre 2012 et 2014, il est régulièrement actualisé et accessible gratuitement à tout usager de Twitter. *

« Nous avons créé un programme pour détecter les campagnes d’astroturfing (ndlr : trafic artificiel qui peut être généré par des hommes ou des machines) sur Twitter en 2010 et c’est à ce moment-là que nous avons découvert les premiers « bots sociaux ». Ensuite, nous avons développé le premier outil basé sur de l’apprentissage automatique pour les détecter, BotOrNot, puis d’autres équipes issues de diverses institutions ont fait de même. L’année 2016 a été une année charnière, avec la révélation du rôle joué par les bots en matière de désinformation avant et après l’élection présidentielle américaine. Après, la question des bots sociaux et celle des algorithmes pour les détecter sont devenues des domaines de recherche très populaires. » Filippo Menczer évoque une « course à l’armement » se jouant aujourd’hui entre les bots et les programmes d’IA destinés à les contrer.

Le spécialiste pointe toutefois un obstacle majeur à la lutte contre ces manipulations de l’opinion : le manque de prise de conscience des usagers. « Même si on a une très bonne technologie de détection des bots, il n’est pas sûr que les citoyens, qui sont en première ligne, vont s’en servir, renchérit David Chavalarias, directeur de recherche au CNRS et directeur de l′Institut des systèmes complexes de Paris Île-de-France.

La question de la sensibilisation du public reste assez problématique. Les gens n’ont pas encore le réflexe de se demander si les comptes qu’ils suivent sur Twitter émanent de vraies personnes ou de marionnettes. Ils ne se rendent pas compte du réalisme que peuvent atteindre les bots, or ces derniers sont de plus en plus sophistiqués. Un autre élément dont on sous-estime l’effet est le mécanisme cognitif connu sous le nom de biais de confirmation : si une information est concordante entre plusieurs personnes de notre entourage, on a tendance à croire qu’elle est vraie. Les bots jouent là-dessus, en donnant l’impression qu’un message est confirmé par diverses sources alors qu’il a une origine unique. »

Cartographie des échanges Twitter sur le thème du réchauffement climatique. Une étude préliminaire montre la forte polarisation de l’information sur ce thème avec deux pôles, les « climatosceptiques » (à droite sur l’image) et ce que l’on pourrait appeler les « convaincus » (à gauche sur l’image). Chacun de ces groupes est lui-même divisé en sous-groupes qui reflètent soit une organisation géographique des débats – souvent divisées en sous-groupes qui reflètent des courants politiques ou d’opinion – soit une structuration en groupes de militantisme transnational (comme par exemple autour de Greta Thunberg).

Photographie de CNRS/ISC-PIF : Chavalarias D, Panahi M, Chomel V, CC BY-SA 4.0

En France, leur présence a notamment été mise en évidence par une étude que le chercheur a mené sur plus de 60 millions de tweets postés par des militants politiques dans les mois qui ont précédé l’élection présidentielle de 2017.

Environ 5% des comptes appartenaient à des bots. « La manipulation des médias sociaux représente une menace sérieuse pour la démocratie, car ces derniers constituent désormais les principaux canaux d’information pour beaucoup de gens, estime Filippo Menczer. Si vous pouvez manipuler l’information, vous pouvez influer sur les points de vue et les décisions, comme le processus électoral. » Une analyse que partage David Chavalarias.

« Les bots, comme les autres techniques d’influence d’opinion tels l’astroturfing ou les fake news, visent à créer de la discorde et à augmenter les divisions entre les divers courants de l’opinion pour déstabiliser les processus de décision collective comme par exemple les sommets internationaux tels que les COP ou les élections présidentielles. Ils exploitent le fait que les réseaux sociaux peuvent toucher beaucoup de gens sur un temps très court. Même si peu de personnes s’avèrent sensibles à leurs messages, cela pourrait être suffisant pour faire basculer une élection, qui se joue souvent à quelques pourcents de voix. »

Les législateurs commencent à chercher des parades. L’État de Californie a ainsi adopté une loi exigeant que tout bot interagissant avec des humains en ligne s’identifie comme tel. Mais ce ne sont pour l’heure que de faibles expédients face à la capacité de nuisance inédite des techniques de propagande numérique. 

Lire la suite