Il semblerait que chaque jour fasse la une des journaux sur la façon dont les chatbots IA propagent des idées haineuses. Mais des chercheurs chargés de comprendre l’antisémitisme et de déterminer comment l’arrêter affirment avoir trouvé des preuves que les chatbots IA peuvent réellement lutter contre la haine.
Des chercheurs affiliés au Centre de recherche sur l’antisémitisme de l’Anti-Defamation League ont formé un modèle en grand langage, ou LLM, pour contrer les théories du complot antisémite, puis ont invité les personnes abonnées à au moins une de ces théories à interagir avec lui.
Résultat, selon une étude publiée mercredi : les utilisateurs ont rapidement moins cru aux théories antisémites, tout en se sentant plus favorables à l’égard des Juifs en tant que groupe. Et les effets étaient encore forts un mois plus tard, même sans engagement supplémentaire avec le LLM.
Les chercheurs saluent cette découverte comme une avancée majeure dans la quête d’identification de stratégies concrètes dans la lutte contre la haine des Juifs.
« Ce qui est remarquable dans ces résultats, c’est que la démystification factuelle fonctionne même pour les théories du complot ayant de profondes racines historiques et des liens étroits avec l’identité et les préjugés », a déclaré David Rand, professeur à l’Université Cornell et auteur principal de l’étude, dans un communiqué.
« Notre robot démystificateur d’intelligence artificielle ne s’appuie généralement pas sur des appels émotionnels, des exercices de renforcement de l’empathie ou des tactiques anti-préjugés pour corriger les fausses croyances », a poursuivi Rand, faisant référence aux pratiques fréquemment employées par les défenseurs cherchant à lutter contre l’antisémitisme, y compris au sein de l’ADL. « Il fournit principalement des informations précises et des contre-arguments fondés sur des preuves, démontrant que les faits comptent toujours pour changer les esprits. »
Matt Williams, qui dirige le Centre de recherche sur l’antisémitisme depuis sa création il y a trois ansaffirme que l’étude s’appuie sur un nombre croissant de recherches qui considèrent l’antisémitisme contemporain principalement comme un problème de désinformation plutôt que comme un problème de droits civiques.
« Nous devons considérer l’antisémitisme moins comme des sentiments à l’égard des Juifs que comme des sentiments à l’égard de Bigfoot », a-t-il déclaré dans une interview. « Et ce que je veux dire par là, c’est que ce ne sont pas les « Juifs » qui posent problème. C’est le « Juif », en tant que fonction de la théorie du complot, qui pose problème. Et la relation entre les « Juifs » et les « Juifs » dans ce contexte est bien plus ténue que nous pourrions le penser. »
Qualifiant les théories du complot de « dysfonctionnements dans la manière dont nous faisons sortir la vérité du monde », Williams a déclaré que l’étude montrait quelque chose de remarquable. « Les gens peuvent corriger ces dysfonctionnements », a-t-il déclaré. « Ils le peuvent vraiment, ce qui est super excitant et vraiment impactant. »
L’étude émerge d’un effort relativement nouveau de l’ADL pour trouver des moyens fondés sur des preuves pour réduire l’antisémitisme, en travaillant avec des dizaines de chercheurs dans un grand nombre d’institutions pour concevoir et mener des expériences visant à transformer un espace de plaidoyer solide en un jeu de devinettes.
La nouvelle expérience, menée plus tôt cette année, a impliqué plus de 1 200 personnes qui ont déclaré lors d’une précédente enquête de l’ADL qu’elles croyaient à au moins une des six théories du complot antisémite les plus répandues, comme celle selon laquelle les Juifs contrôlent les médias ou la théorie du « Grand Remplacement » sur l’implication des Juifs dans l’immigration.
Les personnes se sont ensuite vu attribuer au hasard trois scénarios différents : un troisième a discuté avec un LLM programmé par les chercheurs pour démystifier ces théories, construit dans le modèle Claude AI de Microsoft ; un autre tiers discutait avec Claude d’un sujet sans rapport ; et le dernier tiers s’est simplement fait dire que leur croyance représentait une théorie du complot « dangereuse ». Ensuite, ils ont tous été à nouveau testés sur leurs croyances.
Membres du groupe qui ont discuté avec ce que les chercheurs appellent Démystifier le robot étaient beaucoup plus susceptibles que les membres des autres groupes de voir leurs croyances affaiblies, ont découvert les chercheurs.
DebunkBot n’était pas une panacée contre l’antisémitisme : l’étude a révélé que ceux qui croyaient à des théories du complot plus antisémites connaissaient moins de changements. Et Williams note que l’étude a seulement révélé que la croyance dans les complots antisémites était réduite, et non complètement éliminée.
Mais il a déclaré que toute stratégie capable de contrecarrer ce que les chercheurs considèrent comme une explosion généralisée de la croyance dans les théories du complot est une bonne chose.
La proportion d’Américains adhérant aux théories du complot au cours de la dernière décennie a atteint jusqu’à 45 %, soit plus du double du taux qui s’était maintenu pendant 70 à 80 ans, a déclaré Williams.
« Pour moi, l’augmentation de ce niveau de saturation est bien plus préoccupante que n’importe quelle théorie du complot particulière évoluant à travers différentes générations », a-t-il déclaré. « Je ne pense pas que nous parviendrons un jour à créer un monde dans lequel nous descendrons en dessous de 15 % – mais passer de 45 à 30 ou 25 semble plus faisable. »
La nouvelle étude intervient alors que les modèles d’IA sont largement utilisés par les Américains, soulevant des inquiétudes quant à leurs implications pour les Juifs. Lorsqu’Elon Musk a lancé son propre modèle plus tôt cette année, appelé Grok, celui-ci a immédiatement suscité des critiques pour avoir amplifié l’antisémitisme – déclenchant ainsi un schéma qui s’est répété à plusieurs reprises. Bientôt, l’entreprise s’est excusée et a déclaré qu’elle entraînerait son modèle pour éviter le même comportement à l’avenir. Les critiques de Grok sont encore largement répandues, mais elles ne font plus l’éloge d’Hitler – même si cette semaine encore, elles auraient déclaré à un utilisateur que les chambres à gaz nazies n’étaient pas conçues pour des massacres, ce qui a incité les autorités françaises à ouvrir une enquête.
La formation des chatbots est considérée comme essentielle pour fournir des résultats d’IA de haute qualité. DebunkBot est désormais disponible en ligne sur son propre site Web, mais Williams a déclaré que des efforts étaient en cours au sein de l’ADL pour convaincre les entreprises exploitant les principales plates-formes d’IA d’intégrer son expertise.
« Il y a bien plus de réceptivité qu’autrement, quel que soit le sens de l’imagination », a-t-il déclaré, tout en soulignant que le travail était précoce et qu’il ne pouvait pas partager beaucoup de détails.
Quoi qu’il advienne de cet effort, a déclaré Williams, la nouvelle recherche démontre qu’il est possible de combattre ce que l’on appelle parfois la plus ancienne haine du monde.
« L’IA et les LLM – ce sont des outils, n’est-ce pas ? Et nous pouvons utiliser des outils pour le bien et pour le mal », a déclaré Williams. « Mais le fait que nous puissions soumettre les théories du complot à des conversations et à des arguments rationnels et conduire réellement à des résultats favorables est en soi, je pense, relativement innovant, surprenant et extraordinairement utile. »