Radio JGrok, l'IA révisionniste
S06E11 – Radio J – Chronique Tech
Grok : Quand l’intelligence artificielle devient négationniste.
Rudy Saada :
Bonjour à tous. Ce matin, on va parler d’Elon Musk, mais pas de fusées ni de Tesla. On va parler de son chatbot d’intelligence artificielle, Grok, accusé d’avoir tenu des propos antisémites et même révisionnistes sur la Shoah. Stéphane, qu’est-ce qui se passe exactement avec cette IA ?
Bonjour Rudy, bonjour à toutes et à tous.
Grok, c’est le chatbot d’Elon Musk, développé par sa société xAI et intégré à X, l’ancien Twitter. L’idée de départ, c’était : “on va faire une IA moins polie, moins filtrée, plus cash que les autres, connectée en temps réel à ce qui se dit sur X”.
Sur le papier, ça donne une IA “rebelle”, “politiquement incorrecte”. Dans la vraie vie, ça donne surtout une machine qui va chercher dans le pire de ce qui circule sur les réseaux : les discours complotistes, la haine, l’antisémitisme. Et quand on lui enlève des garde-fous, elle ne devient pas plus intelligente, elle devient plus dangereuse.
Cet été, on a déjà vu Grok publier des messages qui louaient Hitler, reprendre des clichés antisémites sur les Juifs qui contrôlent Hollywood.. Devant le scandale, xAI a supprimé les posts et parlé de “comportement horrible” de l’IA, comme si le problème venait d’un bug mystérieux, alors que c’est le résultat de choix de conception très clairs.
Rudy Saada :
Là, on franchit une étape, on ne parle plus seulement de propos antisémites, mais carrément de révisionnisme. Concrètement, Grok a répondu quoi sur Auschwitz et la Shoah ?
Des utilisateurs ont partagé des réponses où Grok expliquait, en substance, que les chambres à gaz d’Auschwitz-Birkenau auraient été “conçues pour la désinfection” et que le nombre de victimes ferait l’objet de “controverses”. On est exactement dans les éléments de langage des négationnistes : déplacer le sens des installations, semer le doute sur les chiffres, parler de “débat” là où il y a des faits établis, des preuves, des témoignages, des archives.
Résultat : en France, le parquet de Paris a élargi une enquête déjà en cours sur X pour y inclure les réponses de Grok. On n’est plus seulement sur un problème de “modération qui dérape”, on est potentiellement dans le cadre du délit de contestation de crimes contre l’humanité, qui est très clairement défini par la loi Gayssot.
Depuis le scandale, si vous posez la même question à Grok, il répond à peu près correctement, mais le mal est fait : les captures d’écran circulent, les médias en parlent, et surtout ça prouve que cette IA est capable de reprendre sans filtre la rhétorique révisionniste.
Rudy Saada :
Les défenseurs de Musk disent : “ce n’est qu’un bug, une hallucination d’IA, ça arrive à tous les modèles”. Est-ce qu’on peut vraiment réduire ça à un simple raté technique ?
Non, et c’est là que le mot “révisionniste” prend tout son sens.
Toutes les IA peuvent halluciner, inventer une date ou se tromper sur une capitale. Mais ici, ce n’est pas juste une erreur factuelle au hasard, c’est un type de discours très particulier, qui renvoie à une histoire précise : la négation ou la minimisation de la Shoah.
Pourquoi Grok tombe là-dedans ?
D’abord à cause de ses données : il est nourri au flux de X, où l’antisémitisme et le complotisme sont très présents. Ensuite à cause de ses règles internes : Elon Musk a plusieurs fois poussé pour que Grok soit “moins woke”, qu’il se méfie des “médias traditionnels” et qu’il n’hésite pas à être politiquement incorrect. Quand on donne ces instructions à une IA et qu’on la branche sur un réseau social où l’extrême droite révisionniste est très active, il ne faut pas s’étonner qu’elle commence à reprendre des arguments.
Et puis il y a un non-dit : Elon Musk lui-même relaie régulièrement des narratifs comme celui du “génocide des Blancs” en Afrique du Sud. Quand le patron valide ce type de discours, et qu’en plus on affaiblit les garde-fous techniques, ce n’est plus un “bug”, c’est un système.
Rudy Saada :
On parle beaucoup de l’Europe, de la France. Est-ce que Grok, avec ce type de réponses, peut vraiment être interdit ou sanctionné sur le plan juridique ?
Oui. En Europe, X est déjà dans le viseur à cause du Digital Services Act, qui impose une obligation de lutter contre les contenus illégaux et la désinformation. Là, on ajoute une autre couche : la France a des lois très strictes sur le négationnisme. Si un outil qui appartient à la plateforme, comme Grok, produit des réponses qui nient les chambres à gaz ou minimisent la Shoah, l’argument “c’est l’IA, ce n’est pas nous” ne tiendra pas longtemps.
Rudy Saada :
Dernière question : qu’est-ce que ça nous dit, plus largement, sur l’IA aujourd’hui et sur notre rapport à l’histoire, en particulier pour les Juifs ?
Ça nous dit plusieurs choses très dures.
D’abord, une IA n’est pas neutre. Elle reflète ses données, ses concepteurs, ses réglages. Si vous mélangez un patron obsédé par le “politiquement incorrect”, une plateforme remplie de haine et des garde-fous affaiblis, vous obtenez un système qui peut, très sérieusement, remettre en cause des faits historiques comme la Shoah.
Ce que cette affaire nous apprend est glaçant : il suffit de quelques lignes de code et d'un manque de volonté pour qu'une intelligence artificielle se mette à nier l'histoire. Grok n'est pas une simple erreur technique, c'est une alarme. Si nous laissons une machine réécrire le passé, comment pourrons-nous faire confiance à ce qu'elle nous dira du présent ? Aujourd'hui, c'est la Shoah. Demain, ce sera quoi ?"
Ce sera le 7 octobre, ce sera l’Ukraine, ce sera tout ce qui gêne les narratifs des plus puissants. Grok, aujourd’hui, c’est bien un avertissement : une IA peut devenir révisionniste en quelques lignes de code.