Radio J Radio J

Chronique Tech Sam Altman tire le frein d’urgence : l’IA entre en politique mondiale

2026-02-10Saison S06 · Épisode 24

S06E24 – Radio J – Chronique Tech

Sam Altman tire le frein d’urgence : l’IA entre en politique mondiale

Ilana (Intro) : Ce matin, on parle d'un événement. À New Delhi, le plus grand sommet mondial sur l'IA vient de se refermer. Et le patron d'OpenAI, Sam Altman, en est revenu avec un message d'alerte : il réclame "l'urgence" d’instaurer des règles mondiales. Stéphane, pourquoi le créateur de ChatGPT demande-t-il soudainement qu'on encadre son invention ?

Stéphane : Parce que, Ilana, quand le fabricant du moteur réclame le frein, ce n'est plus un débat d'experts — c'est que l'IA a changé de dimension. Elle est devenue un sujet de sécurité collective.

Ce sommet "AI Impact Summit" de New Delhi a été un séisme diplomatique : 20 chefs d'État, 100 pays représentés, 250 000 visiteurs sur six jours. C'est la première fois qu'un sommet de cette ampleur sur l'IA se tient dans le Sud Global, et ça n'est pas un hasard — on y reviendra.

L'Inde y a fait adopter une déclaration centrale : "diffuser l'IA à tous, mais sans la laisser devenir incontrôlable." 86 pays l'ont signée — y compris les États-Unis, la Chine et la Russie. Ce n'est pas rien.

Sam Altman, lui, a lâché une phrase qui a glacé l'assemblée : nous pourrions être "à quelques années seulement" des premières formes de superintelligence. Il ne parle plus de science-fiction — il parle d'un horizon de deux à trois ans. Et face à ça, il propose un mécanisme de coordination internationale, sur le modèle de l'AIEA pour le nucléaire.(pause)

C'est une comparaison très forte. Cela signifie que pour lui, un code informatique malveillant pourrait demain être aussi dévastateur qu'une tête nucléaire s'il tombe entre de mauvaises mains. — pour créer des cyberattaques massives, paralyser des infrastructures critiques, ou même accélérer la conception d'armes biologiques.

Ilana (Relance 1) : On peut aussi y voir un calcul... Demander des règles, n'est-ce pas une façon pour les géants comme OpenAI de verrouiller le marché ?

Stéphane : Absolument, Ilana, et c'est là qu'il faut être vigilant. Il y a deux lectures qu'il faut tenir en même temps.

La lecture "risque réel" d'abord : Altman s'inquiète de la vitesse. L'IA progresse plus vite que nos lois, plus vite que nos institutions, et parfois plus vite que notre capacité à mesurer les dégâts.

La lecture "business" ensuite : si vous créez des règles extrêmement lourdes et coûteuses à respecter, vous empêchez les petites start-ups de naître. C'est le paradoxe cruel de la régulation — trop complexe, elle protège paradoxalement les monopoles en place. OpenAI a les armées de juristes pour se conformer. Une startup de dix personnes à Strasbourg ou à Tel-Aviv, non.

C'est pour ça que la Déclaration de New Delhi insiste sur l'IA "open source": l'idée que le code ne reste pas caché dans un coffre-fort en Californie, mais qu'il soit auditable par tous, partageable, transparent. C'est la condition pour que la régulation serve l'intérêt général et pas seulement les géants déjà en place.

Ilana (Relance 2) : Justement, l'Inde joue les arbitres. Pourquoi ce pays en particulier, et pourquoi maintenant ?

Stéphane : Parce que l'Inde mène la révolte du "Sud Global", et elle le fait avec une conviction presque idéologique.

New Delhi refuse que l'IA soit le nouveau "club fermé" entre Washington et Pékin. L'argument indien est simple, presque brutal : si deux blocs se partagent le contrôle de l'intelligence artificielle mondiale, le reste de la planète devient dépendant — technologiquement, culturellement, économiquement.

Et il y a un enjeu de souveraineté culturelle immense que l'on sous-estime. Si toutes les IA du monde sont entraînées uniquement sur des textes en anglais, produits majoritairement aux États-Unis, elles finissent par "penser américain". Elles reproduisent des biais culturels, des références, une vision du monde. L'Inde veut que ses propres langues — il y en a des centaines — ses propres valeurs, ses propres façons de raisonner, soient intégrées dans les algorithmes. C'est une bataille pour ne pas devenir des "colonies numériques".

Ilana (Relance 3) : Pour nos auditeurs qui nous écoutent ce matin, ça change quoi concrètement, dès maintenant ?

Stéphane : Trois conséquences directes, et elles sont déjà en mouvement.

D'abord, la guerre des ressources. L'IA, ce n'est plus seulement du logiciel, c’est du matériel d’abord. Le groupe Adani a annoncé lors de ce sommet 100 milliards de dollars d'investissements en data centers. Microsoft, Google, Amazon ont emboîté le pas. On parle d'un total de 250 milliards d'engagements annoncés en marge du sommet. Les data centers sont le nouveau pétrole — et comme pour le pétrole, celui qui contrôle l'infrastructure contrôle la puissance.

Ensuite, la fin de l'anonymat des contenus générés par l'IA. On va vers une obligation de marquage : si une image, une vidéo, un texte est fabriqué par une machine, ça doit être visible, lisible, traçable. C'est vital pour nos démocraties — face aux deepfakes, aux arnaques industrialisées, aux manipulations électorales. Ce n'est pas spectaculaire comme mesure, mais c'est fondamental.

Et enfin, le droit à contester les décisions algorithmiques. On commence à exiger que les systèmes d'IA les plus puissants soient auditables, voire "débranchables" dans certaines situations, et surtout qu'un citoyen puisse contester une décision prise par un algorithme — qu'il s'agisse d'un refus de crédit, d'un diagnostic médical ou d'une décision de justice assistée par IA.

En résumé, Ilana : cette semaine à New Delhi, l'IA a définitivement perdu son statut de "gadget magique" pour devenir une affaire d'État. Le défi des prochains mois sera de savoir si on peut réguler l'intelligence sans étouffer l'innovation.

Ilana : Merci Stéphane. On suit ça de très près. À la semaine prochaine !