Podcast & Radio

Chroniques Radio & Podcast

Retrouvez toutes mes chroniques tech diffusées sur les ondes et en podcast. Classées par média et par date, du plus récent au plus ancien. Cliquez sur une chronique pour lire le texte intégral.

Radio J

Radio J

Chronique hebdomadaire de Stephane Zibi sur Radio J 94.8 FM, dans le cadre du 6/9 de Rudy Saada. Partage chaque semaine un regard sur l'actualité en explorant l'impact des technologies et de l'IA.

56 chroniquesVisiter le site

La chute des Mollah ou la première guerre algorithmique

2026-03-01· 3:52

S06E25 – Radio J – Chronique Tech La chute des Mollah ou la première guerre algorithmique RUDY SAADA — INTRO Stéphane, la nouvelle est tombée ce week-end : le Guide Suprême iranien, l'ayatollah Ali Khamenei, est mort. Et pendant que le pays vacille, une guerre technologique et informationnelle fait rage sur tous les fronts. Des agents israéliens qui géolocalisent des généraux via des plombages dentaires. Une IA américaine qui planifie des frappes. Et dimanche soir — des chaînes de télévision iraniennes piratées pour diffuser les discours de Netanyahu et Trump appelant les Iraniens à se soulever. C'est un scénario de science-fiction qui devient réalité. Par où commence-t-on ? STÉPHANE On commence par le cœur du réacteur, Rudy : la mort d'un tyran ne change pas la nature de la guerre moderne — elle l'accélère. Et ce qui s'est passé dimanche soir sur les écrans iraniens en est la preuve vivante. Imaginez : vous êtes en Iran, le régime vient de vous couper internet. Et soudain, les chaînes de télévision nationales se font pirater en direct. C'est une opération de guerre informationnelle d'une sophistication redoutable. Mais ce n'est que la surface. Sous l'eau, il y a le paradoxe le plus stupéfiant : Trump ordonne de cesser d'utiliser les outils d'Anthropic — et quelques heures plus tard, le Commandement central américain, l'USCENTCOM, utilise précisément leur IA, Claude, pour planifier les frappes sur l'Iran. Ce n'est pas une fuite, ce n'est pas un accident — c'est la révélation de à quel point l'IA est déjà enfouie dans les rouages militaires. Ce n'est même pas la première fois : cette même IA Claude avait déjà été utilisée lors de l'opération ayant abouti à la capture du Président Maduro au Venezuela. Alors pourquoi Trump a-t-il banni Anthropic ? Parce qu'Anthropic a refusé. Refusé d'autoriser ses systèmes pour la surveillance de masse. Refusé de permettre que Claude soit utilisé pour des armes autonomes. C'est une ligne rouge qu'Anthropic a tracé. Et cette intégrité leur a coûté leur contrat gouvernemental. Ce que ça révèle, c'est une rupture dans l'histoire de la guerre moderne. Pour la première fois, une intelligence artificielle commerciale — la même que vous pouvez utiliser sur votre ordinateur — a participé à l'analyse de cibles militaires réelles, en temps réel, lors d'une opération de guerre. On a franchi un seuil. Et on ne reviendra pas en arrière. Et côté israélien, cette rupture a commencé bien plus tôt — avec comme grand moment l’opération des beepers au Liban l’année dernière ou pour cette opération ce week-end, avec les plombages dentaires qui ont pu transformer le corps humain lui-même en émetteur GPS. Ainsi quarante commandants iraniens ont pu être géolocalisés en temps réel et être éliminés en une minute. RUDY SAADA — RELANCE 1 Anthropic refuse les armes autonomes — mais son IA est quand même utilisée pour la guerre. Et maintenant, ils sont remplacés ? STÉPHANE C'est la tension fondamentale de toute l'industrie de l'IA, Rudy. Et Anthropic incarne ce dilemme. Leur position est nuancée : ils acceptent que l'IA aide à analyser du renseignement, mais refusent que Claude décide seul de qui frapper. C'est la frontière entre l'outil d'aide et l'arme autonome. Mais le Pentagone ne peut plus se passer de ces outils. La preuve : le secrétaire à la Défense a déclaré qu'Anthropic continuerait de fournir ses services pendant six mois, pour assurer une "transition en douceur". Et qui va les remplacer ? OpenAI, la société derrière ChatGPT, qui a déjà signé un accord avec le Pentagone. La Silicon Valley est désormais indissociable de la machine de guerre américaine. Le problème, c'est que cette frontière devient de plus en plus floue sur un terrain de guerre réel. Quand une IA analyse une cible, simule l'option C, et indique « risque collatéral faible, boucle de décision opérationnelle : 1,2 minutes » comme nous avons pu voir sur certaines captures d’écran — est-ce qu'un humain décide vraiment encore ? Ou valide-t-il simplement ce que la machine lui suggère ? RUDY SAADA — RELANCE 2 Et pendant ce temps, à l'intérieur de l'Iran, le régime aussi mène sa guerre technologique — mais contre ses propres citoyens ? STÉPHANE Absolument. Et c'est l'autre face de cette guerre invisible. Depuis le 8 janvier, l'Iran a imposé la coupure internet la plus sévère de son histoire. Pas un simple blocage de réseaux sociaux : une déconnexion totale. Le régime a construit un internet à deux vitesses — des SIM blanches pour l'élite, un intranet fermé et surveillé pour les 85 millions d'autres. Ce système a été construit avec l'aide de la Russie et du chinois Huawei. Un axe Moscou-Pékin-Téhéran qui s'est soudé autour d'un objectif commun : rendre chaque État imperméable à l'information qui vient de l'extérieur. Coût pour le régime : trente-cinq millions de dollars de pertes par jour. Ils ont choisi de se saigner plutôt que de laisser leurs citoyens communiquer. RUDY SAADA — RELANCE 3 Il y a une résistance technologique possible face à tout ça ? STÉPHANE — CONCLUSION Oui — et elle vient littéralement de l'espace. Cinquante mille terminaux Starlink ont été introduits clandestinement en Iran. SpaceX les a rendus gratuits pour les Iraniens. Et le Congrès américain vient d'adopter une loi pour financer cet accès internet libre. En résumé, l'Iran est en 2026 le laboratoire brutal de la guerre technologique de demain. L'IA d'Anthropic, bientôt remplacée par celle d'OpenAI, dans les salles de commandement américaines. Des dispositifs GPS dans des plombages pour géolocaliser des généraux. Des chaînes de télévision piratées pour parler au peuple. Et Starlink dans les caves pour que le peuple puisse encore parler au monde. La technologie, n'est jamais neutre. Elle choisit un camp — ou plusieurs à la fois. Rudy Saada : Merci Stéphane. À la semaine prochaine !

Sam Altman tire le frein d'urgence: l'IA entre en politique mondiale

2026-02-25· 4:32

S06E24 – Radio J – Chronique Tech Sam Altman tire le frein d’urgence : l’IA entre en politique mondiale Ilana (Intro) : Ce matin, on parle d'un événement. À New Delhi, le plus grand sommet mondial sur l'IA vient de se refermer. Et le patron d'OpenAI, Sam Altman, en est revenu avec un message d'alerte : il réclame "l'urgence" d’instaurer des règles mondiales. Stéphane, pourquoi le créateur de ChatGPT demande-t-il soudainement qu'on encadre son invention ? Stéphane : Parce que, Ilana, quand le fabricant du moteur réclame le frein, ce n'est plus un débat d'experts — c'est que l'IA a changé de dimension. Elle est devenue un sujet de sécurité collective. Ce sommet "AI Impact Summit" de New Delhi a été un séisme diplomatique : 20 chefs d'État, 100 pays représentés, 250 000 visiteurs sur six jours. C'est la première fois qu'un sommet de cette ampleur sur l'IA se tient dans le Sud Global, et ça n'est pas un hasard — on y reviendra. L'Inde y a fait adopter une déclaration centrale : "diffuser l'IA à tous, mais sans la laisser devenir incontrôlable." 86 pays l'ont signée — y compris les États-Unis, la Chine et la Russie. Ce n'est pas rien. Sam Altman, lui, a lâché une phrase qui a glacé l'assemblée : nous pourrions être "à quelques années seulement" des premières formes de superintelligence. Il ne parle plus de science-fiction — il parle d'un horizon de deux à trois ans. Et face à ça, il propose un mécanisme de coordination internationale, sur le modèle de l'AIEA pour le nucléaire.(pause) C'est une comparaison très forte. Cela signifie que pour lui, un code informatique malveillant pourrait demain être aussi dévastateur qu'une tête nucléaire s'il tombe entre de mauvaises mains. — pour créer des cyberattaques massives, paralyser des infrastructures critiques, ou même accélérer la conception d'armes biologiques. Ilana (Relance 1) : On peut aussi y voir un calcul... Demander des règles, n'est-ce pas une façon pour les géants comme OpenAI de verrouiller le marché ? Stéphane : Absolument, Ilana, et c'est là qu'il faut être vigilant. Il y a deux lectures qu'il faut tenir en même temps. La lecture "risque réel" d'abord : Altman s'inquiète de la vitesse. L'IA progresse plus vite que nos lois, plus vite que nos institutions, et parfois plus vite que notre capacité à mesurer les dégâts. La lecture "business" ensuite : si vous créez des règles extrêmement lourdes et coûteuses à respecter, vous empêchez les petites start-ups de naître. C'est le paradoxe cruel de la régulation — trop complexe, elle protège paradoxalement les monopoles en place. OpenAI a les armées de juristes pour se conformer. Une startup de dix personnes à Strasbourg ou à Tel-Aviv, non. C'est pour ça que la Déclaration de New Delhi insiste sur l'IA "open source": l'idée que le code ne reste pas caché dans un coffre-fort en Californie, mais qu'il soit auditable par tous, partageable, transparent. C'est la condition pour que la régulation serve l'intérêt général et pas seulement les géants déjà en place. Ilana (Relance 2) : Justement, l'Inde joue les arbitres. Pourquoi ce pays en particulier, et pourquoi maintenant ? Stéphane : Parce que l'Inde mène la révolte du "Sud Global", et elle le fait avec une conviction presque idéologique. New Delhi refuse que l'IA soit le nouveau "club fermé" entre Washington et Pékin. L'argument indien est simple, presque brutal : si deux blocs se partagent le contrôle de l'intelligence artificielle mondiale, le reste de la planète devient dépendant — technologiquement, culturellement, économiquement. Et il y a un enjeu de souveraineté culturelle immense que l'on sous-estime. Si toutes les IA du monde sont entraînées uniquement sur des textes en anglais, produits majoritairement aux États-Unis, elles finissent par "penser américain". Elles reproduisent des biais culturels, des références, une vision du monde. L'Inde veut que ses propres langues — il y en a des centaines — ses propres valeurs, ses propres façons de raisonner, soient intégrées dans les algorithmes. C'est une bataille pour ne pas devenir des "colonies numériques". Ilana (Relance 3) : Pour nos auditeurs qui nous écoutent ce matin, ça change quoi concrètement, dès maintenant ? Stéphane : Trois conséquences directes, et elles sont déjà en mouvement. D'abord, la guerre des ressources. L'IA, ce n'est plus seulement du logiciel, c’est du matériel d’abord. Le groupe Adani a annoncé lors de ce sommet 100 milliards de dollars d'investissements en data centers. Microsoft, Google, Amazon ont emboîté le pas. On parle d'un total de 250 milliards d'engagements annoncés en marge du sommet. Les data centers sont le nouveau pétrole — et comme pour le pétrole, celui qui contrôle l'infrastructure contrôle la puissance. Ensuite, la fin de l'anonymat des contenus générés par l'IA. On va vers une obligation de marquage : si une image, une vidéo, un texte est fabriqué par une machine, ça doit être visible, lisible, traçable. C'est vital pour nos démocraties — face aux deepfakes, aux arnaques industrialisées, aux manipulations électorales. Ce n'est pas spectaculaire comme mesure, mais c'est fondamental. Et enfin, le droit à contester les décisions algorithmiques. On commence à exiger que les systèmes d'IA les plus puissants soient auditables, voire "débranchables" dans certaines situations, et surtout qu'un citoyen puisse contester une décision prise par un algorithme — qu'il s'agisse d'un refus de crédit, d'un diagnostic médical ou d'une décision de justice assistée par IA. En résumé, Ilana : cette semaine à New Delhi, l'IA a définitivement perdu son statut de "gadget magique" pour devenir une affaire d'État. Le défi des prochains mois sera de savoir si on peut réguler l'intelligence sans étouffer l'innovation. Ilana : Merci Stéphane. On suit ça de très près. À la semaine prochaine !

Khamenei tué en 60 secondes : la guerre technologique dévoilée

2026-02-23· 4:30

S06E26 – Radio J – Chronique Tech Khamenei tué en 60 secondes : la guerre technologique dévoilée RUDY SAADA — INTRO Stéphane, la semaine dernière, on a été interrompu en pleine discussion sur la guerre technologique qui fait rage en Iran suite à la mort de l'ayatollah Khamenei. On avait évoqué une IA américaine qui planifie des frappes, des chaînes TV piratées, et même des traceurs GPS dans des plombages dentaires. Mais depuis, de nouvelles révélations explosives sur les coulisses de l'opération ont fait surface. On reprend où on s'est arrêtés, avec ces nouveaux éléments ? STÉPHANE Absolument, Rudy. On a parlé du *quoi*, maintenant, on peut parler du *comment* — et c'est encore plus fascinant. Tout a commencé il y a deux mois, avec un message du Mossad en persan sur Twitter/X maintenant disant : « Nous sommes avec vous sur le terrain ». C'était un test pour rendre le régime fébrile, et ça a marché. Les dignitaires se sont mis à communiquer frénétiquement, permettant à la CIA et au Mossad de tout surveiller, et de se concentrer sur un lieu précis : la rue Pasteur à Téhéran. Mais ce qui est révélateur, c'est *comment* le Mossad a construit cette capacité. Il y a 20 ans, ils ont changé de stratégie : au lieu de recruter des espions étrangers, ils ont commencé à recruter des agents locaux iraniens, opposés au régime. Ces agents ont reçu l'équipement high-tech le plus avancé et une formation intensive. Le chef du Mossad depuis 2021, David Barnea, a même créé une « légion étrangère » d'agents déployés dans toute la région. En Iran, il y a beaucoup de gens qui s'opposent au régime, donc c'était plus facile de les recruter. Ces taupes ont remonté tout : les dates de réunion, les participants, les voitures. L'idée d'une opération se précise. Il y a trois semaines, Netanyahu et Trump se sont rencontrés en secret dans le Bureau Ovale. Mais ici, il y a un détail crucial : Trump était réticent l'année dernière à tuer un chef d'État. Cette réticence a disparu après le conflit de juin. Et puis arrive le renseignement en or : Khamenei va tenir une réunion exceptionnelle, non pas dans son bunker, mais dans son bureau, dans les étages. Pour garantir l'effet de surprise, Israël met en place un leurre : vendredi soir, avant Pourim, tous les hauts responsables quittent le Pentagone israélien. Les espions iraniens voient le parking se vider et pensent que tout le monde part en week-end. Ils baissent la garde. Samedi matin, 6h, les chasseurs décollent. Ils attendent le dernier signal de la taupe : « Ils sont tous là ». Deux heures plus tard, les missiles frappent. Soixante secondes. C'est tout ce qu'il a fallu. Khamenei, sept membres de la direction de sécurité iranienne, une douzaine de sa famille et de son entourage, et quarante autres hauts responsables. Tout pulvérisé en une minute. RUDY SAADA — RELANCE 1 Soixante secondes pour tuer un chef d'État et des dizaines de responsables ? Comment c'est possible ? STÉPHANE C'est la fusion parfaite entre l'espionnage à l'ancienne et la technologie de pointe. Le Mossad avait suivi Khamenei pendant des années, construisant un dossier minutieusement détaillé de ses routines quotidiennes, celles de sa famille, de ses gardes. C'est comme un gigantesque puzzle. Vous rassemblez tous les petits bouts d'information : comment ils mangent, ce qui se passe avec leurs déchets, leurs appels téléphoniques réguliers. Un ancien vétéran de la CIA le dit bien : « Nous vivons dans un monde où l'information est tellement multi-couche qu'il n'y a personne qui ne laisse pas de traces. Tout ce que vous faites laisse une empreinte ». Le renseignement du Mossad sur le terrain a été fusionné avec l'interception de communications par les Américains. Khamenei avait plusieurs téléphones, mais on pouvait suivre ses appels réguliers. Tout cela a permis de compiler les informations de ciblage précis. Et puis, en 60 secondes, tout s'est donc terminé. RUDY SAADA — RELANCE 2 Et maintenant que Khamenei est mort, qu'est-ce qui change réellement en Iran ? STÉPHANE C'est la question que se posent même les experts. Un ancien vétéran de la CIA nous confie que selon lui, c'était une erreur stratégique. Pas pour des raisons éthiques — il a tué beaucoup de gens — mais pour des raisons stratégiques à long terme. Quand vous tuez le leader, vous ne résolvez pas le problème. Vous en créez un nouveau. Regardez le Hamas : on a assassiné tous leurs leaders. Ils sont toujours là. C'est la même chose avec le Hezbollah. Les leaders sont toujours remplacés. Mais voilà ce qui est révélateur : un ancien chef de la division contre-terrorisme du Mossad dit que « 60 secondes, c'est tout ce qu'il a fallu pour cette opération, mais c'est le produit de années en préparation ». Et il ajoute quelque chose de profond : « Le champ de bataille moderne n'est plus défini uniquement par les chars et les avions. Il est défini par les données, l'accès, la confiance et le timing. Une minute peut changer une région ». RUDY SAADA — RELANCE 3 Et pendant ce temps, à l'intérieur de l'Iran, le régime menait sa propre guerre technologique — mais contre ses propres citoyens ? STÉPHANE Absolument. Et c'est l'autre face de cette guerre invisible. Depuis le 8 janvier, l'Iran a imposé la coupure internet la plus sévère de son histoire. Pas un simple blocage de réseaux sociaux : une déconnexion totale. Le régime a construit un internet à deux vitesses — des SIM blanches pour l'élite, un intranet fermé et surveillé pour les 85 millions d'autres. Ce système a été construit avec l'aide de la Russie et de Huawei. Un axe Moscou-Pékin-Téhéran qui s'est soudé autour d'un objectif commun : rendre chaque État imperméable à l'information qui vient de l'extérieur. Coût pour le régime : trente-cinq millions de dollars de pertes par jour. Ils ont choisi de se saigner plutôt que de laisser leurs citoyens communiquer. RUDY SAADA — RELANCE 4 Il y a une résistance technologique possible face à tout ça ? STÉPHANE — CONCLUSION Oui — et elle vient littéralement de l'espace. Cinquante mille terminaux Starlink ont été introduits clandestinement en Iran. SpaceX les a rendus gratuits pour les Iraniens. Et le Congrès américain vient d'adopter une loi pour financer cet accès internet libre. En résumé, Rudy : l'Iran est en 2026 le laboratoire brutal de la guerre de demain. Une guerre hybride où l'IA planifie, où l'espionnage à l'ancienne donne le signal, où des leurres dignes de la Guerre Froide endorment l'ennemi, où une minute change une région, et où, en face, le peuple se bat pour sa liberté avec des antennes satellites. La technologie, ici, n'est jamais neutre. Elle est le champ de bataille lui-même.

Claude, l'IA qui défie les géants et le Pentagone

2026-02-23· 4:30

S06E26 – Radio J – Chronique Tech Claude, l'IA qui défie les géants et le Pentagone Ilana : Aujourd'hui, nous plongeons dans le monde fascinant et en pleine ébullition de l'intelligence artificielle. On connaît tous ChatGPT, on a entendu parler de Gemini de Google, mais un nouvel acteur, ou plutôt un concurrent de taille, est en train de s'imposer : Claude, une IA développée par la société Anthropic. Pour nous en parler, nous accueillons notre chroniqueur, qui va nous éclairer sur cette nouvelle bataille des géants de la tech. Stephane : Bonjour. Oui, le monde de l'IA est en constante évolution, et la dernière grande nouvelle, c'est l'arrivée de Claude 3, et plus récemment de son amélioration, Claude Sonnet 4.6. C'est une nouvelle famille de modèles d'intelligence artificielle qui, selon de nombreux experts, surpasse ses concurrents directs, ChatGPT d'OpenAI et Gemini de Google, sur plusieurs points cruciaux. Anthropic, la société derrière Claude, a été fondée par d'anciens chercheurs d'OpenAI, et ils ont une approche très différente, axée sur la sécurité et l'éthique. Ce qui rend Claude si spécial, c'est sa capacité à traiter d'énormes quantités d'informations en une seule fois – on parle d'un million de "tokens", l'équivalent de plusieurs centaines de milliers de mots, soit des livres entiers. Il est aussi capable d'utiliser un ordinateur comme un humain, en naviguant sur des logiciels ou des sites web. C'est une avancée majeure qui ouvre des possibilités incroyables pour l'automatisation de tâches complexes. Ilana(Question 1) : C'est impressionnant. On sent qu'il y a une vraie guerre technologique qui se joue. Quelle est l'histoire derrière cette rivalité entre Anthropic et OpenAI ? Stephane : C'est une histoire de vision et de philosophie. Dario Amodei, le fondateur d'Anthropic, a quitté OpenAI en 2021 car il était en désaccord avec la direction que prenait l'entreprise, notamment sur les questions de sécurité. OpenAI, sous la houlette de Sam Altman, a une approche de "blitzscaling" : on sort les produits vite, on les met dans les mains de millions d'utilisateurs, et on corrige les problèmes au fur et à mesure. Anthropic, au contraire, prône une approche plus lente, plus contrôlée, qu'ils appellent "l'IA constitutionnelle". Ils ont défini une sorte de "constitution" pour leur IA, un ensemble de principes éthiques pour guider son comportement. C'est donc une bataille entre la vitesse et la prudence, entre la croissance à tout prix et le développement responsable. Et bien sûr, il y a aussi une énorme compétition pour le marché de l'IA, qui se chiffre en centaines de milliards de dollars. Ilana (Question 2) : C'est impressionnant. Mais avant de parler des enjeux militaires, dites-nous : quel est l'impact réel de Claude sur le marché ? Est-ce que c'est juste du battage médiatique ou est-ce que ça fait vraiment bouger les choses ? Stephane: Excellente question. L'impact est très réel. En février 2026, Anthropic a annoncé que Claude pouvait moderniser le code COBOL – un langage informatique vieux de plus de 60 ans qui gère 95% des transactions bancaires aux États-Unis. C'est un domaine où IBM règne depuis des décennies. Résultat ? Les actions d'IBM ont chuté de 13% en une seule journée – leur pire jour depuis le krach de l'an 2000. Cela a effacé 31 milliards de dollars de la valeur marchande d'IBM. C'est un signal très fort : Anthropic ne menace pas seulement OpenAI, elle menace aussi les géants établis de l'informatique. Claude est en train de redessiner l'ensemble du paysage technologique. ilana (Question 3) : Wow, 31 milliards de dollars en une journée ! C'est énorme. Mais vous aviez aussi mentionné des enjeux militaires et géopolitiques. Pouvez-vous nous en dire plus ? Stephane : Oui, et c'est là que ça devient encore plus complexe. Très récemment, fin février 2026, le Pentagone a lancé un ultimatum à Anthropic. Le ministère de la Défense américain veut pouvoir utiliser Claude sans aucune restriction, alors qu'Anthropic refuse que son IA soit utilisée pour la surveillance de masse ou pour automatiser des attaques mortelles. Le Pentagone a menacé de forcer l'entreprise à coopérer en utilisant une loi datant de la guerre de Corée, et de mettre Anthropic sur une liste noire aux côtés de sociétés comme Huawei. C'est un dilemme terrible pour Anthropic : rester fidèle à ses principes éthiques ou céder à la pression de la sécurité nationale. Mais voici le rebondissement le plus surprenant : Sam Altman, le PDG d'OpenAI, le rival direct d'Anthropic, a pris publiquement la défense d'Anthropic ! Il a déclaré sur CNBC : "Je ne pense pas personnellement que le Pentagone devrait menacer ces entreprises avec le DPA. Malgré toutes les différences que j'ai avec Anthropic, je les fais largement confiance en tant qu'entreprise et je pense qu'ils se soucient vraiment de la sécurité." C'est un moment extraordinaire : deux concurrents féroces s'unissent contre ce qu'ils considèrent comme une menace à la liberté technologique. Cela montre que cette affaire dépasse la simple compétition commerciale. Elle touche à des principes fondamentaux : qui doit contrôler l'intelligence artificielle ? Les gouvernements ou les entreprises ? Cette affaire montre à quel point l'IA est devenue un enjeu stratégique majeur, au cœur des tensions géopolitiques mondiales. Ilana (dernière) : C'est fascinant, mais dites-moi : est-ce que cet ultimatum a finalement fonctionné ? Anthropic a-t-elle cédé ? Stephane : Non, et c'est là que l'histoire devient encore plus surréaliste. Le 1er mars 2026, le Guardian rapporte que l'armée américaine a utilisé Claude pour informer son attaque contre l'Iran, et ce malgré une interdiction directe de Trump quelques heures plus tôt ! Trump avait ordonné à toutes les agences fédérales de cesser immédiatement d'utiliser Claude, la qualifiant de "société d'IA radicale de gauche". Mais l'armée a utilisé Claude pour l'intelligence, la sélection des cibles et les simulations de champ de bataille. C'est une illustration parfaite de la réalité : une fois que Claude est intégré dans les opérations militaires, on ne peut pas simplement l'enlever d'un coup de plume. Et voici l'ironie finale : OpenAI, le rival d'Anthropic, a immédiatement signé un accord avec le Pentagone pour remplacer Claude. Donc, malgré sa victoire apparente, Trump a simplement transféré le marché militaire à OpenAI.

L'IA au sommet de l'État : gouverner à l'ère des algorithmes

2026-02-18· 4:48

S06E23 – Radio J – Chronique Tech L’IA au sommet de l’État : gouverner à l’ère des algorithmes Ilana : Bonjour Stéphane. Ce matin, on parle d’un sujet stratégique : l’intelligence artificielle n’est plus seulement dans nos téléphones ou nos entreprises. Elle est au cœur des décisions d’État. Est-ce vraiment le cas ? Stéphane : Pas du tout Ilana. On est en train d’assister à un basculement silencieux ,comme c’est souvent le cas quand l’IA est impliquée, car on n’ose pas encore le dire vraiment qu’on utilise ces outils. Savez vous, qu’aux États-Unis, un événement récent illustre l’intégration de l’intelligence artificielle dans les opérations d’État à un niveau inédit. Lors de l’opération américaine qui a abouti à la capture de l’ancien président vénézuélien Nicolas Maduro début janvier 2026, les forces armées ont utilisé un modèle d’IA développé par Anthropic, appelé Claude, pour traiter et analyser des masses de données en lien avec la mission, selon plusieurs rapports. Cela s’est fait via un partenariat avec Palantir Technologies, dont les plateformes sont déjà intégrées aux réseaux de renseignement et de défense américains. L’usage de Claude dans une opération militaire de cette nature — bien que les détails précis de son rôle ne soient pas publics et que la politique interne d’Anthropic limite l’IA pour des cas liés à la violence — met en lumière la manière dont les États appliquent désormais des modèles avancés d’IA pour orienter des décisions et des opérations stratégiques à très haut niveau. Pendant longtemps, la décision publique reposait sur des rapports, des notes, des arbitrages humains. Aujourd’hui, elle repose de plus en plus sur des systèmes capables d’agréger des volumes massifs de données, de détecter des signaux faibles et de modéliser des scénarios. On ne parle plus d’un simple outil d’aide. On parle d’architectures qui structurent la perception du réel. Dans la gestion des frontières, la cybersécurité, la fiscalité, la santé publique, la planification énergétique ou militaire, l’IA sert à prioriser. Elle identifie ce qui est urgent, ce qui est risqué, ce qui mérite des ressources. Autrement dit, elle influence l’ordre des priorités politiques. Ilana : Mais la décision reste humaine. Stéphane : Oui, formellement. Mais dans les faits, celui qui structure l’information structure déjà une partie du pouvoir. Quand un système algorithmique classe des menaces, hiérarchise des risques terroristes ou modélise l’impact d’une crise économique, il oriente le débat en amont. Les responsables politiques arbitrent à partir d’un réel déjà filtré. On entre dans l’ère du “data-driven government” : un État piloté par la donnée. Les grandes puissances investissent massivement dans les infrastructures de calcul, les data centers, les modèles prédictifs. L’accès aux puces avancées, au cloud souverain, à la capacité de traitement devient un enjeu géopolitique majeur. L’IA est désormais considérée comme un levier de puissance nationale. Ilana : Et dans ce paysage, certaines entreprises privées jouent un rôle clé. Stéphane : Exactement. Prenons le cas de Palantir Technologies. Cette entreprise américaine développe des plateformes d’analyse utilisées par des gouvernements pour le renseignement, la lutte antiterroriste, la défense ou la gestion de crise. Son rôle n’est pas de décider à la place des États, mais de fusionner des données hétérogènes — financières, logistiques, sécuritaires — pour faire émerger des corrélations invisibles à l’œil humain. En Israël, Palantir a renforcé sa coopération avec les autorités après le 7 octobre en mettant à disposition ses plateformes d’analyse pour la fusion de données issues du renseignement, des interceptions et des informations terrain. L’objectif : cartographier en temps réel les réseaux du Hamas, identifier des schémas logistiques, croiser données financières, communications et mouvements afin de prioriser les cibles et accélérer la boucle décisionnelle. Palantir a également annoncé l’ouverture d’un partenariat stratégique en Israël pour soutenir l’effort de guerre par ses capacités d’analyse prédictive et de structuration massive de données au service des Forces de défense israéliennes. Ilana : On est en train de changer de modèle de gouvernance ? Stéphane : Oui d’une certaine manière. L’État du XXe siècle reposait sur l’administration. L’État du XXIe siècle repose sur la donnée.La décision ne disparaît pas. Mais elle s’appuie sur des systèmes prédictifs capables d’anticiper, de simuler, de classer. L’intelligence artificielle n’est plus périphérique. Elle est devenue une couche invisible de la gouvernance. Et la vraie question n’est pas technologique. Elle est politique : comment garantir que l’algorithme reste un outil d’aide, et non un acteur implicite du pouvoir. A la semaine prochaine !

Chronique Tech La chute des Mollah ou la première guerre algorithmique

2026-02-17

S06E25 – Radio J – Chronique Tech La chute des Mollah ou la première guerre algorithmique RUDY SAADA — INTRO Stéphane, la nouvelle est tombée ce week-end : le Guide Suprême iranien, l'ayatollah Ali Khamenei, est mort. Et pendant que le pays vacille, une guerre technologique et informationnelle fait rage sur tous les fronts. Des agents israéliens qui géolocalisent des généraux via des plombages dentaires. Une IA américaine qui planifie des frappes. Et dimanche soir — des chaînes de télévision iraniennes piratées pour diffuser les discours de Netanyahu et Trump appelant les Iraniens à se soulever. C'est un scénario de science-fiction qui devient réalité. Par où commence-t-on ? STÉPHANE On commence par le cœur du réacteur, Rudy : la mort d'un tyran ne change pas la nature de la guerre moderne — elle l'accélère. Et ce qui s'est passé dimanche soir sur les écrans iraniens en est la preuve vivante. Imaginez : vous êtes en Iran, le régime vient de vous couper internet. Et soudain, les chaînes de télévision nationales se font pirater en direct. C'est une opération de guerre informationnelle d'une sophistication redoutable. Mais ce n'est que la surface. Sous l'eau, il y a le paradoxe le plus stupéfiant : Trump ordonne de cesser d'utiliser les outils d'Anthropic — et quelques heures plus tard, le Commandement central américain, l'USCENTCOM, utilise précisément leur IA, Claude, pour planifier les frappes sur l'Iran. Ce n'est pas une fuite, ce n'est pas un accident — c'est la révélation de à quel point l'IA est déjà enfouie dans les rouages militaires. Ce n'est même pas la première fois : cette même IA Claude avait déjà été utilisée lors de l'opération ayant abouti à la capture du Président Maduro au Venezuela. Alors pourquoi Trump a-t-il banni Anthropic ? Parce qu'Anthropic a refusé. Refusé d'autoriser ses systèmes pour la surveillance de masse. Refusé de permettre que Claude soit utilisé pour des armes autonomes. C'est une ligne rouge qu'Anthropic a tracé. Et cette intégrité leur a coûté leur contrat gouvernemental. Ce que ça révèle, c'est une rupture dans l'histoire de la guerre moderne. Pour la première fois, une intelligence artificielle commerciale — la même que vous pouvez utiliser sur votre ordinateur — a participé à l'analyse de cibles militaires réelles, en temps réel, lors d'une opération de guerre. On a franchi un seuil. Et on ne reviendra pas en arrière. Et côté israélien, cette rupture a commencé bien plus tôt — avec comme grand moment l’opération des beepers au Liban l’année dernière ou pour cette opération ce week-end, avec les plombages dentaires qui ont pu transformer le corps humain lui-même en émetteur GPS. Ainsi quarante commandants iraniens ont pu être géolocalisés en temps réel et être éliminés en une minute. RUDY SAADA — RELANCE 1 Anthropic refuse les armes autonomes — mais son IA est quand même utilisée pour la guerre. Et maintenant, ils sont remplacés ? STÉPHANE C'est la tension fondamentale de toute l'industrie de l'IA, Rudy. Et Anthropic incarne ce dilemme. Leur position est nuancée : ils acceptent que l'IA aide à analyser du renseignement, mais refusent que Claude décide seul de qui frapper. C'est la frontière entre l'outil d'aide et l'arme autonome. Mais le Pentagone ne peut plus se passer de ces outils. La preuve : le secrétaire à la Défense a déclaré qu'Anthropic continuerait de fournir ses services pendant six mois, pour assurer une "transition en douceur". Et qui va les remplacer ? OpenAI, la société derrière ChatGPT, qui a déjà signé un accord avec le Pentagone. La Silicon Valley est désormais indissociable de la machine de guerre américaine. Le problème, c'est que cette frontière devient de plus en plus floue sur un terrain de guerre réel. Quand une IA analyse une cible, simule l'option C, et indique « risque collatéral faible, boucle de décision opérationnelle : 1,2 minutes » comme nous avons pu voir sur certaines captures d’écran — est-ce qu'un humain décide vraiment encore ? Ou valide-t-il simplement ce que la machine lui suggère ? RUDY SAADA — RELANCE 2 Et pendant ce temps, à l'intérieur de l'Iran, le régime aussi mène sa guerre technologique — mais contre ses propres citoyens ? STÉPHANE Absolument. Et c'est l'autre face de cette guerre invisible. Depuis le 8 janvier, l'Iran a imposé la coupure internet la plus sévère de son histoire. Pas un simple blocage de réseaux sociaux : une déconnexion totale. Le régime a construit un internet à deux vitesses — des SIM blanches pour l'élite, un intranet fermé et surveillé pour les 85 millions d'autres. Ce système a été construit avec l'aide de la Russie et du chinois Huawei. Un axe Moscou-Pékin-Téhéran qui s'est soudé autour d'un objectif commun : rendre chaque État imperméable à l'information qui vient de l'extérieur. Coût pour le régime : trente-cinq millions de dollars de pertes par jour. Ils ont choisi de se saigner plutôt que de laisser leurs citoyens communiquer. RUDY SAADA — RELANCE 3 Il y a une résistance technologique possible face à tout ça ? STÉPHANE — CONCLUSION Oui — et elle vient littéralement de l'espace. Cinquante mille terminaux Starlink ont été introduits clandestinement en Iran. SpaceX les a rendus gratuits pour les Iraniens. Et le Congrès américain vient d'adopter une loi pour financer cet accès internet libre. En résumé, l'Iran est en 2026 le laboratoire brutal de la guerre technologique de demain. L'IA d'Anthropic, bientôt remplacée par celle d'OpenAI, dans les salles de commandement américaines. Des dispositifs GPS dans des plombages pour géolocaliser des généraux. Des chaînes de télévision piratées pour parler au peuple. Et Starlink dans les caves pour que le peuple puisse encore parler au monde. La technologie, n'est jamais neutre. Elle choisit un camp — ou plusieurs à la fois. Rudy Saada : Merci Stéphane. À la semaine prochaine !

The Great Shift in Screen Time / The Exodus from Social Networks

2026-02-11· 4:38

S06E17 – Radio J – Chronique Tech 2025 : La Grande Bascule du temps d’écran - L’exode des réseaux sociaux INTRODUCTION Ilana Stéphane,. On entend dire que les réseaux sociaux sont en perte de vitesse. Est-ce que les chiffres 2025 confirment vraiment cette tendance ? Stéphane Oui, et de façon spectaculaire. Les signaux étaient déjà là en 2024, mais 2025 n’est pas une simple année de ralentissement, c’est l’année d’une véritable rupture, d’un point de bascule civilisationnel dans nos usages numériques. D’après les dernières consolidations internationales, le temps moyen quotidien passé sur les réseaux sociaux traditionnels chute de 6 à 8 % en 2025 dans les pays occidentaux. Mais le chiffre le plus marquant concerne les 16–24 ans, le cœur de cible historique : la chute atteint près de 15 % sur trois ans cumulés. C’est du jamais-vu depuis l’avènement des plateformes sociales. Ce n’est pas un simple transfert d’attention, c’est un recul structurel et profond. Ilana Quels sont les réseaux les plus touchés aujourd’hui ? Stéphane Le cas le plus emblématique reste Facebook. En 2025, moins de 25 % des moins de 25 ans s’y connectent encore chaque jour contre 70% il y a encore 5 ans. La plateforme est devenue une sorte de musée numérique, un patrimoine générationnel où l’on garde un compte par habitude, mais où l’activité réelle s’est effondrée. Facebook risque de devenir une sorte de grenier du web social Instagram, longtemps perçu comme plus dynamique, résiste mieux mais plafonne dangereusement. Le nombre d’utilisateurs actifs stagne, tandis que le temps moyen par utilisateur recule d’environ 5 % en un an. L’engagement s’érode. Même le géant TikTok, que l’on croyait invincible, voit sa croissance occidentale tomber sous les 2 % en 2025. Plus inquiétant pour eux, on observe un décrochage net chez les 18–24 ans, lassés par la répétitivité des contenus et la pression de l’algorithme. YouTube est un cas à part. La plateforme non seulement résiste, mais elle se renforce. On ne va pas sur YouTube pour "scroller" sans fin, mais pour chercher une compétence, suivre un tutoriel, regarder un documentaire, ou suivre des créateurs sur des formats longs. C'est une plateforme de destination, pas de passage. Le temps passé y est perçu comme plus qualitatif, plus enrichissant, ce qui la protège de la lassitude qui frappe les autres réseaux. Ilana Pourtant, on n’a jamais été aussi collés à nos smartphones… Stéphane Eh oui c’est là que le paradigme change. Le temps d’écran global, lui, ne baisse pas. Il explose. Mais il se déplace vers des territoires plus intimes et plus utiles. La première bascule majeure : les messageries privées et sécurisées. En 2025, plus de 3 milliards de personnes utilisent WhatsApp chaque mois. En Europe, plus de 80 % des utilisateurs de smartphones l’ouvrent quotidiennement. Le temps passé sur ces messageries a bondi de plus de 20 % en quatre ans, un vase communicant parfait avec le déclin des réseaux sociaux. Les usages sont clairs : on fuit l’agora publique pour des conversations choisies, des groupes restreints, des échanges basés sur la confiance et le contrôle. Ilana C’est donc aussi une question de confiance et de quête d’authenticité ? Stéphane Complètement. C’est une réaction épidermique à dix ans de surexposition. Les utilisateurs fuient l’arène publique algorithmique, perçue comme toxique et anxiogène, pour se réfugier dans des espaces plus sûrs, plus calmes, moins intrusifs. En 2025, près de 65 % des internautes européens déclarent préférer échanger de l’information via des messageries plutôt que sur des fils d’actualité ouverts. C’est la victoire de la sphère privée. Deuxième bascule : le smartphone est devenu un véritable terminal de productivité. Aujourd’hui, plus de 70 % des actifs utilisent leur smartphone pour des tâches professionnelles. Pour beaucoup, le smartphone n’est plus un second écran, c’est l’écran principal qui remplace l’ordinateur. Ilana Donc le téléphone n’est plus seulement un outil de distraction ? Stéphane Oui Ilana.. Il est loin le temps où le mobile n’était juste qu’un téléphone. Il est passé depuis à une machine à perdre du temps à une machine à en gagner. Pour illustrer cela, le troisième facteur clé en 2025, et c’est le plus récent : l’IA conversationnelle. Une part croissante du temps autrefois dédié aux réseaux sociaux est désormais absorbée par des assistants intelligents qui fournissent des réponses directes et synthétiques. Chez les 18–34 ans, près de 40 % des recherches d’information courante (une recette, un conseil, une date) passent désormais par des outils comme ChatGPT, Perplexity ou Gemini, plutôt que par les réseaux sociaux ou même les simples recherches sur Google. Ilana Et tout ça change le rôle des réseaux ? Stéphane Les réseaux ne sont plus au centre de la quête de sens ou de connaissance. Ils redeviennent ce qu’ils étaient à l’origine : des plateformes de diffusion, de pur divertissement, parfois de confrontation, mais de moins en moins des lieux de création de valeur durable. La conséquence directe : comme le temps d’attention se raréfie, la compétition pour le capter devient absolument brutale. Pour retenir un utilisateur qui s’ennuie, les algorithmes n’ont pas le choix : ils doivent pousser des contenus toujours plus extrêmes, plus émotionnels, plus polarisants. C’est une pure logique mathématique de survie commerciale. Et face à cela, on voit déjà pour 2026 des plateformes comme LinkedIn et Instagram tenter de changer leur fusil d'épaule et se TikTokiser, en ajustant leurs algorithmes pour, soi-disant, favoriser les contenus plus personnels et authentiques, au détriment de la portée virale des contenus. Un virage difficile qui montre bien leur prise de conscience vers ces nouveaux usages. A la semaine prochaine !

Chronique Tech Sam Altman tire le frein d’urgence : l’IA entre en politique mondiale

2026-02-10

S06E24 – Radio J – Chronique Tech Sam Altman tire le frein d’urgence : l’IA entre en politique mondiale Ilana (Intro) : Ce matin, on parle d'un événement. À New Delhi, le plus grand sommet mondial sur l'IA vient de se refermer. Et le patron d'OpenAI, Sam Altman, en est revenu avec un message d'alerte : il réclame "l'urgence" d’instaurer des règles mondiales. Stéphane, pourquoi le créateur de ChatGPT demande-t-il soudainement qu'on encadre son invention ? Stéphane : Parce que, Ilana, quand le fabricant du moteur réclame le frein, ce n'est plus un débat d'experts — c'est que l'IA a changé de dimension. Elle est devenue un sujet de sécurité collective. Ce sommet "AI Impact Summit" de New Delhi a été un séisme diplomatique : 20 chefs d'État, 100 pays représentés, 250 000 visiteurs sur six jours. C'est la première fois qu'un sommet de cette ampleur sur l'IA se tient dans le Sud Global, et ça n'est pas un hasard — on y reviendra. L'Inde y a fait adopter une déclaration centrale : "diffuser l'IA à tous, mais sans la laisser devenir incontrôlable." 86 pays l'ont signée — y compris les États-Unis, la Chine et la Russie. Ce n'est pas rien. Sam Altman, lui, a lâché une phrase qui a glacé l'assemblée : nous pourrions être "à quelques années seulement" des premières formes de superintelligence. Il ne parle plus de science-fiction — il parle d'un horizon de deux à trois ans. Et face à ça, il propose un mécanisme de coordination internationale, sur le modèle de l'AIEA pour le nucléaire.(pause) C'est une comparaison très forte. Cela signifie que pour lui, un code informatique malveillant pourrait demain être aussi dévastateur qu'une tête nucléaire s'il tombe entre de mauvaises mains. — pour créer des cyberattaques massives, paralyser des infrastructures critiques, ou même accélérer la conception d'armes biologiques. Ilana (Relance 1) : On peut aussi y voir un calcul... Demander des règles, n'est-ce pas une façon pour les géants comme OpenAI de verrouiller le marché ? Stéphane : Absolument, Ilana, et c'est là qu'il faut être vigilant. Il y a deux lectures qu'il faut tenir en même temps. La lecture "risque réel" d'abord : Altman s'inquiète de la vitesse. L'IA progresse plus vite que nos lois, plus vite que nos institutions, et parfois plus vite que notre capacité à mesurer les dégâts. La lecture "business" ensuite : si vous créez des règles extrêmement lourdes et coûteuses à respecter, vous empêchez les petites start-ups de naître. C'est le paradoxe cruel de la régulation — trop complexe, elle protège paradoxalement les monopoles en place. OpenAI a les armées de juristes pour se conformer. Une startup de dix personnes à Strasbourg ou à Tel-Aviv, non. C'est pour ça que la Déclaration de New Delhi insiste sur l'IA "open source": l'idée que le code ne reste pas caché dans un coffre-fort en Californie, mais qu'il soit auditable par tous, partageable, transparent. C'est la condition pour que la régulation serve l'intérêt général et pas seulement les géants déjà en place. Ilana (Relance 2) : Justement, l'Inde joue les arbitres. Pourquoi ce pays en particulier, et pourquoi maintenant ? Stéphane : Parce que l'Inde mène la révolte du "Sud Global", et elle le fait avec une conviction presque idéologique. New Delhi refuse que l'IA soit le nouveau "club fermé" entre Washington et Pékin. L'argument indien est simple, presque brutal : si deux blocs se partagent le contrôle de l'intelligence artificielle mondiale, le reste de la planète devient dépendant — technologiquement, culturellement, économiquement. Et il y a un enjeu de souveraineté culturelle immense que l'on sous-estime. Si toutes les IA du monde sont entraînées uniquement sur des textes en anglais, produits majoritairement aux États-Unis, elles finissent par "penser américain". Elles reproduisent des biais culturels, des références, une vision du monde. L'Inde veut que ses propres langues — il y en a des centaines — ses propres valeurs, ses propres façons de raisonner, soient intégrées dans les algorithmes. C'est une bataille pour ne pas devenir des "colonies numériques". Ilana (Relance 3) : Pour nos auditeurs qui nous écoutent ce matin, ça change quoi concrètement, dès maintenant ? Stéphane : Trois conséquences directes, et elles sont déjà en mouvement. D'abord, la guerre des ressources. L'IA, ce n'est plus seulement du logiciel, c’est du matériel d’abord. Le groupe Adani a annoncé lors de ce sommet 100 milliards de dollars d'investissements en data centers. Microsoft, Google, Amazon ont emboîté le pas. On parle d'un total de 250 milliards d'engagements annoncés en marge du sommet. Les data centers sont le nouveau pétrole — et comme pour le pétrole, celui qui contrôle l'infrastructure contrôle la puissance. Ensuite, la fin de l'anonymat des contenus générés par l'IA. On va vers une obligation de marquage : si une image, une vidéo, un texte est fabriqué par une machine, ça doit être visible, lisible, traçable. C'est vital pour nos démocraties — face aux deepfakes, aux arnaques industrialisées, aux manipulations électorales. Ce n'est pas spectaculaire comme mesure, mais c'est fondamental. Et enfin, le droit à contester les décisions algorithmiques. On commence à exiger que les systèmes d'IA les plus puissants soient auditables, voire "débranchables" dans certaines situations, et surtout qu'un citoyen puisse contester une décision prise par un algorithme — qu'il s'agisse d'un refus de crédit, d'un diagnostic médical ou d'une décision de justice assistée par IA. En résumé, Ilana : cette semaine à New Delhi, l'IA a définitivement perdu son statut de "gadget magique" pour devenir une affaire d'État. Le défi des prochains mois sera de savoir si on peut réguler l'intelligence sans étouffer l'innovation. Ilana : Merci Stéphane. On suit ça de très près. À la semaine prochaine !

Jmail.world: When a 'fake Gmail' makes the Epstein archives usable

2026-02-07· 4:57

S06E22 – Radio J – Chronique Tech Jmail.world : quand un “faux Gmail” rend exploitables les archives Epstein Ilana (intro) : Bonjour Stéphane. Cette semaine, on voit circuler un site, jmail.world, qui ressemble à Gmail… sauf qu’on se retrouve “connecté” à la boîte mail de Jeffrey Epstein. On parle d’un outil d’enquête ou d’un truc malsain ? Stéphane : On parle des deux, et c’est précisément ça qui le rend intéressant — et inquiétant. Jmail.world, c’est une idée simple : au lieu de publier des montagnes de documents bruts, illisibles pour le grand public, grâce à l’IA, on les remet en forme dans une interface familière, type Gmail, avec recherche, navigation, filtres. L’objectif est de rendre consultables des archives issues de publications institutionnelles américaines, à un moment où l’administration américaine a justement mis en ligne des millions de pages supplémentaires liées au dossier Epstein, mais dans des formats énormes et difficiles à exploiter. Là où c’est important, c’est que l’interface change la vérité pratique. Un “dump” de fichiers, c’est théoriquement transparent mais, en réalité, c’est souvent inexploitable. Ce qu’apporte Jmail, c’est une mise en scène de la donnée : tout à coup, l’utilisateur a l’impression de “voir la réalité”, de “parcourir une vie”, parce que ça ressemble à sa propre boîte mail. Et ça, ça produit un effet cognitif très puissant : on ne lit plus des pièces d’archives, on “visite” un monde. Et ce basculement a deux conséquences. Première conséquence : ça démocratise l’investigation. Pour un journaliste, un chercheur, un juriste, ou même un citoyen curieux, une interface de ce type peut faire gagner des jours : on cherche un nom, on suit un fil, on retrouve un motif récurrent. C’est exactement le genre d’outil qui transforme une fuite ou une publication officielle en matière exploitable, au lieu d’un cimetière de PDF. Mais deuxième conséquence : ça gamifie un dossier criminel. Quand on met une mécanique d’“exploration”, un bouton “random page”, des étoiles, des classements communautaires, on frôle le voyeurisme. Et surtout, on crée une pente : celle des mauvaises inférences. Lire un mail ne prouve pas un crime. Voir un nom ne prouve pas une complicité. Une adresse dans un carnet ne prouve pas une relation. Or une interface “Gmail” donne une illusion de proximité, et donc une illusion de preuve. Ilana (relance 1) : Mais au fond, c’est légal, ce genre de site ? On a le droit de “rejouer” l’inbox d’un criminel ? Stéphane : Le point clé, c’est la source. Si les contenus viennent de publications officielles — ce qui est le cas ici — alors on est dans la rediffusion et la réindexation de documents publics, ce qui est généralement défendable. Mais “défendable” ne veut pas dire “sans risque” : il y a des enjeux de droits, d’anonymisation, et surtout de protection des victimes. D’ailleurs, même dans les publications officielles récentes, la critique majeure porte sur l’équilibre entre transparence et exposition de personnes vulnérables. Et il y a aussi un sujet de responsabilité éditoriale : un moteur de recherche n’est pas neutre. Ce que vous rendez facile à trouver deviens ce que le public croit important. Ilana (relance 2) : Donc ça change quoi, concrètement, pour l’enquête et pour l’opinion publique ? Stéphane : Ça accélère tout — y compris le pire. Côté enquête : on passe d’une logique “archives pour spécialistes” à une logique “archives pour tous”, donc plus d’yeux, plus de recoupements possibles. Côté opinion : on bascule dans une économie de la suspicion. Parce que dès que vous pouvez taper un nom, vous pouvez fabriquer un récit en 30 secondes — même si le document ne dit rien d’illégal. Et sur Epstein, c’est explosif, parce que l’affaire concentre déjà l’idée d’impunité des puissants et alimente les récits complotistes. Ilana (relance 3) : Alors, on doit s’en méfier ou s’en servir ? Stéphane : On doit s’en servir comme d’un outil, pas comme d’une preuve. Règle simple : un mail = un indice, jamais une conclusion ; un nom = une hypothèse, jamais une accusation ; tout ce qui compte doit être recoupé par des sources indépendantes, des dates, des contextes, et des documents judiciaires interprétables. Sinon, on ne fait pas de transparence : on fait du divertissement autour d’un crime. Et c’est ça, le vrai sujet tech : Jmail.world montre que la bataille n’est plus “publier ou cacher”, c’est rendre lisible sans rendre manipulable. Parce qu’aujourd’hui, celui qui maîtrise l’interface… maîtrise l’histoire. A la semaine prochaine !

Lutte contre l'IA : Matthew McConaughey dépose sa voix comme une marque

2026-02-04· 5:10

S06E19 – Radio J – Chronique Tech - All right, all right, all right" : McConaughey dépose sa voix comme une marque Ilana : Bonjour Stéphane. Aujourd’hui, on parle d’un acteur hollywoodien qui ne se contente pas de jouer les héros à l’écran : Matthew McConaughey vient de “verrouiller” son image et sa voix contre les dérives de l’IA. Concrètement, il a fait quoi ? Il a décidé que son identité n’était plus un buffet à volonté pour les algorithmes. McConaughey a déposé sa voix et son visage comme des marques déposées. Un peu comme Nike protège sa virgule ou Apple sa pomme. Il a enregistré des extraits officiels auprès de l’office américain de la propriété intellectuelle. Et même sa réplique culte de Dazed and Confused — le fameux « All right, all right, all right » — est désormais sous protection juridique. Son All right, all right, all right Et là, on touche à quelque chose de plus profond que le cinéma : on est en train d’assister à la transformation de l’identité en “actif exploitable”. Avant, votre visage et votre voix, c’était votre corps. Aujourd’hui, c’est aussi un fichier. Un fichier copiable. Modifiable. Monétisable. Parce qu’avec l’IA, il ne s’agit plus seulement d’usurpation “pour se moquer”. Il s’agit d’usurpation “pour vendre”. Une voix clonée peut faire une pub, un message politique, un appel frauduleux. Une vidéo deepfake peut “attester” que vous avez dit quelque chose que vous n’avez jamais prononcé. Et la différence entre une blague et un crime… tient parfois à une seule diffusion virale. Donc oui : aujourd’hui, si une IA veut dire « All right » avec son accent texan, elle va devoir soit sortir le carnet de chèques, soit s’attendre à une pluie d’avocats. Ilana : Mais pourquoi passer par le droit des marques ? On a déjà le droit à l’image, non ? Le droit à l’image, c’est la voie lente. C’est souvent un combat moral, civil, parfois flou, qui peut durer des années. Le droit des marques, c’est la voie rapide. L’artillerie lourde. Pourquoi ? Parce que la marque sert à empêcher qu’on trompe le public sur l’origine d’un produit ou d’un contenu. Si demain une pub utilise une imitation parfaite de McConaughey pour vendre du dentifrice, sans son accord, ce n’est plus seulement un débat éthique : c’est de la contrefaçon et de la tromperie, comme pour un faux sac Vuitton. Et le trademark a un avantage : il est taillé pour la riposte industrielle. Notifications, retraits, dommages, injonctions. Et c’est urgent parce que l’écosystème s’emballe. Scarlett Johansson s’est déjà retrouvée au cœur d’une polémique publique sur une voix qui ressemblait à la sienne. Drake a vu circuler des morceaux entiers générés par son “double” numérique. Et ce n’est pas réservé aux stars : il suffit d’une note vocale WhatsApp ou d’un message sur Instagram pour cloner quelqu’un. Le vrai choc, c’est celui-ci : l’IA rend la copie presque gratuite, mais l’original reste inestimable. Donc la tentation de voler l’original devient massive. Ilana : Donc demain, on va tous déposer notre voix comme un logo ? Même moi ? Oui Ilana, c’est même nécessaire comme pour toutes les personnalités publiques. Votre voix, c’est votre signature. Et pour le grand public, on se dirige vers trois changements majeurs — et un quatrième qu’on oublie souvent. Premier changement : le “double numérique” devient un business. McConaughey n’est pas contre l’IA. Il est contre le vol. Il travaille déjà avec ElevenLabs pour une version synthétique officielle de sa voix. Demain, une star pourra louer son double : doubler un film en 50 langues sans repasser en studio. Deuxième changement : la fin du Far West juridique. En Europe, l’AI Act arrive pour imposer la transparence. L’idée : qu’un contenu généré par IA soit identifiable, signalé, traçable. Ça ne supprimera pas les deepfakes, mais ça change l’arbitrage : si une plateforme laisse prospérer de la tromperie, elle devient beaucoup plus attaquable. Troisième changement : la protection devient un standard. Aux États-Unis, certains États légifèrent déjà. Le Tennessee a voté l’ELVIS Act pour protéger spécifiquement les musiciens contre le clonage vocal et l’exploitation non autorisée. Et le quatrième changement, le plus important : la preuve devient une industrie. On va devoir prouver qu’on est bien soi-même. Comme on a dû apprendre à prouver une transaction bancaire avec du 3D Secure, On va entrer dans un monde où une interview, une vidéo, une story… devront pouvoir être “certifiées”, sinon elles seront contestables par défaut. Ilana : On termine avec la question qui fâche : qui gagne ce bras de fer, au final ? À court terme ? Les avocats spécialisés ! En France, des experts comme Déborah Journo, Merav Griguer ou Fabrice Perbost sont déjà sur le pied de guerre pour construire ce nouveau bouclier juridique. Nous allons en effet assister à une explosion de litiges, de demandes de retrait, de plateformes sommées d’agir. Mais à long terme, ce qui gagne, c’est la traçabilité. On change d’époque : avant, “voir c’était croire”. Désormais, “voir c’est suspect”. Le geste de McConaughey, ce n’est pas un caprice de star. C’est un caillou dans la mare qui annonce une nouvelle règle : dans un monde de deepfakes, notre identité n’est plus seulement personnelle, elle devient patrimoniale. On n’empêchera peut-être pas les robots de nous imiter. Mais on peut exiger qu’ils ne nous volent ni la vedette, ni la signature, ni les royalties. A la semaine prochaine ! Son All right, all right, all right (si on a le temps)

Chronique Tech L’IA au sommet de l’État : gouverner à l’ère des algorithmes

2026-02-03

S06E23 – Radio J – Chronique Tech L’IA au sommet de l’État : gouverner à l’ère des algorithmes Ilana : Bonjour Stéphane. Ce matin, on parle d’un sujet stratégique : l’intelligence artificielle n’est plus seulement dans nos téléphones ou nos entreprises. Elle est au cœur des décisions d’État. Est-ce vraiment le cas ? Stéphane : Pas du tout Ilana. On est en train d’assister à un basculement silencieux ,comme c’est souvent le cas quand l’IA est impliquée, car on n’ose pas encore le dire vraiment qu’on utilise ces outils. Savez vous, qu’aux États-Unis, un événement récent illustre l’intégration de l’intelligence artificielle dans les opérations d’État à un niveau inédit. Lors de l’opération américaine qui a abouti à la capture de l’ancien président vénézuélien Nicolas Maduro début janvier 2026, les forces armées ont utilisé un modèle d’IA développé par Anthropic, appelé Claude, pour traiter et analyser des masses de données en lien avec la mission, selon plusieurs rapports. Cela s’est fait via un partenariat avec Palantir Technologies, dont les plateformes sont déjà intégrées aux réseaux de renseignement et de défense américains. L’usage de Claude dans une opération militaire de cette nature — bien que les détails précis de son rôle ne soient pas publics et que la politique interne d’Anthropic limite l’IA pour des cas liés à la violence — met en lumière la manière dont les États appliquent désormais des modèles avancés d’IA pour orienter des décisions et des opérations stratégiques à très haut niveau. Pendant longtemps, la décision publique reposait sur des rapports, des notes, des arbitrages humains. Aujourd’hui, elle repose de plus en plus sur des systèmes capables d’agréger des volumes massifs de données, de détecter des signaux faibles et de modéliser des scénarios. On ne parle plus d’un simple outil d’aide. On parle d’architectures qui structurent la perception du réel. Dans la gestion des frontières, la cybersécurité, la fiscalité, la santé publique, la planification énergétique ou militaire, l’IA sert à prioriser. Elle identifie ce qui est urgent, ce qui est risqué, ce qui mérite des ressources. Autrement dit, elle influence l’ordre des priorités politiques. Ilana : Mais la décision reste humaine. Stéphane : Oui, formellement. Mais dans les faits, celui qui structure l’information structure déjà une partie du pouvoir. Quand un système algorithmique classe des menaces, hiérarchise des risques terroristes ou modélise l’impact d’une crise économique, il oriente le débat en amont. Les responsables politiques arbitrent à partir d’un réel déjà filtré. On entre dans l’ère du “data-driven government” : un État piloté par la donnée. Les grandes puissances investissent massivement dans les infrastructures de calcul, les data centers, les modèles prédictifs. L’accès aux puces avancées, au cloud souverain, à la capacité de traitement devient un enjeu géopolitique majeur. L’IA est désormais considérée comme un levier de puissance nationale. Ilana : Et dans ce paysage, certaines entreprises privées jouent un rôle clé. Stéphane : Exactement. Prenons le cas de Palantir Technologies. Cette entreprise américaine développe des plateformes d’analyse utilisées par des gouvernements pour le renseignement, la lutte antiterroriste, la défense ou la gestion de crise. Son rôle n’est pas de décider à la place des États, mais de fusionner des données hétérogènes — financières, logistiques, sécuritaires — pour faire émerger des corrélations invisibles à l’œil humain. En Israël, Palantir a renforcé sa coopération avec les autorités après le 7 octobre en mettant à disposition ses plateformes d’analyse pour la fusion de données issues du renseignement, des interceptions et des informations terrain. L’objectif : cartographier en temps réel les réseaux du Hamas, identifier des schémas logistiques, croiser données financières, communications et mouvements afin de prioriser les cibles et accélérer la boucle décisionnelle. Palantir a également annoncé l’ouverture d’un partenariat stratégique en Israël pour soutenir l’effort de guerre par ses capacités d’analyse prédictive et de structuration massive de données au service des Forces de défense israéliennes. Ilana : On est en train de changer de modèle de gouvernance ? Stéphane : Oui d’une certaine manière. L’État du XXe siècle reposait sur l’administration. L’État du XXIe siècle repose sur la donnée.La décision ne disparaît pas. Mais elle s’appuie sur des systèmes prédictifs capables d’anticiper, de simuler, de classer. L’intelligence artificielle n’est plus périphérique. Elle est devenue une couche invisible de la gouvernance. Et la vraie question n’est pas technologique. Elle est politique : comment garantir que l’algorithme reste un outil d’aide, et non un acteur implicite du pouvoir. A la semaine prochaine !

ChatGPT Health : quand l'IA entre officiellement dans la médecine

2026-01-28· 5:47

S06E21 – Radio J – Chronique Tech ChatGPT Health : quand l’IA entre officiellement dans la médecine Ilana (introduction) : Bonjour Stéphane. Cette semaine, on va parler d’un sujet sensible : la santé. OpenAI a annoncé le lancement de ChatGPT Health. Est-ce qu’on est en train de confier notre santé à une intelligence artificielle ? Avant même de parler de ChatGPT Health, je voudrais partir d’un souvenir, un vieux réflexe collectif. Pendant des années, quand on avait un symptôme un peu étrange, une douleur inexpliquée ou un résultat d’analyse flou, on allait volontiers sur Doctissimo. Et presque jamais pour être rassuré. On tapait « mal de tête » et on ressortait avec une suspicion de tumeur. Une fatigue devenait une maladie rare. Au mieux, on devenait hypocondriaque. Au pire, convaincu d’avoir une ribambelle de pathologies graves. Ce réflexe n’a pas disparu. Il s’est déplacé. Aujourd’hui, des millions de personnes ne vont plus sur Doctissimo. Elles vont sur ChatGPT. Elles lui décrivent leurs symptômes, copient leurs analyses, demandent d’expliquer un diagnostic ou un traitement. Et OpenAI fait un constat simple : cet usage existe déjà, massivement. L’ignorer serait irresponsable. ChatGPT Health, ce n’est donc pas une révolution spectaculaire. C’est une mise sous contrôle. Et le message est clair : ChatGPT ne devient pas médecin. Il ne soigne pas. Il ne diagnostique pas. Il ne prescrit pas. Il explique, il reformule, il aide à comprendre — et surtout, il rappelle ses propres limites. Ilana (relance 1) : Concrètement, qu’est-ce que ça change pour les patients ? Ça change beaucoup de choses, mais de façon très précise. D’abord, ChatGPT Health agit comme un traducteur médical. Le langage de la santé est devenu extrêmement technique : acronymes, seuils, valeurs de référence, comptes rendus d’imagerie. Beaucoup de patients sortent d’une consultation sans réellement comprendre ce qu’on leur a dit. L’IA reformule, contextualise, remet du sens. Elle redonne au patient une maîtrise intellectuelle sur sa propre situation. Ensuite, elle prépare les consultations. Les rendez-vous sont courts, parfois dix minutes. Le patient arrive stressé, oublie des éléments importants, pose des questions dans le désordre. ChatGPT Health permet de structurer les symptômes, de hiérarchiser les informations, d’arriver avec des questions claires. Le médecin ne perd pas de temps, il en gagne. Enfin, elle accompagne dans la durée. Maladies chroniques, traitements longs, effets secondaires, changements de mode de vie. L’IA explique, répète, reformule autant de fois que nécessaire. Sans impatience. Sans jugement. Ilana (relance 2) : Mais le risque d’auto-diagnostic reste bien réel. Il est central, et il ne faut surtout pas le minimiser. Une intelligence artificielle ne voit pas un patient. Elle ne l’examine pas. Elle ne palpe pas. Elle ne mesure rien. Elle dépend entièrement de ce que l’utilisateur décrit. Une information imprécise produit une réponse fragile. C’est précisément pour cela que ChatGPT Health introduit des garde-fous. L’IA est conçue pour refuser certains usages, rappeler explicitement qu’elle n’est pas un médecin, et orienter vers un professionnel de santé dès que la situation devient sensible ou potentiellement grave. On passe d’un outil utilisé à l’aveugle à un outil qui assume clairement ce qu’il peut faire — et surtout ce qu’il ne doit pas faire. Ilana (relance 3) : Est-ce que tout ça s’inscrit dans une transformation plus large de la médecine ? Oui, Dans certains domaines, l’IA n’est déjà plus une option. Elle est devenue indispensable. C’est le cas en radiologie. Aujourd’hui, sur les mammographies par exemple, l’intelligence artificielle est utilisée comme second lecteur pour détecter des signaux extrêmement faibles, parfois invisibles à l’œil humain. Elle réduit les faux négatifs et augmente les chances de détection précoce. Le radiologue décide. L’IA assiste. Même logique en oncologie, en cardiologie, en imagerie médicale : la machine analyse, compare, alerte. Le médecin tranche. ChatGPT Health s’inscrit exactement dans cette philosophie, mais en amont. Et ce n’est pas un hasard si OpenAI accélère fortement sur ce terrain. Le rachat de Torch montre une ambition claire : devenir une infrastructure de compréhension médicale, capable de dialoguer avec des données de santé complexes. En parallèle, Anthropic annonce lui aussi une offensive massive sur la santé et les sciences de la vie. Même logique, même prudence affichée : assistance, analyse, recherche — jamais de décision médicale. Tout cela s’inscrit dans une tendance de fond : la médecine préventive et augmentée. Des acteurs comme Neko Health proposent déjà des bilans corporels complets pour détecter des signaux faibles avant l’apparition des symptômes. Là où Neko Health mesure et détecte, ChatGPT Health explique et contextualise. Les approches sont complémentaires. La médecine de demain ne sera ni entièrement humaine, ni entièrement artificielle. Elle sera augmentée. ChatGPT Health marque une étape clé : la fin du bricolage individuel et l’entrée de l’IA dans un cadre assumé, industriel, stratégique. L’IA ne soigne pas. Mais bien utilisée, elle transforme déjà profondément la façon dont on comprend la santé. Et en médecine, comprendre plus tôt, c’est souvent déjà mieux soigner et ça fera faire des économies massives vous le verrez à la Sécurité Sociale. A la semaine prochaine !

Chronique Tech Jmail.world : quand un “faux Gmail” rend exploitables les archives Epstein

2026-01-27

S06E22 – Radio J – Chronique Tech Jmail.world : quand un “faux Gmail” rend exploitables les archives Epstein Ilana (intro) : Bonjour Stéphane. Cette semaine, on voit circuler un site, jmail.world, qui ressemble à Gmail… sauf qu’on se retrouve “connecté” à la boîte mail de Jeffrey Epstein. On parle d’un outil d’enquête ou d’un truc malsain ? Stéphane : On parle des deux, et c’est précisément ça qui le rend intéressant — et inquiétant. Jmail.world, c’est une idée simple : au lieu de publier des montagnes de documents bruts, illisibles pour le grand public, grâce à l’IA, on les remet en forme dans une interface familière, type Gmail, avec recherche, navigation, filtres. L’objectif est de rendre consultables des archives issues de publications institutionnelles américaines, à un moment où l’administration américaine a justement mis en ligne des millions de pages supplémentaires liées au dossier Epstein, mais dans des formats énormes et difficiles à exploiter. Là où c’est important, c’est que l’interface change la vérité pratique. Un “dump” de fichiers, c’est théoriquement transparent mais, en réalité, c’est souvent inexploitable. Ce qu’apporte Jmail, c’est une mise en scène de la donnée : tout à coup, l’utilisateur a l’impression de “voir la réalité”, de “parcourir une vie”, parce que ça ressemble à sa propre boîte mail. Et ça, ça produit un effet cognitif très puissant : on ne lit plus des pièces d’archives, on “visite” un monde. Et ce basculement a deux conséquences. Première conséquence : ça démocratise l’investigation. Pour un journaliste, un chercheur, un juriste, ou même un citoyen curieux, une interface de ce type peut faire gagner des jours : on cherche un nom, on suit un fil, on retrouve un motif récurrent. C’est exactement le genre d’outil qui transforme une fuite ou une publication officielle en matière exploitable, au lieu d’un cimetière de PDF. Mais deuxième conséquence : ça gamifie un dossier criminel. Quand on met une mécanique d’“exploration”, un bouton “random page”, des étoiles, des classements communautaires, on frôle le voyeurisme. Et surtout, on crée une pente : celle des mauvaises inférences. Lire un mail ne prouve pas un crime. Voir un nom ne prouve pas une complicité. Une adresse dans un carnet ne prouve pas une relation. Or une interface “Gmail” donne une illusion de proximité, et donc une illusion de preuve. Ilana (relance 1) : Mais au fond, c’est légal, ce genre de site ? On a le droit de “rejouer” l’inbox d’un criminel ? Stéphane : Le point clé, c’est la source. Si les contenus viennent de publications officielles — ce qui est le cas ici — alors on est dans la rediffusion et la réindexation de documents publics, ce qui est généralement défendable. Mais “défendable” ne veut pas dire “sans risque” : il y a des enjeux de droits, d’anonymisation, et surtout de protection des victimes. D’ailleurs, même dans les publications officielles récentes, la critique majeure porte sur l’équilibre entre transparence et exposition de personnes vulnérables. Et il y a aussi un sujet de responsabilité éditoriale : un moteur de recherche n’est pas neutre. Ce que vous rendez facile à trouver deviens ce que le public croit important. Ilana (relance 2) : Donc ça change quoi, concrètement, pour l’enquête et pour l’opinion publique ? Stéphane : Ça accélère tout — y compris le pire. Côté enquête : on passe d’une logique “archives pour spécialistes” à une logique “archives pour tous”, donc plus d’yeux, plus de recoupements possibles. Côté opinion : on bascule dans une économie de la suspicion. Parce que dès que vous pouvez taper un nom, vous pouvez fabriquer un récit en 30 secondes — même si le document ne dit rien d’illégal. Et sur Epstein, c’est explosif, parce que l’affaire concentre déjà l’idée d’impunité des puissants et alimente les récits complotistes. Ilana (relance 3) : Alors, on doit s’en méfier ou s’en servir ? Stéphane : On doit s’en servir comme d’un outil, pas comme d’une preuve. Règle simple : un mail = un indice, jamais une conclusion ; un nom = une hypothèse, jamais une accusation ; tout ce qui compte doit être recoupé par des sources indépendantes, des dates, des contextes, et des documents judiciaires interprétables. Sinon, on ne fait pas de transparence : on fait du divertissement autour d’un crime. Et c’est ça, le vrai sujet tech : Jmail.world montre que la bataille n’est plus “publier ou cacher”, c’est rendre lisible sans rendre manipulable. Parce qu’aujourd’hui, celui qui maîtrise l’interface… maîtrise l’histoire. A la semaine prochaine !

Jmail.world : quand un “faux Gmail” rend exploitables les archives Epstein

2026-01-26· 4:30

S06E22 – Radio J – Chronique Tech Jmail.world : quand un “faux Gmail” rend exploitables les archives Epstein Ilana (intro) : Bonjour Stéphane. Cette semaine, on voit circuler un site, jmail.world, qui ressemble à Gmail… sauf qu’on se retrouve “connecté” à la boîte mail de Jeffrey Epstein. On parle d’un outil d’enquête ou d’un truc malsain ? Stéphane : On parle des deux, et c’est précisément ça qui le rend intéressant — et inquiétant. Jmail.world, c’est une idée simple : au lieu de publier des montagnes de documents bruts, illisibles pour le grand public, grâce à l’IA, on les remet en forme dans une interface familière, type Gmail, avec recherche, navigation, filtres. L’objectif est de rendre consultables des archives issues de publications institutionnelles américaines, à un moment où l’administration américaine a justement mis en ligne des millions de pages supplémentaires liées au dossier Epstein, mais dans des formats énormes et difficiles à exploiter. Là où c’est important, c’est que l’interface change la vérité pratique. Un “dump” de fichiers, c’est théoriquement transparent mais, en réalité, c’est souvent inexploitable. Ce qu’apporte Jmail, c’est une mise en scène de la donnée : tout à coup, l’utilisateur a l’impression de “voir la réalité”, de “parcourir une vie”, parce que ça ressemble à sa propre boîte mail. Et ça, ça produit un effet cognitif très puissant : on ne lit plus des pièces d’archives, on “visite” un monde. Et ce basculement a deux conséquences. Première conséquence : ça démocratise l’investigation. Pour un journaliste, un chercheur, un juriste, ou même un citoyen curieux, une interface de ce type peut faire gagner des jours : on cherche un nom, on suit un fil, on retrouve un motif récurrent. C’est exactement le genre d’outil qui transforme une fuite ou une publication officielle en matière exploitable, au lieu d’un cimetière de PDF. Mais deuxième conséquence : ça gamifie un dossier criminel. Quand on met une mécanique d’“exploration”, un bouton “random page”, des étoiles, des classements communautaires, on frôle le voyeurisme. Et surtout, on crée une pente : celle des mauvaises inférences. Lire un mail ne prouve pas un crime. Voir un nom ne prouve pas une complicité. Une adresse dans un carnet ne prouve pas une relation. Or une interface “Gmail” donne une illusion de proximité, et donc une illusion de preuve. Ilana (relance 1) : Mais au fond, c’est légal, ce genre de site ? On a le droit de “rejouer” l’inbox d’un criminel ? Stéphane : Le point clé, c’est la source. Si les contenus viennent de publications officielles — ce qui est le cas ici — alors on est dans la rediffusion et la réindexation de documents publics, ce qui est généralement défendable. Mais “défendable” ne veut pas dire “sans risque” : il y a des enjeux de droits, d’anonymisation, et surtout de protection des victimes. D’ailleurs, même dans les publications officielles récentes, la critique majeure porte sur l’équilibre entre transparence et exposition de personnes vulnérables. Et il y a aussi un sujet de responsabilité éditoriale : un moteur de recherche n’est pas neutre. Ce que vous rendez facile à trouver deviens ce que le public croit important. Ilana (relance 2) : Donc ça change quoi, concrètement, pour l’enquête et pour l’opinion publique ? Stéphane : Ça accélère tout — y compris le pire. Côté enquête : on passe d’une logique “archives pour spécialistes” à une logique “archives pour tous”, donc plus d’yeux, plus de recoupements possibles. Côté opinion : on bascule dans une économie de la suspicion. Parce que dès que vous pouvez taper un nom, vous pouvez fabriquer un récit en 30 secondes — même si le document ne dit rien d’illégal. Et sur Epstein, c’est explosif, parce que l’affaire concentre déjà l’idée d’impunité des puissants et alimente les récits complotistes. Ilana (relance 3) : Alors, on doit s’en méfier ou s’en servir ? Stéphane : On doit s’en servir comme d’un outil, pas comme d’une preuve. Règle simple : un mail = un indice, jamais une conclusion ; un nom = une hypothèse, jamais une accusation ; tout ce qui compte doit être recoupé par des sources indépendantes, des dates, des contextes, et des documents judiciaires interprétables. Sinon, on ne fait pas de transparence : on fait du divertissement autour d’un crime. Et c’est ça, le vrai sujet tech : Jmail.world montre que la bataille n’est plus “publier ou cacher”, c’est rendre lisible sans rendre manipulable. Parce qu’aujourd’hui, celui qui maîtrise l’interface… maîtrise l’histoire. A la semaine prochaine !

Faut-il interdire les réseaux sociaux aux moins de 16 ans ?

2026-01-21· 6:01

S06 E02 - RadioJ - Chronique Tech - ChatControl : la fin du secret des messages privés ? Rudy Ce matin, on parle d'un projet européen dont personne ne parle et qui inquiète de plus en plus : le ChatControl. Certains le présentent comme une arme pour protéger les enfants contre les prédateurs, d'autres comme une menace directe contre la confidentialité de nos échanges privés. Alors, faut-il avoir peur de cette nouvelle surveillance numérique ? On en parle avec Stéphane Zibi, notre expert en technologies. Bonjour Stéphane. Bonjour Rudy, bonjour à toutes et à tous ! Effectivement, le ChatControl est un projet de règlement de l'Union européenne qui pourrait obliger les plateformes comme WhatsApp, Telegram, iMessage, Signal ou encore Messenger à scanner en permanence nos messages privés, y compris ceux chiffrés, donc censés être protégés, pour détecter du contenu pédopornographique. Sur le papier, l'objectif est évidemment noble : protéger les mineurs. Mais dans les faits, cela reviendrait à ouvrir une brèche énorme dans la confidentialité de nos communications. Imaginez que tous vos messages, vos photos, vos conversations de famille ou professionnelles soient passés au crible par des algorithmes, avant même d'arriver à leur destinataire. Rudy (relance 1) : Mais Stéphane, est-ce que ça veut dire que demain tous nos messages vont vraiment être scannés par l'Union européenne ? Et où en est-on concrètement ? J'ai cru comprendre que le sujet revenait sur la table avec de nouvelles propositions. C'est exactement le cœur du débat, et vous avez raison, le projet est de retour en force. Les défenseurs du projet, sous l'impulsion de la présidence danoise du Conseil de l'UE, ont mis une nouvelle proposition sur la table. Ils ne parlent plus de "casser le chiffrement" mais d'une technique appelée "upload moderation", c'est-à-dire une analyse du contenu avant qu'il ne soit chiffré et envoyé. Mais en pratique, pour l'utilisateur, ça ne change rien : pour détecter ces contenus, il faut bien scanner 100% des messages. C'est un peu comme si on installait des micros dans tous les salons, au cas où quelqu'un dirait quelque chose d'illégal. Une personne envoyant des photos de vacances avec ses enfants sur une plage pourrait être ainsi mise sous surveillance. La date clé à retenir est le 14 octobre 2025, date à laquelle un vote crucial pourrait avoir lieu. Et la situation est tendue : 19 États membres seraient déjà favorables à cette mesure. Tout dépendra de la position de l'Allemagne, qui est encore indécise. Rudy (relance 2) : 19 pays, c'est énorme ! On comprend la crainte... Mais alors, pourquoi l'Europe, et notamment le Danemark, pousse-t-elle autant ce texte malgré les critiques et les risques pour notre vie privée ? Parce que le sujet est très sensible politiquement. Personne ne veut apparaître comme être "contre la protection des enfants". Le ministre danois de la justice, Peter Hummelgaard, a même eu cette phrase choc : "De qui la vie privée nous préoccupe-t-elle le plus ? Celle des milliers d'enfants victimes d'abus sexuels ? Ou celle des gens ordinaires ?". Cette émotion légitime est instrumentalisée pour faire accepter une surveillance de masse. D'ailleurs, le régulateur européen de la protection des données, ainsi que de nombreuses ONG, alertent : ce serait une violation directe du RGPD, le fameux règlement qui protège notre vie privée. Pire encore, ce projet pourrait n'être qu'une première étape. Une autre stratégie, nommée "ProtectEU", est déjà dans les cartons et prévoit d'ici 2030 un accès garanti des autorités au déchiffrement complet des communications. Rudy (relance 3) : Certains comparent le ChatControl au Patriot Act américain, mis en place après le 11 septembre, une loi d'exception devenue permanente. Est-ce qu'on est dans ce scénario ? C'est la même chose en effet. Comme le Patriot Act, on part d'une cause juste, mais celle-ci a permis de mettre en place des outils qui peuvent être utilisés à d'autres fins comme la surveillance politique, l’espionnage industriel ou le contrôle social. Une fois que ces technologies de détection seront installées, il sera très difficile de revenir en arrière. Aujourd'hui on dit : "C'est contre la pédocriminalité." Mais demain ? Qui garantit qu'on ne s'en servira pas pour surveiller des opinions politiques, des journalistes, ou même des opposants ? Rudy (relance 4) : Au-delà de la vie privée des citoyens, y a-t-il d'autres risques pour l'Europe ? Oui et c'est aussi un enjeu géopolitique et économique majeur. L'Europe a bâti sa réputation sur la défense de la vie privée, notamment avec le RGPD. Avec le ChatControl, cette crédibilité serait anéantie. On deviendrait un continent où la surveillance est la norme. Les grandes entreprises pourraient alors décider de déplacer leurs infrastructures et leurs investissements hors d'Europe, vers des régions moins contraignantes. Cela affaiblirait notre compétitivité et notre souveraineté numérique. C'est un risque énorme. Rudy (relance 5) : Une dernière question, Stéphane. Il y a quelque chose de paradoxal dans cette histoire : d'un côté, l'État français pousse pour casser le chiffrement des citoyens, mais de l'autre, nos ministres utilisent Tchap, une messagerie ultra-sécurisée. N'est-ce pas contradictoire ? C'est effectivement totalement contradictoire. Tchap, la messagerie officielle de l'État français, utilise un chiffrement de bout en bout pour protéger les communications gouvernementales. Nos dirigeants comprennent donc parfaitement l'importance du chiffrement... pour eux-mêmes ! Mais ils voudraient l'interdire pour les citoyens. C'est le principe du "faites ce que je dis, pas ce que je fais". Cette hypocrisie révèle que le vrai enjeu n'est pas technique, mais politique : il s'agit de contrôler les communications des citoyens tout en préservant le secret des communications officielles. C'est exactement le type de société à deux vitesses que dénoncent les opposants au Chat Control. A la semaine prochaine !

Chronique Tech ChatGPT Health : quand l’IA entre officiellement dans la médecine

2026-01-20

S06E21 – Radio J – Chronique Tech ChatGPT Health : quand l’IA entre officiellement dans la médecine Ilana (introduction) : Bonjour Stéphane. Cette semaine, on va parler d’un sujet sensible : la santé. OpenAI a annoncé le lancement de ChatGPT Health. Est-ce qu’on est en train de confier notre santé à une intelligence artificielle ? Avant même de parler de ChatGPT Health, je voudrais partir d’un souvenir, un vieux réflexe collectif. Pendant des années, quand on avait un symptôme un peu étrange, une douleur inexpliquée ou un résultat d’analyse flou, on allait volontiers sur Doctissimo. Et presque jamais pour être rassuré. On tapait « mal de tête » et on ressortait avec une suspicion de tumeur. Une fatigue devenait une maladie rare. Au mieux, on devenait hypocondriaque. Au pire, convaincu d’avoir une ribambelle de pathologies graves. Ce réflexe n’a pas disparu. Il s’est déplacé. Aujourd’hui, des millions de personnes ne vont plus sur Doctissimo. Elles vont sur ChatGPT. Elles lui décrivent leurs symptômes, copient leurs analyses, demandent d’expliquer un diagnostic ou un traitement. Et OpenAI fait un constat simple : cet usage existe déjà, massivement. L’ignorer serait irresponsable. ChatGPT Health, ce n’est donc pas une révolution spectaculaire. C’est une mise sous contrôle. Et le message est clair : ChatGPT ne devient pas médecin. Il ne soigne pas. Il ne diagnostique pas. Il ne prescrit pas. Il explique, il reformule, il aide à comprendre — et surtout, il rappelle ses propres limites. Ilana (relance 1) : Concrètement, qu’est-ce que ça change pour les patients ? Ça change beaucoup de choses, mais de façon très précise. D’abord, ChatGPT Health agit comme un traducteur médical. Le langage de la santé est devenu extrêmement technique : acronymes, seuils, valeurs de référence, comptes rendus d’imagerie. Beaucoup de patients sortent d’une consultation sans réellement comprendre ce qu’on leur a dit. L’IA reformule, contextualise, remet du sens. Elle redonne au patient une maîtrise intellectuelle sur sa propre situation. Ensuite, elle prépare les consultations. Les rendez-vous sont courts, parfois dix minutes. Le patient arrive stressé, oublie des éléments importants, pose des questions dans le désordre. ChatGPT Health permet de structurer les symptômes, de hiérarchiser les informations, d’arriver avec des questions claires. Le médecin ne perd pas de temps, il en gagne. Enfin, elle accompagne dans la durée. Maladies chroniques, traitements longs, effets secondaires, changements de mode de vie. L’IA explique, répète, reformule autant de fois que nécessaire. Sans impatience. Sans jugement. Ilana (relance 2) : Mais le risque d’auto-diagnostic reste bien réel. Il est central, et il ne faut surtout pas le minimiser. Une intelligence artificielle ne voit pas un patient. Elle ne l’examine pas. Elle ne palpe pas. Elle ne mesure rien. Elle dépend entièrement de ce que l’utilisateur décrit. Une information imprécise produit une réponse fragile. C’est précisément pour cela que ChatGPT Health introduit des garde-fous. L’IA est conçue pour refuser certains usages, rappeler explicitement qu’elle n’est pas un médecin, et orienter vers un professionnel de santé dès que la situation devient sensible ou potentiellement grave. On passe d’un outil utilisé à l’aveugle à un outil qui assume clairement ce qu’il peut faire — et surtout ce qu’il ne doit pas faire. Ilana (relance 3) : Est-ce que tout ça s’inscrit dans une transformation plus large de la médecine ? Oui, Dans certains domaines, l’IA n’est déjà plus une option. Elle est devenue indispensable. C’est le cas en radiologie. Aujourd’hui, sur les mammographies par exemple, l’intelligence artificielle est utilisée comme second lecteur pour détecter des signaux extrêmement faibles, parfois invisibles à l’œil humain. Elle réduit les faux négatifs et augmente les chances de détection précoce. Le radiologue décide. L’IA assiste. Même logique en oncologie, en cardiologie, en imagerie médicale : la machine analyse, compare, alerte. Le médecin tranche. ChatGPT Health s’inscrit exactement dans cette philosophie, mais en amont. Et ce n’est pas un hasard si OpenAI accélère fortement sur ce terrain. Le rachat de Torch montre une ambition claire : devenir une infrastructure de compréhension médicale, capable de dialoguer avec des données de santé complexes. En parallèle, Anthropic annonce lui aussi une offensive massive sur la santé et les sciences de la vie. Même logique, même prudence affichée : assistance, analyse, recherche — jamais de décision médicale. Tout cela s’inscrit dans une tendance de fond : la médecine préventive et augmentée. Des acteurs comme Neko Health proposent déjà des bilans corporels complets pour détecter des signaux faibles avant l’apparition des symptômes. Là où Neko Health mesure et détecte, ChatGPT Health explique et contextualise. Les approches sont complémentaires. La médecine de demain ne sera ni entièrement humaine, ni entièrement artificielle. Elle sera augmentée. ChatGPT Health marque une étape clé : la fin du bricolage individuel et l’entrée de l’IA dans un cadre assumé, industriel, stratégique. L’IA ne soigne pas. Mais bien utilisée, elle transforme déjà profondément la façon dont on comprend la santé. Et en médecine, comprendre plus tôt, c’est souvent déjà mieux soigner et ça fera faire des économies massives vous le verrez à la Sécurité Sociale. A la semaine prochaine !

L'IA va-t-elle voler nos emplois ?

2026-01-12· 4:30

S06E20 – Radio J – Chronique Tech L'IA va-t-elle voler nos emplois ? Ilana : Bonjour Stéphane. L’intelligence artificielle, on en parle presque toutes les semaines sur cette antenne. La question qui brûle toutes les lèvres est simple : l’IA va-t-elle nous prendre notre travail ? Cette peur du “grand remplacement” technologique a été ravivée récemment par une étude de Microsoft, très partagée sur les réseaux sociaux, qui liste les métiers les plus exposés. Bonjour Ilana, bonjour à toutes et à tous. Le réflexe sain, c’est d’abord de décoder ce que mesure vraiment cette étude. Microsoft ne dit pas “ces métiers vont disparaître demain”. Ils ont analysé environ 200 000 conversations anonymisées avec Bing Copilot pour voir deux choses : sur quelles activités les gens demandent de l’aide, et ce que l’IA arrive réellement à produire. Résultat : tout ce qui relève des mots, de l’information, de la synthèse, de la rédaction… remonte en tête. Et là, oui, le classement frappe : les interprètes et traducteurs sont tout en haut, avec un niveau de tâches réalisées par les humains très élevé, souvent résumé à 98%. On trouve aussi des historiens, des auteurs, des journalistes, des métiers du service client, des télévendeurs, des agents de voyage… et détail savoureux pour une radio : “broadcast announcers and radio DJs” apparaissent également dans la liste des métiers très exposés. Maintenant, si on mélange ça, avec ce que nous trouvons comme autres études sur Internet, on obtient le “top 10 des métiers qui vont disparaître d’ici 2030” : opérateurs de saisie, caissiers, téléprospection, agents de voyage, tâches de comptabilité basique… Cette liste n’est pas absurde : elle décrit surtout des postes où les tâches sont répétitives, standardisées, et où une IA + un workflow peuvent remplacer une grande partie de la production. Ilana (Relance 1) : C’est vertigineux. Est-ce que ça veut dire que des pans entiers des services sont menacés, au point de s’effondrer ? Menacés de transformation, oui. D’effondrement, non. Parce que le mot-clé, c’est celui que les études sérieuses répètent toutes : exposition ne veut pas dire disparition. Deux garde-fous. Premier garde-fou : une partie du travail “exposé” n’est pas automatisable dans le réel, à cause du contexte, des responsabilités, du relationnel, du risque juridique, ou simplement parce que l’organisation n’est pas prête. Deuxième garde-fou : même quand on peut automatiser, on ne le fait pas forcément à 100%. McKinsey, dans un rapport publié le 25 novembre 2025, estime qu’avec les technologies déjà disponibles, on pourrait automatiser en théorie environ 57% des heures de travail actuelles aux États-Unis. “En théorie”, c’est important : ça ne veut pas dire 57% de chômeurs, ça veut dire 57% d’heures potentiellement reconfigurables. Concrètement, dans les services, l’IA avale d’abord le “niveau 1” : tri, réponses standard, comptes rendus, préparation de dossiers, extraction d’information. Et l’humain est déplacé vers ce qui reste difficile : arbitrer, gérer une situation tendue, convaincre, assumer une décision. Ilana (Relance 2) : D’accord, mais le public veut une réponse simple : est-ce qu’on détruit plus d’emplois qu’on en crée ? La meilleure boussole chiffrée, ce n’est pas un carrousel, c’est le World Economic Forum. Dans son Future of Jobs Report 2025, publié le 7 janvier 2025, il projette d’ici 2030 : 170 millions de nouveaux emplois créés, 92 millions déplacés ou supprimés, soit un solde net de +78 millions. Ça ne nie pas la casse, ça dit juste que le marché du travail se recompose au lieu de s’éteindre. Et l’autre nuance importante, c’est la répartition : les gains et les pertes ne tombent pas au même endroit. L’OCDE, en étudiant ce qui s’est passé dans le passé sur des métiers à risque d’automatisation, montre qu’on ne voit pas forcément de destruction nette au niveau “macro”, mais on observe une croissance nettement plus faible dans les emplois à haut risque que dans ceux à faible risque. Ilana (Relance 3) : Donc, pour ceux qui nous écoutent et qui se reconnaissent dans les métiers “à risque”, qu’est-ce qu’ils font, concrètement ? Trois mouvements simples. Un : arrêter de raisonner “métier”, et raisonner “tâches”. Dans votre poste, qu’est-ce qui est répétitif, procédural, standardisable ? C’est la première zone où l’IA va entrer. Deux : monter en valeur sur ce que l’IA fait mal : jugement, responsabilité, négociation, coordination humaine, compréhension fine d’un contexte, sens du risque. C’est là que l’humain devient plus cher, pas moins. Trois : apprendre la compétence transversale de 2026 : piloter l’IA. Savoir briefer, vérifier, corriger, documenter. L’IA est très forte pour produire vite, elle n’est pas fiable par défaut. Celui qui sait la diriger devient plus productif. Celui qui ne sait pas la diriger subit. Conclusion : non, l’IA n’arrive pas comme une vague unique qui “vole” les emplois. Elle arrive comme une réorganisation industrielle du travail. La question n’est plus “est-ce que mon métier disparaît ?” La question, c’est “quelles tâches de mon métier changent, et à quelle vitesse ?” A la semaine prochaine !

All right, all right, all right" : McConaughey dépose sa voix comme une marque

2026-01-05· 4:30

S06E19 – Radio J – Chronique Tech - All right, all right, all right" : McConaughey dépose sa voix comme une marque Ilana : Bonjour Stéphane. Aujourd’hui, on parle d’un acteur hollywoodien qui ne se contente pas de jouer les héros à l’écran : Matthew McConaughey vient de “verrouiller” son image et sa voix contre les dérives de l’IA. Concrètement, il a fait quoi ? Il a décidé que son identité n’était plus un buffet à volonté pour les algorithmes. McConaughey a déposé sa voix et son visage comme des marques déposées. Un peu comme Nike protège sa virgule ou Apple sa pomme. Il a enregistré des extraits officiels auprès de l’office américain de la propriété intellectuelle. Et même sa réplique culte de Dazed and Confused — le fameux « All right, all right, all right » — est désormais sous protection juridique. Son All right, all right, all right Et là, on touche à quelque chose de plus profond que le cinéma : on est en train d’assister à la transformation de l’identité en “actif exploitable”. Avant, votre visage et votre voix, c’était votre corps. Aujourd’hui, c’est aussi un fichier. Un fichier copiable. Modifiable. Monétisable. Parce qu’avec l’IA, il ne s’agit plus seulement d’usurpation “pour se moquer”. Il s’agit d’usurpation “pour vendre”. Une voix clonée peut faire une pub, un message politique, un appel frauduleux. Une vidéo deepfake peut “attester” que vous avez dit quelque chose que vous n’avez jamais prononcé. Et la différence entre une blague et un crime… tient parfois à une seule diffusion virale. Donc oui : aujourd’hui, si une IA veut dire « All right » avec son accent texan, elle va devoir soit sortir le carnet de chèques, soit s’attendre à une pluie d’avocats. Ilana : Mais pourquoi passer par le droit des marques ? On a déjà le droit à l’image, non ? Le droit à l’image, c’est la voie lente. C’est souvent un combat moral, civil, parfois flou, qui peut durer des années. Le droit des marques, c’est la voie rapide. L’artillerie lourde. Pourquoi ? Parce que la marque sert à empêcher qu’on trompe le public sur l’origine d’un produit ou d’un contenu. Si demain une pub utilise une imitation parfaite de McConaughey pour vendre du dentifrice, sans son accord, ce n’est plus seulement un débat éthique : c’est de la contrefaçon et de la tromperie, comme pour un faux sac Vuitton. Et le trademark a un avantage : il est taillé pour la riposte industrielle. Notifications, retraits, dommages, injonctions. Et c’est urgent parce que l’écosystème s’emballe. Scarlett Johansson s’est déjà retrouvée au cœur d’une polémique publique sur une voix qui ressemblait à la sienne. Drake a vu circuler des morceaux entiers générés par son “double” numérique. Et ce n’est pas réservé aux stars : il suffit d’une note vocale WhatsApp ou d’un message sur Instagram pour cloner quelqu’un. Le vrai choc, c’est celui-ci : l’IA rend la copie presque gratuite, mais l’original reste inestimable. Donc la tentation de voler l’original devient massive. Ilana : Donc demain, on va tous déposer notre voix comme un logo ? Même moi ? Oui Ilana, c’est même nécessaire comme pour toutes les personnalités publiques. Votre voix, c’est votre signature. Et pour le grand public, on se dirige vers trois changements majeurs — et un quatrième qu’on oublie souvent. Premier changement : le “double numérique” devient un business. McConaughey n’est pas contre l’IA. Il est contre le vol. Il travaille déjà avec ElevenLabs pour une version synthétique officielle de sa voix. Demain, une star pourra louer son double : doubler un film en 50 langues sans repasser en studio. Deuxième changement : la fin du Far West juridique. En Europe, l’AI Act arrive pour imposer la transparence. L’idée : qu’un contenu généré par IA soit identifiable, signalé, traçable. Ça ne supprimera pas les deepfakes, mais ça change l’arbitrage : si une plateforme laisse prospérer de la tromperie, elle devient beaucoup plus attaquable. Troisième changement : la protection devient un standard. Aux États-Unis, certains États légifèrent déjà. Le Tennessee a voté l’ELVIS Act pour protéger spécifiquement les musiciens contre le clonage vocal et l’exploitation non autorisée. Et le quatrième changement, le plus important : la preuve devient une industrie. On va devoir prouver qu’on est bien soi-même. Comme on a dû apprendre à prouver une transaction bancaire avec du 3D Secure, On va entrer dans un monde où une interview, une vidéo, une story… devront pouvoir être “certifiées”, sinon elles seront contestables par défaut. Ilana : On termine avec la question qui fâche : qui gagne ce bras de fer, au final ? À court terme ? Les avocats spécialisés ! En France, des experts comme Déborah Journo, Merav Griguer ou Fabrice Perbost sont déjà sur le pied de guerre pour construire ce nouveau bouclier juridique. Nous allons en effet assister à une explosion de litiges, de demandes de retrait, de plateformes sommées d’agir. Mais à long terme, ce qui gagne, c’est la traçabilité. On change d’époque : avant, “voir c’était croire”. Désormais, “voir c’est suspect”. Le geste de McConaughey, ce n’est pas un caprice de star. C’est un caillou dans la mare qui annonce une nouvelle règle : dans un monde de deepfakes, notre identité n’est plus seulement personnelle, elle devient patrimoniale. On n’empêchera peut-être pas les robots de nous imiter. Mais on peut exiger qu’ils ne nous volent ni la vedette, ni la signature, ni les royalties. A la semaine prochaine ! Son All right, all right, all right (si on a le temps)

Mon prochain collègue sera-t-il un robot ?

2025-12-29· 4:30

S06E18 – Radio J – Chronique Tech Mon prochain collègue sera-t-il un robot ? L'invasion des humanoïdes au CES 2026 Ilana : Bonjour Stéphane ! Cette semaine, vous nous emmenez au CES de Las Vegas, le plus grand salon mondial de la technologie, qui vient de fermer ses portes. Et apparemment, les robots étaient partout cette année. On va bientôt avoir des collègues en métal ? Bonjour Ilana, bonjour à toutes et à tous ! Imaginez un instant votre lieu de travail. Maintenant, imaginez qu'à côté de vous, à la machine à café, se trouve non pas votre collègue habituel, mais un robot humanoïde de 1m80, qui vous demande comment s'est passé votre week-end. Science-fiction ? Plus pour très longtemps. C'est la grande leçon du CES de Las Vegas qui vient de fermer ses portes : après l'IA dans nos téléphones, préparez-vous à l'IA sur deux jambes. Le grand mot à la mode cette année, c'était l'« IA Physique ». L'idée est simple : faire sortir l'intelligence artificielle de nos écrans pour la mettre dans des corps mécaniques qui peuvent interagir avec notre monde. Et les exemples étaient partout. On a vu des robots industriels, bien sûr. Le nouveau robot Atlas de Boston Dynamics, par exemple, a fait une démonstration impressionnante. Fini le robot un peu pataud qu'on voyait dans des vidéos virales. La nouvelle version, destinée aux usines Hyundai, est plus fine, plus agile, avec des mains capables de saisir des objets avec une dextérité quasi-humaine. Quand on voit les vidéos de ce robot on se pose la question : quel travailleur humain est capable de faire ça ? En travaillant 24h/24 sans cotisations sociales, sans se plaindre, sans grèves ? Ces robots Atlas de Boston Dynamics vont encore progresser avec le partenariat avec la filiale de Google, DeepMind qui alimentera leur cerveau. On parle de le déployer sur des tâches répétitives ou dangereuses. L'objectif n'est plus de remplacer l'humain, mais de travailler avec lui. Mais la vraie nouveauté, c'est l'arrivée en force des robots dans des secteurs beaucoup moins attendus. Ilana : Justement, on a l'impression que jusqu'ici, les robots étaient cantonnés aux usines ou aux entrepôts. Qu'est-ce qui a changé cette année ? C'est exactement ça. Le changement, c'est que ces robots ne sont plus seulement des gros bras, ils ont aussi un cerveau. Grâce aux progrès fulgurants de l'IA, ils peuvent comprendre le langage naturel, analyser une situation et prendre des décisions. Prenez le robot CLOiD de LG. C'est un robot domestique, mais avec des ambitions de majordome. Au CES, on l'a vu aller chercher une brique de lait dans le frigo, mettre un croissant au four, et même… plier le linge ! Il a deux bras articulés, des roues pour se déplacer, et une tête avec des yeux qui peuvent exprimer des émotions. LG parle d'une « maison sans travail ». On n'y est pas encore, mais la direction est claire : le robot devient un assistant personnel, un collègue de vie. Imaginez Ilana, qu’il vous aide à préparer vos enfants pour aller à l’école ou même cuisiner votre Pkaila ou Dafina pour votre repas de Shabbat. Et ça va plus loin. On a vu des robots barmen, des robots compagnons pour personnes âgées, et même des robots qui jouent au ping-pong de manière autonome. La Chine était très présente avec des entreprises comme Unitree Robotics qui proposent des humanoïdes à des prix de plus en plus abordables. Ilana : Cette vision d'un monde où l'on collabore avec des robots, est-ce que c'est un progrès ou une menace pour l'emploi ? On a beaucoup parlé de l'IA qui vole nos jobs, est-ce que là, ça devient concret ? C'est la grande question, et le discours des entreprises a beaucoup évolué. Il y a quelques années, on était dans le fantasme du « grand remplacement » par les machines. Aujourd'hui, le mot d'ordre, c'est la « collaboration ». L'idée est de laisser aux robots les tâches pénibles, répétitives ou dangereuses – les fameux 3D en anglais : dull, dirty, dangerous. Jensen Huang, le patron de Nvidia, qui est un peu le grand gourou de l'IA, l'a très bien résumé. Il a dit que les robots seront « l'incarnation physique de l'IA » et que bientôt, tout le monde pourra programmer un robot comme on utilise un ordinateur aujourd'hui. L'idée est de nous augmenter, pas de nous remplacer. Un ouvrier sur un chantier pourrait avoir un collègue robot qui porte les charges lourdes. Une infirmière pourrait être assistée par un robot qui apporte les médicaments aux patients. Bien sûr, le risque de destruction d'emplois existe, surtout pour les postes les moins qualifiés. Mais ce que le CES nous montre, c'est que de nouveaux métiers vont apparaître : superviseur de flotte de robots, réparateur d'androïdes, éducateur d'IA… La transition sera complexe, et elle doit être accompagnée. Mais ce qui est certain, c'est que la question n'est plus si on travaillera avec des robots, mais quand et comment. Et à voir la vitesse à laquelle les choses évoluent, ce « quand » est beaucoup plus proche qu'on ne l'imagine. A la semaine prochaine !

2025 : La Grande Bascule du temps d’écran - L’exode des réseaux sociaux

2025-12-22· 4:30

S06E17 – Radio J – Chronique Tech 2025 : La Grande Bascule du temps d’écran - L’exode des réseaux sociaux INTRODUCTION Ilana Stéphane,. On entend dire que les réseaux sociaux sont en perte de vitesse. Est-ce que les chiffres 2025 confirment vraiment cette tendance ? Stéphane Oui, et de façon spectaculaire. Les signaux étaient déjà là en 2024, mais 2025 n’est pas une simple année de ralentissement, c’est l’année d’une véritable rupture, d’un point de bascule civilisationnel dans nos usages numériques. D’après les dernières consolidations internationales, le temps moyen quotidien passé sur les réseaux sociaux traditionnels chute de 6 à 8 % en 2025 dans les pays occidentaux. Mais le chiffre le plus marquant concerne les 16–24 ans, le cœur de cible historique : la chute atteint près de 15 % sur trois ans cumulés. C’est du jamais-vu depuis l’avènement des plateformes sociales. Ce n’est pas un simple transfert d’attention, c’est un recul structurel et profond. Ilana Quels sont les réseaux les plus touchés aujourd’hui ? Stéphane Le cas le plus emblématique reste Facebook. En 2025, moins de 25 % des moins de 25 ans s’y connectent encore chaque jour contre 70% il y a encore 5 ans. La plateforme est devenue une sorte de musée numérique, un patrimoine générationnel où l’on garde un compte par habitude, mais où l’activité réelle s’est effondrée. Facebook risque de devenir une sorte de grenier du web social Instagram, longtemps perçu comme plus dynamique, résiste mieux mais plafonne dangereusement. Le nombre d’utilisateurs actifs stagne, tandis que le temps moyen par utilisateur recule d’environ 5 % en un an. L’engagement s’érode. Même le géant TikTok, que l’on croyait invincible, voit sa croissance occidentale tomber sous les 2 % en 2025. Plus inquiétant pour eux, on observe un décrochage net chez les 18–24 ans, lassés par la répétitivité des contenus et la pression de l’algorithme. YouTube est un cas à part. La plateforme non seulement résiste, mais elle se renforce. On ne va pas sur YouTube pour "scroller" sans fin, mais pour chercher une compétence, suivre un tutoriel, regarder un documentaire, ou suivre des créateurs sur des formats longs. C'est une plateforme de destination, pas de passage. Le temps passé y est perçu comme plus qualitatif, plus enrichissant, ce qui la protège de la lassitude qui frappe les autres réseaux. Ilana Pourtant, on n’a jamais été aussi collés à nos smartphones… Stéphane Eh oui c’est là que le paradigme change. Le temps d’écran global, lui, ne baisse pas. Il explose. Mais il se déplace vers des territoires plus intimes et plus utiles. La première bascule majeure : les messageries privées et sécurisées. En 2025, plus de 3 milliards de personnes utilisent WhatsApp chaque mois. En Europe, plus de 80 % des utilisateurs de smartphones l’ouvrent quotidiennement. Le temps passé sur ces messageries a bondi de plus de 20 % en quatre ans, un vase communicant parfait avec le déclin des réseaux sociaux. Les usages sont clairs : on fuit l’agora publique pour des conversations choisies, des groupes restreints, des échanges basés sur la confiance et le contrôle. Ilana C’est donc aussi une question de confiance et de quête d’authenticité ? Stéphane Complètement. C’est une réaction épidermique à dix ans de surexposition. Les utilisateurs fuient l’arène publique algorithmique, perçue comme toxique et anxiogène, pour se réfugier dans des espaces plus sûrs, plus calmes, moins intrusifs. En 2025, près de 65 % des internautes européens déclarent préférer échanger de l’information via des messageries plutôt que sur des fils d’actualité ouverts. C’est la victoire de la sphère privée. Deuxième bascule : le smartphone est devenu un véritable terminal de productivité. Aujourd’hui, plus de 70 % des actifs utilisent leur smartphone pour des tâches professionnelles. Pour beaucoup, le smartphone n’est plus un second écran, c’est l’écran principal qui remplace l’ordinateur. Ilana Donc le téléphone n’est plus seulement un outil de distraction ? Stéphane Oui Ilana.. Il est loin le temps où le mobile n’était juste qu’un téléphone. Il est passé depuis à une machine à perdre du temps à une machine à en gagner. Pour illustrer cela, le troisième facteur clé en 2025, et c’est le plus récent : l’IA conversationnelle. Une part croissante du temps autrefois dédié aux réseaux sociaux est désormais absorbée par des assistants intelligents qui fournissent des réponses directes et synthétiques. Chez les 18–34 ans, près de 40 % des recherches d’information courante (une recette, un conseil, une date) passent désormais par des outils comme ChatGPT, Perplexity ou Gemini, plutôt que par les réseaux sociaux ou même les simples recherches sur Google. Ilana Et tout ça change le rôle des réseaux ? Stéphane Les réseaux ne sont plus au centre de la quête de sens ou de connaissance. Ils redeviennent ce qu’ils étaient à l’origine : des plateformes de diffusion, de pur divertissement, parfois de confrontation, mais de moins en moins des lieux de création de valeur durable. La conséquence directe : comme le temps d’attention se raréfie, la compétition pour le capter devient absolument brutale. Pour retenir un utilisateur qui s’ennuie, les algorithmes n’ont pas le choix : ils doivent pousser des contenus toujours plus extrêmes, plus émotionnels, plus polarisants. C’est une pure logique mathématique de survie commerciale. Et face à cela, on voit déjà pour 2026 des plateformes comme LinkedIn et Instagram tenter de changer leur fusil d'épaule et se TikTokiser, en ajustant leurs algorithmes pour, soi-disant, favoriser les contenus plus personnels et authentiques, au détriment de la portée virale des contenus. Un virage difficile qui montre bien leur prise de conscience vers ces nouveaux usages. A la semaine prochaine !

Une chanson générée par IA, numéro 1 des billboards américains

2025-12-16· 5:42

S06E12 – Radio J – Chronique Tech Ce chanteur n'existe pas, mais il est numéro 1 : le hold-up de l'IA sur la musique Extrait 1 Walk My Walk 20 secondes Rudy : Ce que vous venez d’entendre, ça ressemble à du bon gros country américain : guitare, grosse voix, refrain calibré pour la route… Sauf qu’il n’y a aucun chanteur derrière ce micro. C’est une chanson générée par une intelligence artificielle, « Walk My Walk », créditée à un artiste virtuel qui s’appelle Breaking Rust, et elle vient de se hisser numéro 1 du Billboard aux États-Unis. Stéphane, on vient d’écouter un tube fabriqué par des algos. On a basculé dans quoi exactement ? On a basculé dans une nouvelle phase : l’IA ne se contente plus d’expérimenter, elle entre officiellement dans les classements. « Walk My Walk », c’est un projet entièrement piloté par l’IA qui a pris la tête du classement Country Digital Song Sales du Billboard, le palmarès des titres country les plus vendus en téléchargement. C’est la première fois qu’une chanson de 100 % générée par IA arrive en tête de ce type de chart aux États-Unis. Le « chanteur » n’existe pas, c’est un avatar : Breaking Rust, cow-boy barbu généré par IA, voix synthétique, imagerie ultra-codée. Derrière, on trouve un producteur humain qui orchestre les outils, mais tout ce qu’on entend – la voix, les paroles, l’arrangement – sort de modèles d’intelligence artificielle. Rudy : Concrètement, comment on fabrique le morceau qu’on vient d’entendre ? Il reste quoi comme place pour l’humain là-dedans ? L’humain devient orchestrateur plus que musicien. – Il choisit une IA de voix qui va générer le timbre du cow-boy : accent, grain, respirations. – Il demande à un modèle de texte d’écrire des paroles de country bien formatées : route, blessures, « je marche comme je parle », résilience virile. – Une IA musicale génère la base instrumentale dans le style des hits country actuels. – Une IA d’image produit l’avatar : chapeau, barbe, coucher de soleil derrière. Puis le producteur sélectionne, assemble, mixe, met en ligne, pousse un peu de promo digitale. Résultat : un « artiste » virtuel qui cumule des millions d’écoutes et un numéro 1 sur un vrai classement Billboard. Rudy : Et pendant que cette chanson grimpe au sommet, on a appris qu’un des géants de la musique, Warner, signait justement un accord avec une start-up d’IA musicale, Suno. Là, on passe du cas isolé au système organisé, non ? Exactement. Ce qui se joue en parallèle de « Walk My Walk », c’est la structuration du marché. Warner Music, l’une des trois majors mondiales, vient de conclure un accord de licence avec Suno, une start-up qui permet à n’importe qui de générer des chansons complètes avec de simples phrases. Cet accord est présenté comme « historique » : il prévoit de rémunérer les artistes Warner dont la musique servira à entraîner les modèles d’IA et à fabriquer de nouveaux morceaux. En clair : jusqu’ici, les majors étaient en guerre ouverte contre ces outils, qu’elles accusaient de pomper leurs catalogues en douce. Il y avait des procès pour violation massive de droits d’auteur. Là, Warner enterre la hache de guerre avec Suno, retire sa plainte, et bascule dans une logique : « on vous autorise à utiliser nos artistes, mais uniquement ceux qui acceptent, On assiste au même type de bascule que pour Spotify à ses débuts : on passe du « c’est du piratage, on va les tuer en justice » à « on signe des deals, on encaisse des droits, on essaie de cadrer le système ». Rudy : Pour un auditeur qui nous écoute ce matin, ça veut dire quoi très concrètement pour la musique de demain ? Aujourd’hui, on a surtout la preuve que l’IA n’est ni « bonne » ni « mauvaise » en soi, c’est un amplificateur. La même famille de technologies qui a permis d’isoler la voix de John Lennon sur une vieille cassette pour offrir au monde « Now and Then », un dernier vrai morceau des Beatles construit autour de lui et de personne d’autre, sert aussi à fabriquer de toutes pièces un cow-boy virtuel qui rafle la première place du Billboard. La question, ce n’est donc pas : « l’IA a-t-elle sa place dans la musique ? » On sait qu’elle peut réparer, restaurer, ressusciter des trésors qu’on croyait perdus. La vraie question, c’est : qui décide quand elle doit servir la musique – comme avec Lennon – et quand elle se contente de produire du contenu calibré pour les algorithmes ? Tant que l’IA aide à mieux entendre des artistes qui existent vraiment, elle enrichit notre mémoire collective. Le jour où elle se mettra surtout à remplir les tops avec des voix qui n’ont jamais eu de vie, ce ne sera plus de la musique qui nous parle, ce sera juste du son optimisé pour qu’on clique. A la semaine prochaine ! Extrait 2 Walk My Walk 20 secondes

Google 2025 : la baisse historique qui raconte notre mutation collective

2025-12-15· 4:30

S06E16 – Radio J – Chronique Tech Google 2025 : la baisse historique qui raconte notre mutation collective INTRODUCTION MAEVA : Bonjour Stéphane. Pour cette dernière chronique de l'année 2025, on va parler du classement des recherches Google. Mais cette année, il y a un chiffre qui fait trembler la Silicon Valley : pour la première fois en plus de 20 ans, le volume des requêtes sur Google baisse, mois après mois depuis mai 2025. Est-ce le début de la fin pour le géant de la recherche ? Bonjour Maeva, bonjour à toutes et à tous. C'est en tout cas la fin d'un monopole. Cette baisse est historique. Mais avant d'y venir, regardons ce que les Français ont cherché cette année. Le top 10 mélange l'actualité sportive avec la Coupe du monde des clubs, des personnalités comme Werenoi ou Thierry Ardisson, l'Iran, l'iPhone 17... Le classique des recherches événementielles. Mais le plus révélateur, ce sont les nouvelles catégories qui explosent. D'abord "IA pour..." : les gens cherchent "IA pour réviser", "IA pour les maths", "IA pour générer une image". On n'est plus dans la curiosité technologique, on est dans le besoin d'outils concrets. Ensuite, la catégorie "C'est quoi ?" : "Bullet point c'est quoi ?", "Cryptomonnaie c'est quoi ?", "Cadmium c'est quoi ?". Google devient un décodeur pour comprendre un monde qui va trop vite. Et c'est ça la vraie rupture : on ne cherche plus des liens vers des sites web, on cherche des réponses. On ne veut plus du contexte, on veut de la clarté immédiate. RELANCE 1 MAEVA : Comment cette année se compare-t-elle aux années précédentes ? Qu'est-ce que l'histoire des recherches Google nous dit de notre époque ? La rupture devient évidente quand on regarde l'évolution. Google publie ce classement depuis 2001, donc on a 24 ans de données qui racontent notre histoire collective. 2001, c'était l'ère du divertissement : Britney Spears, Pamela Anderson, Jennifer Lopez dominaient les recherches. Internet était nouveau, Google était un outil de curiosité. 2015 marque le premier tournant : Charlie Hebdo, le Bataclan. Google devient un réflexe face au choc, pour comprendre l'incompréhensible. 2016, c'est Trump et le Brexit. La politique mondiale envahit nos écrans. 2020, le grand basculement : Covid, confinement, les attestations. Google devient un outil de survie. On ne cherche plus à comprendre, on cherche à survivre au quotidien. 2021 et 2022 prolongent cette anxiété : vaccin, pass sanitaire, puis Ukraine, Poutine, l’inflation. Une société sous tension permanente. 2023 change tout : ChatGPT explose. Pour la première fois, une vraie alternative à Google émerge. Le réflexe commence à changer. 2024, on revient aux événements classiques : Euro, JO de Paris, élections américaines. Mais en coulisses, les habitudes ont déjà évolué. Et 2025 confirme la mutation : on n'est plus dans la réaction à l'actualité, on est dans l'adaptation à un nouveau monde. RELANCE 2 MAEVA : Cette baisse du nombre de recherches, c'est vraiment le signe d'un changement majeur ? Absolument. Les gens ne sont pas moins curieux, ils ont trouvé un autre interlocuteur : l'intelligence artificielle. Le réflexe a changé. Avant, on tapait des mots-clés sur Google : "resto Paris", "météo demain". Maintenant, sur ChatGPT, on formule des phrases complètes : "Trouve-moi un bon restaurant italien pas trop cher dans le Marais pour samedi soir". On attend une réponse directe, pas une liste de liens. Et même sur Google, les gens cherchent désormais des réponses, pas des sites. D'où les "C'est quoi ?" et les "IA pour...". On veut de la clarté, pas du contexte à trier. Cette baisse mensuelle depuis mai, c'est le symptôme d'une transition majeure. Google l'a compris et tente de transformer son moteur en machine à réponses avec son IA intégrée. Mais la bataille fait rage. RELANCE 3 - CONCLUSION MAEVA : Pour résumer, cette baisse historique raconte un changement profond de notre rapport à l'information ? Exactement. Nous sommes entrés dans l'ère de la réponse immédiate. La patience pour chercher, comparer les sources, tout ça s'effrite face à la promesse de l'IA : une réponse instantanée et synthétique. Ce que révèle Google, c'est qu'on ne cherche plus seulement à comprendre le monde. On cherche à s'adapter à un monde qui change trop vite. Les "C'est quoi ?" et les "IA pour..." sont des questions de survie professionnelle et sociale, pas de simple curiosité. Google passe du statut de plus grande bibliothèque du monde à celui de manuel pratique. Et ce manuel est désormais en concurrence directe avec le plus grand professeur particulier du monde : ChatGPT. De 2001 à 2025, on est passés de l'ère du divertissement à l'ère de la survie, puis à l'ère de l'adaptation. Cette trajectoire, c'est celle de notre époque. A l’année prochaine !

Quand ChatGPT devient le co-auteur invisible des copies

2025-12-09· 4:14

S06E09 – Radio J – Chronique Tech Quand ChatGPT devient le co-auteur invisible des copies Rudy Saada : Bonjour Stéphane. Cette semaine, on parle d’un sujet qui fait grincer bien des profs et fait sourire bien des élèves : la triche à l’école. Mais attention, une triche nouvelle génération, dopée à l’intelligence artificielle. Alors, je ne sais pas pour vous, mais j'ai des souvenirs assez émus de mes tentatives de triche à l'école. La petite antisèche pliée en accordéon, le voisin qui pousse sa copie l'air de rien... C'était artisanal, c'était risqué, ça demandait une certaine dextérité ! Et ensuite même s’il y a prescription aujourd’hui, j’ai poussé l’artisanat en ayant à la fin des années 80/début des années 90 des calculatrices ordinateurs de la marque HP où je mettais tous mes cours sans exception. Aujourd’hui, l’aide à la triche ne se cache plus dans la trousse, elle est hébergée dans le cloud. On demande à ChatGPT un plan, une rédaction, un calcul… et le tour est joué. Mais la nouveauté, c’est que les écoles commencent à réagir. Et de manière assez radicale. Rudy Saada : Radicale comment ? Eh bien, en revenant tout simplement… au stylo et au papier. C’est ce qu’on a vu dans un reportage de BFM Business devenu viral : des grandes écoles comme l’ESSEC, Sciences Po ou CentraleSupélec ont décidé de bannir les ordinateurs pendant les examens. Les copies numériques, c’est fini. Place aux feuilles, à l’écriture à la main, et même à des oraux à la chaîne. Ce qui est frappant, c’est le paradoxe : ces écoles, vitrines de la modernité, se tournent vers le plus vieux des outils. Mais elles n’ont plus le choix. Car ChatGPT, Gemini ou Claude sont devenus les “co-auteurs” invisibles de milliers de copies. Rudy Saada : On a l’impression que tout le monde s’y est mis ? Exactement. Selon une étude publiée en octobre par l’agence Heaven, près de 80 % des 18-25 ans utilisent une IA générative au moins une fois par semaine. Et un tiers avoue l’utiliser pour ses devoirs ou travaux de groupe. Mais la réalité, c’est que la triche devient indétectable. Une étudiante à Sciences Po racontait dans Le Monde qu’elle faisait écrire sa dissertation en anglais par ChatGPT, puis la traduisait elle-même pour brouiller les pistes. D’autres réécrivent tout en changeant le ton, pour “humaniser” le texte. Et certaines classes vont encore plus loin : pendant les examens en ligne, toute la promo se connecte sur un Google Doc commun et se partage les réponses générées par l’IA. Une triche collaborative.. Rudy Saada : Donc, le retour du stylo, c’est une solution temporaire ? Oui, c’est un réflexe de survie. Mais ça ne suffira pas. Et surtout, ce phénomène dit quelque chose de plus profond : le rapport des jeunes au savoir est en train de se transformer. Dans la 4eme vague du baromètre Notre avenir à tous, regroupant des statistiques publiées par Hélène Roques, dans une enquête réalisée avec Ipsos auprès de 1000 jeunes français à l’âge du collège montre que près d’un adolescent sur deux estime que l’école ne prépare pas vraiment à la vie réelle. Dans ces conditions, l’IA n’est pas vécue comme un outil de triche, mais comme un outil d’efficacité. L’étude dit aussi autre chose : près de 70 % des jeunes ne vérifient pas systématiquement les infos qu’ils trouvent en ligne. Ils confondent vitesse et vérité. Et ça, c’est la clé : avec l’IA, la réponse arrive instantanément… et elle a l’air vraie. Donc on l’utilise, sans la questionner. Enfin, les ados sont ambivalents : 60 % pensent que l’IA les aidera à mieux apprendre, mais un tiers craint qu’elle les rende paresseux. C’est d’ailleurs ce que souligne l’UNESCO dans un rapport récent : cette “crise de l’évaluation” est une chance. Une opportunité de repenser ce qu’on mesure vraiment à l’école. Parce qu’au fond, que cherche-t-on à évaluer ? La capacité à mémoriser et restituer un savoir ? Une machine le fera toujours plus vite, sans fatigue, sans erreur. Il faut donc déplacer le centre de gravité. Rudy Saada : Vers quoi, justement ? Trois pistes se dessinent. D’abord, évaluer la pensée critique. Demander à l’élève non pas d’écrire un texte, mais d’analyser un texte généré par l’IA : repérer les erreurs factuelles, les biais, les simplifications. Devenir, en somme, un auditeur de la machine. Ensuite, valoriser le processus plutôt que le résultat. On pourrait noter les brouillons, les échanges, les corrections successives. Ce que l’IA ne sait pas encore faire, c’est douter, ajuster, tâtonner. Et enfin, redonner sa place à l’oral. Pas l’interrogation stressante des années 80, mais un vrai dialogue. Un étudiant capable d’argumenter, de défendre ses idées, de rebondir sur une question inattendue prouve qu’il comprend vraiment. Rudy Saada : Donc, l’école de demain ne sera pas sans IA ? Exactement. Ce sera une école hybride, où l’élève apprendra à cohabiter avec ces outils. Mais il faut se souvenir d’où l’on vient. Avant, on passait des heures dans les bibliothèques à feuilleter des encyclopédies. Il fallait chercher, croiser les sources, lire entre les lignes. Puis Google est arrivé. On ne lisait plus tout, mais on devait encore savoir formuler une requête, trouver l’aiguille dans la botte de foin. Aujourd’hui, avec l’IA, c’est la botte de foin elle-même qui tend l’aiguille. Et beaucoup la prennent sans se demander si elle est vraie, si elle est tordue, ou même si c’est une aiguille. L’intelligence artificielle peut nous aider à apprendre, mais elle ne doit jamais apprendre à notre place. A la semaine prochaine !

L'Australie débranche les ados des réseaux sociaux

2025-12-08· 4:30

S06E15 – Radio J – Chronique Tech : L'Australie débranche les ados des réseaux sociaux Kevin C’est une décision radicale et une première mondiale qui nous vient de l’autre bout du monde. L’Australie a décidé de frapper très fort pour protéger ses adolescents. Depuis le 10 décembre, il est interdit aux moins de 16 ans d’avoir un compte sur les grands réseaux sociaux. Stéphane, qu’est-ce qui se passe exactement ? Ce qui se passe, c’est un basculement historique. Pour la première fois, un État ne se contente plus de recommander, d’alerter ou de responsabiliser les parents : il interdit. Concrètement, Facebook, Instagram, TikTok, Snapchat ou X n’ont plus le droit d’héberger de comptes appartenant à des moins de 16 ans en Australie. Les plateformes n’ont pas attendu. Meta a commencé dès le 4 décembre à suspendre les comptes des 13-15 ans. On n’est pas dans une annonce symbolique, on est dans une application réelle. Et c’est précisément ce qui fait trembler toute la planète tech. Pourquoi une mesure aussi brutale ? Parce que le gouvernement australien s’appuie sur une accumulation d’études, dont une commission parlementaire très documentée. 96 % des 10-15 ans sont présents sur les réseaux. Sept sur dix ont été exposés à des contenus violents, misogynes ou sexualisés. Plus d’un adolescent sur deux déclare avoir subi du cyberharcèlement. Et les autorités ont établi un lien clair entre exposition algorithmique, anxiété, troubles alimentaires et pensées suicidaires. Le Premier ministre a parlé d’algorithmes “prédateurs”. Ce mot n’est pas choisi au hasard. Kevin L’idée, c’est donc de créer une sorte de pause numérique ? Exactement. Les promoteurs de la loi parlent d’un “tampon de maturation”. Entre 13 et 16 ans, on laisse les adolescents se construire sans être soumis à la logique de comparaison permanente, de likes, de mise en scène de soi. Une phrase résume bien l’esprit du texte : “Laisser les enfants se découvrir avant que les algorithmes ne les définissent à leur place.” Ce n’est pas une croisade anti-internet. Les jeunes peuvent toujours utiliser le web, YouTube sans compte, les moteurs de recherche, les messageries familiales. Ce qui est visé, ce sont les réseaux à logique algorithmique addictive. Kevin Mais concrètement, comment empêcher un ado de mentir sur son âge ? On sait qu’ils le font tous. C’est là que la loi est habile. Elle ne punit ni les enfants ni les parents. Toute la responsabilité repose sur les plateformes. Et les sanctions sont lourdes : jusqu’à 25 millions d’euros d’amende par manquement. Les plateformes doivent mettre en place des “mesures raisonnables” de vérification d’âge. Derrière cette formule floue, il y a plusieurs pistes : documents d’identité, selfie vidéo analysé par une IA, estimation d’âge comportemental, ou vérification en amont via les app stores. Meta a déjà annoncé que les comptes bloqués à tort pourront être réactivés via une pièce d’identité ou un contrôle vidéo. Le seul problème est qu’aucune technologie n’est fiable à 100 %, et toutes posent des questions massives de protection des données. Centraliser des papiers d’identité chez TikTok ou Instagram, c’est un cauchemar pour les défenseurs de la vie privée. Kevin Et comment réagit la Silicon Valley ? Officiellement, elle coopère. Officieusement, elle panique. Meta tente de déplacer la responsabilité vers Apple et Google, en suggérant que la vérification d’âge soit faite au niveau de l’App Store. Traduction : “Que quelqu’un d’autre prenne le risque juridique.” La réaction la plus choquante vient de YouTube. Google affirme que cette loi rendrait les enfants “moins en sécurité”. Selon eux, sans compte, les jeunes perdraient les outils de contrôle parental. Réponse immédiate du gouvernement australien : si YouTube n’est pas sûr sans surveillance algorithmique, c’est un aveu d’échec du modèle, pas un argument contre la loi. À noter aussi : certaines plateformes comme WhatsApp ou des jeux comme Roblox ne sont pas encore concernés. Ce qui montre à quel point tracer une frontière nette est complexe. Kevin Dernière question : est-ce que ce modèle peut s’exporter ? En France, en Europe ? L’Australie est devenue un déclencheur, un laboratoire mondial. Le projet de loi sur l'interdiction des réseaux sociaux aux moins de 15 ans est "prêt" pour être discuté au Parlement dès "le début de l'année 2026", a annoncé, le vendredi 19 décembre, la ministre déléguée chargée de l'Intelligence artificielle et du Numérique, Anne Le Hénanff. Cette interdiction aux moins de 15 ans s'accompagnera d'une interdiction du portable au lycée, souhaitée par le chef de l'Etat et inscrite dans le projet de loi. La ministre déléguée plaide pour un texte "court et compatible avec le droit européen" pour "ne pas être retoqué". Une précédente loi instaurant une majorité numérique à 15 ans, promulguée en juillet 2023, n'avait pu être mise en œuvre en raison d'un blocage européen. Ce débat marque un tournant : pour la première fois, les États disent clairement que la santé mentale des enfants passe avant le modèle économique des plateformes. Et ça, pour la tech mondiale, c’est un signal extrêmement fort. A la semaine prochaine

Grok, l'IA révisionniste

2025-12-02· 5:08

S06E11 – Radio J – Chronique Tech Grok : Quand l’intelligence artificielle devient négationniste. Rudy Saada : Bonjour à tous. Ce matin, on va parler d’Elon Musk, mais pas de fusées ni de Tesla. On va parler de son chatbot d’intelligence artificielle, Grok, accusé d’avoir tenu des propos antisémites et même révisionnistes sur la Shoah. Stéphane, qu’est-ce qui se passe exactement avec cette IA ? Bonjour Rudy, bonjour à toutes et à tous. Grok, c’est le chatbot d’Elon Musk, développé par sa société xAI et intégré à X, l’ancien Twitter. L’idée de départ, c’était : “on va faire une IA moins polie, moins filtrée, plus cash que les autres, connectée en temps réel à ce qui se dit sur X”. Sur le papier, ça donne une IA “rebelle”, “politiquement incorrecte”. Dans la vraie vie, ça donne surtout une machine qui va chercher dans le pire de ce qui circule sur les réseaux : les discours complotistes, la haine, l’antisémitisme. Et quand on lui enlève des garde-fous, elle ne devient pas plus intelligente, elle devient plus dangereuse. Cet été, on a déjà vu Grok publier des messages qui louaient Hitler, reprendre des clichés antisémites sur les Juifs qui contrôlent Hollywood.. Devant le scandale, xAI a supprimé les posts et parlé de “comportement horrible” de l’IA, comme si le problème venait d’un bug mystérieux, alors que c’est le résultat de choix de conception très clairs. Rudy Saada : Là, on franchit une étape, on ne parle plus seulement de propos antisémites, mais carrément de révisionnisme. Concrètement, Grok a répondu quoi sur Auschwitz et la Shoah ? Des utilisateurs ont partagé des réponses où Grok expliquait, en substance, que les chambres à gaz d’Auschwitz-Birkenau auraient été “conçues pour la désinfection” et que le nombre de victimes ferait l’objet de “controverses”. On est exactement dans les éléments de langage des négationnistes : déplacer le sens des installations, semer le doute sur les chiffres, parler de “débat” là où il y a des faits établis, des preuves, des témoignages, des archives. Résultat : en France, le parquet de Paris a élargi une enquête déjà en cours sur X pour y inclure les réponses de Grok. On n’est plus seulement sur un problème de “modération qui dérape”, on est potentiellement dans le cadre du délit de contestation de crimes contre l’humanité, qui est très clairement défini par la loi Gayssot. Depuis le scandale, si vous posez la même question à Grok, il répond à peu près correctement, mais le mal est fait : les captures d’écran circulent, les médias en parlent, et surtout ça prouve que cette IA est capable de reprendre sans filtre la rhétorique révisionniste. Rudy Saada : Les défenseurs de Musk disent : “ce n’est qu’un bug, une hallucination d’IA, ça arrive à tous les modèles”. Est-ce qu’on peut vraiment réduire ça à un simple raté technique ? Non, et c’est là que le mot “révisionniste” prend tout son sens. Toutes les IA peuvent halluciner, inventer une date ou se tromper sur une capitale. Mais ici, ce n’est pas juste une erreur factuelle au hasard, c’est un type de discours très particulier, qui renvoie à une histoire précise : la négation ou la minimisation de la Shoah. Pourquoi Grok tombe là-dedans ? D’abord à cause de ses données : il est nourri au flux de X, où l’antisémitisme et le complotisme sont très présents. Ensuite à cause de ses règles internes : Elon Musk a plusieurs fois poussé pour que Grok soit “moins woke”, qu’il se méfie des “médias traditionnels” et qu’il n’hésite pas à être politiquement incorrect. Quand on donne ces instructions à une IA et qu’on la branche sur un réseau social où l’extrême droite révisionniste est très active, il ne faut pas s’étonner qu’elle commence à reprendre des arguments. Et puis il y a un non-dit : Elon Musk lui-même relaie régulièrement des narratifs comme celui du “génocide des Blancs” en Afrique du Sud. Quand le patron valide ce type de discours, et qu’en plus on affaiblit les garde-fous techniques, ce n’est plus un “bug”, c’est un système. Rudy Saada : On parle beaucoup de l’Europe, de la France. Est-ce que Grok, avec ce type de réponses, peut vraiment être interdit ou sanctionné sur le plan juridique ? Oui. En Europe, X est déjà dans le viseur à cause du Digital Services Act, qui impose une obligation de lutter contre les contenus illégaux et la désinformation. Là, on ajoute une autre couche : la France a des lois très strictes sur le négationnisme. Si un outil qui appartient à la plateforme, comme Grok, produit des réponses qui nient les chambres à gaz ou minimisent la Shoah, l’argument “c’est l’IA, ce n’est pas nous” ne tiendra pas longtemps. Rudy Saada : Dernière question : qu’est-ce que ça nous dit, plus largement, sur l’IA aujourd’hui et sur notre rapport à l’histoire, en particulier pour les Juifs ? Ça nous dit plusieurs choses très dures. D’abord, une IA n’est pas neutre. Elle reflète ses données, ses concepteurs, ses réglages. Si vous mélangez un patron obsédé par le “politiquement incorrect”, une plateforme remplie de haine et des garde-fous affaiblis, vous obtenez un système qui peut, très sérieusement, remettre en cause des faits historiques comme la Shoah. Ce que cette affaire nous apprend est glaçant : il suffit de quelques lignes de code et d'un manque de volonté pour qu'une intelligence artificielle se mette à nier l'histoire. Grok n'est pas une simple erreur technique, c'est une alarme. Si nous laissons une machine réécrire le passé, comment pourrons-nous faire confiance à ce qu'elle nous dira du présent ? Aujourd'hui, c'est la Shoah. Demain, ce sera quoi ?" Ce sera le 7 octobre, ce sera l’Ukraine, ce sera tout ce qui gêne les narratifs des plus puissants. Grok, aujourd’hui, c’est bien un avertissement : une IA peut devenir révisionniste en quelques lignes de code.

Le Mal Aimé ou le loup français qui a donné une leçon au monde entier

2025-12-01· 4:30

S06E14 – Radio J – Chronique Tech : Le Mal Aimé ou le loup français qui a donné une leçon au monde entier Rudy Saada : Bonjour Stephane ! Alors, cette semaine, on revient sur un sujet qui a fait le buzz bien au-delà de nos frontières : la publicité de Noël d’Intermarché. Bonjour Rudy, bonjour à toutes et à tous. Oui Rudy, et vous savez quoi ? Le patron d’Intermarché, Thierry Cotillard, a même déclaré être "très fier de donner une leçon aux Américains". Et quand on regarde les chiffres, on comprend pourquoi. Ce n’est plus une publicité, c’est un phénomène mondial. On parle de plus d’un milliard de vues ! Pour un film de 2 minutes 30, c’est du jamais vu en moins de 10 jours. L'histoire, on la connaît : c'est "Le Mal Aimé", ce loup solitaire, doublé par Fred Testot, qui, pour se faire accepter, se met à cuisiner des légumes sur la chanson de Claude François. Une histoire touchante qui sert parfaitement le slogan d'Intermarché : "On a tous une bonne raison de commencer à mieux manger". Rudy Saada : Mais le succès n'est pas seulement dû à l'histoire. Il y a une dimension technologique, ou plutôt anti-technologique, qui a accentué le succès, n'est-ce pas ? Exactement ! C’est là que ça devient passionnant pour notre chronique où je vous parle d’IA et de remplacement de l’homme pour certaines tâches. À l'heure où les géants américains comme McDonald's ou Coca-Cola se lancent dans des publicités 100% générées par Intelligence Artificielle, avec des résultats souvent qualifiés de "froids" ou de "sans âme" – la pub de McDo aux Pays-Bas a même été retirée sous la pression des critiques – Intermarché a pris le contre-pied absolu. Ils ont revendiqué un film "100% sans IA". Et derrière ce label, il y a une réalité impressionnante : plus de 100 personnes, dont 70 artistes, ont travaillé pendant près d'un an. C'est un travail d'orfèvre, réalisé par un studio français basé à Montpellier, Illogic, dont les fondateurs ont été nommés aux Oscars. L'un d'eux, Lucas Navarro, a bien insisté : "On voulait que ce soient de vrais animateurs qui fassent bouger le loup, pour vraiment qu'on sente toute l'émotion". C'est un véritable manifeste pour l'artisanat et la création humaine. Rudy Saada : C'est un pari audacieux, et qui a payé, semble-t-il. Le film est devenu un phénomène mondial comme on l’a dit. Comment expliquez-vous cette viralité ? Il y a plusieurs facteurs. D'abord, cette opposition à l'IA a créé un narratif très puissant. Le public a vu une sorte de David contre Goliath, l'artisanat français contre la technologie déshumanisée des multinationales. Des artistes et influenceurs du monde entier, notamment aux États-Unis, ont applaudi, comparant la qualité à celle d'un Pixar. Ils ont été bluffés qu'un supermarché français puisse produire une telle pépite. Ensuite, il y a l'impact culturel inattendu. La chanson "Le Mal Aimé" de Claude François, sortie en 1974, a connu une résurrection spectaculaire. On parle d'une explosion des écoutes sur les plateformes de streaming, jusqu'à +3000% ! La chanson s'est classée dans les tops dans des pays comme les États-Unis ou le Royaume-Uni. La publicité a dépassé son statut commercial pour devenir un objet culturel. Enfin, comme l'analyse un expert, Intermarché a réussi à doubler son discours commercial d'un "discours moral" sur la valeur du travail humain, l'authenticité et le "vivre ensemble". Rudy Saada : Et après un tel succès, quelle est la suite ? Est-ce qu'on va revoir ce loup ? Absolument ! Le succès est tel qu'Intermarché a annoncé la commercialisation d'une peluche du loup, en privilégiant une fabrication française. Mais ce n'est pas tout : le studio Illogic a confirmé qu'un projet de long-métrage, dans le même style, est en développement ! On pourrait donc retrouver notre loup sur grand écran. Maintenant, il est important de noter que cette approche "100% sans IA" n'est pas la seule manière de voir les choses. Prenez Publicis, par exemple. L'agence vient de sortir un film magnifique pour ses vœux de nouvel an, "Nouvelle année, Nouveau siècle, Nouveaux vœux", qui retrace son histoire depuis 1926 avec un lion. Ce film utilise l'IA pour créer des effets visuels spectaculaires. Mais l'approche est différente : l'IA n'est pas un remplacement de la créativité, c'est un outil au service de la vision créative. Publicis affirme que même face à l'IA, c'est l'esprit créatif humain qui prévaudra. Donc, en réalité, le débat n'est pas "IA oui ou non", mais plutôt "comment utilise-t-on l'IA ?". Intermarché a choisi de dire : nous, on croit à la puissance de la main humaine, de l'artisanat. Publicis dit : nous, on utilise l'IA comme un outil créatif au service de notre vision. Les deux approches sont légitimes, et elles montrent que la vraie question n'est pas la technologie, mais ce qu'on en fait. C'est la créativité humaine qui donne du sens à la technologie, pas l'inverse. Rudy Saada : Une belle conclusion qui montre que le débat est plus nuancé qu'il n'y paraît. Exactement. La vraie leçon de ces deux campagnes, c'est que la créativité humaine reste au cœur de tout. Que ce soit avec ou sans IA, c'est l'intention créative qui fait la différence. Et c'est rassurant pour tous les créatifs qui se posent des questions sur leur avenir. A la semaine prochaine extrait - le mal aimé

Casse du Louvre : une société israélienne au cœur de l'enquête ?

2025-11-25· 5:21

Judaica S06E07 - Chronique Tech - Louvre : l’enquête augmentée Bonjour à toutes et à tous. Dimanche 19 octobre, en sept minutes chrono, des cambrioleurs s’introduisent par une nacelle dans la Galerie d’Apollon du Musée du Louvre et emportent huit joyaux d’une valeur historique inestimable. Depuis, Paris et le monde entier vivent au rythme d’une enquête éclair : le week-end dernier, deux suspects ont été interpellés, l’un à Roissy, l’autre en région parisienne. Un détail a fait couler beaucoup d’encre : la possible arrivée d’un acteur israélien, le CGI Group — société d’intelligence et de sécurité dirigée par des anciens du Shin Bet. Plusieurs médias internationaux affirment que CGI a été sollicité « avec l’accord du ministère de la Culture ». Le Louvre, lui, dément avoir « contacté qui que ce soit » ; de son côté, CGI parle d’une saisine « via un intermédiaire », possiblement côté assureurs. Bref, collaboration directe ou indirecte ? Le débat reste ouvert, mais ce qui est le plus intéressant c’est de savoir Pourquoi faire appel à ce type d’équipe ? Parce que l’enquête moderne, c’est la convergence IA + renseignement privé : • analyse accélérée de milliers d’heures de vidéosurveillance (détection de trajectoires, plaque minéralogique, silhouettes), • recoupement logistique (locations qui s’est avérée être un vol de nacelles dans la ville de Louvres, tiens donc,, les badges, l’achats d’outillage), • la veille sur le dark web pour repérer des offres de rachat ou de “démontage” des pièces, • et les traçages financiers si rançon ou intermédiation apparaît. Tout cela sont des données que des hommes ne pourront pas analyser seuls assez vite. Si on ajoute l’analyse des nombreuses traces ADN présentes sur place, ont permis à l’arrestation de ces 2 suspects. Au-delà du feuilleton, cette affaire nous dit trois choses. Un : l’IA ne remplace pas l’enquêteur, elle l’augmente. Ce sont les croisements de données — images, locations, téléphonie — qui permettent d’aller vite. Deux : la cybersécurité des musées, c’est aussi la sécurité physique. L’audit annoncé au Louvre porte autant sur les caméras et angles morts que sur les scénarios d’intrusion “ Trois : la bataille de la restitution. Plus on va vite, plus on a de chances que les joyaux ne soient pas “dépecés”. L’IA peut repérer des signaux faibles en revente, mais il faut une coordination internationale sans faille entre police, douanes, assureurs et… parfois, des sociétés privées spécialisées. Alors, CGI a-t-il aidé “en un temps record” ? Peut-être — directement, ou via les circuits d’assurance. Ce qui est certain, c’est que l’enquête au 21ᵉ siècle se joue à la jonction du public et du privé, avec des outils d’analyse toujours plus puissants. Et c’est, au fond, la meilleure chance de revoir ces pièces historiques entières revenir au musée. À la semaine prochaine !

iPhone ou Android, quel smartphone offrir à Hanoucca pour une sécurité maximale ?

2025-11-24· 4:30

S06E13 – Radio J – Chronique Tech - iPhone ou Android, quel smartphone offrir à Hanoucca pour une sécurité maximale ? Rudy Saada: Bonjour Stéphane. Alors que les lumières de Hanoucca vont briller, la course aux cadeaux battra son plein. Certains chanceux recevront un smartphone. Mais qu’offrir comme téléphone en garantissant la sécurité de celui qui le reçoit, faut-il se tourner vers l'écosystème fermé d'Apple ou vers la flexibilité d'Android ? Bonjour Rudy, bonjour à toutes et à tous. Nos smartphones sont devenus le centre de nos vies, contenant nos informations les plus intimes et professionnelles. Pour y voir plus clair, un exemple récent est très parlant. L'armée israélienne, Tsahal, connue pour son expertise en cybersécurité, a récemment tranché de manière radicale : l'iPhone est désormais obligatoire pour les communications officielles de ses officiers supérieurs, interdisant de fait les appareils Android pour cet usage. Cette décision n'est pas un coup de pub, mais une réponse stratégique à l'intensification des cybermenaces. La raison fondamentale de ce choix tient en deux mots : contrôle et uniformité. Apple maîtrise l'ensemble de sa chaîne, du matériel (le téléphone lui-même) au logiciel (le système iOS). C'est un "jardin clos". Lorsqu'une faille de sécurité est découverte, Apple peut la corriger et déployer la mise à jour sur des centaines de millions d'appareils quasi simultanément. L'App Store est également une forteresse : chaque application est rigoureusement vérifiée avant d'être publiée, ce qui réduit considérablement le risque de télécharger un logiciel malveillant. À l'inverse, Android est un système ouvert, open-source. C'est sa grande force : il offre un choix immense d'appareils, de designs et de prix, de Samsung à Google, en passant par de nombreuses autres marques. Mais cette ouverture est aussi sa principale faiblesse structurelle en matière de sécurité. On parle de "fragmentation". Chaque fabricant (Samsung, Xiaomi, etc.) est responsable de déployer les mises à jour de sécurité sur ses propres modèles. Ce processus peut être lent, inégal, et sur les téléphones d'entrée de gamme ou un peu anciens, les mises à jour peuvent tout simplement cesser, laissant l'appareil exposé à des failles pourtant connues et corrigées par Google. Rudy Saada : C'est très clair. On a d'un côté une forteresse contrôlée, et de l'autre un écosystème ouvert et diversifié. Mais au-delà de cette différence de philosophie, est-ce que cette vulnérabilité théorique d'Android se traduit par plus d'attaques dans la réalité ? Absolument. Les chiffres sont sans appel. Un rapport de Malwarebytes pour 2025 montrait une augmentation de plus de 150% des menaces sur Android en l'espace de quelques mois. La nature ouverte d'Android permet aussi plus facilement l'installation d'applications depuis des sources externes au Play Store officiel, ce qui est une porte d'entrée majeure pour les malwares. De plus, le rapport récent de l'ANSSI, l'agence française de sécurité, souligne une professionnalisation de la menace. Des sociétés privées vendent désormais des logiciels espions "clés en main", comme le célèbre Pegasus, capables d'infecter un téléphone sans même que l'utilisateur n'ait à cliquer sur quoi que ce soit. Et ces attaques ciblent plus facilement la diversité des appareils Android que l'écosystème homogène d'Apple, même si ce dernier n'est pas infaillible et reste une cible de choix pour les hackers en raison de la valeur des données de ses utilisateurs. Rudy Saada: C'est assez inquiétant. J’ai un Android. Est-ce que cela veut dire que le choix du téléphone est le seul rempart ? Une fois qu'on a un iPhone, peut-on dormir sur ses deux oreilles ? Ce serait trop simple ! Et c'est le point le plus important à comprendre. L'ANSSI, le martèle : le maillon le plus faible de la chaîne de sécurité, c'est très souvent... l'utilisateur lui-même. La majorité des attaques réussies exploitent nos erreurs. La technique la plus répandue reste le "phishing" ou hameçonnage : ce SMS frauduleux qui se fait passer pour votre banque ou pour un service de livraison et vous demande de cliquer sur un lien. Que vous ayez un iPhone à 1500 euros ou un Android à 200 euros, si vous cliquez et donnez vos informations, le résultat est le même. Se connecter à un réseau Wi-Fi public non sécurisé dans un café ou un aéroport, télécharger une application peu fiable, ou utiliser des mots de passe trop simples sont des risques élevés. Rudy Saada: Donc pour conclure et pour guider nos auditeurs dans leur choix, que leur conseillez-vous ? iPhone, Android, ou un cours de cybersécurité ? Un peu des trois ! Mais si je peux résumer : Si votre cadeau est destiné à une personne peu à l'aise avec la technologie, ou si vous cherchez la tranquillité d'esprit maximale et une sécurité gérée de manière quasi automatique, l'iPhone reste le choix le plus sûr. C'est une forteresse, plus chère, mais qui demande moins de vigilance de la part de l'utilisateur. Cependant, si vous optez pour Android, tout n'est pas perdu, loin de là. Il faut être plus sélectif. Evitez les marques chinoises comme Huawei, et privilégiez des marques qui garantissent des mises à jour de sécurité longues et régulières. Les téléphones Pixel de Google sont les champions en la matière, avec 7 ans de support. Les modèles haut de gamme de Samsung sont aussi une excellente option, avec leur plateforme de sécurité Knox. En choisissant bien son modèle Android et en restant prudent, on atteint un très haut niveau de sécurité. Finalement, le meilleur cadeau, c'est un cadeau accompagné. Prenez cinq minutes pour expliquer à vos proches comment reconnaître un SMS suspect, l'importance des mises à jour et de ne télécharger que depuis les stores officiels. La meilleure technologie de sécurité, c'est d’abord un utilisateur bien informé. Hag Sameah !

Ce chanteur n'existe pas mais il est numéro 1 : le hold-up de l'IA sur la musique

2025-11-17· 4:30

S06E12 – Radio J – Chronique Tech Ce chanteur n'existe pas, mais il est numéro 1 : le hold-up de l'IA sur la musique Extrait 1 Walk My Walk 20 secondes Rudy : Ce que vous venez d’entendre, ça ressemble à du bon gros country américain : guitare, grosse voix, refrain calibré pour la route… Sauf qu’il n’y a aucun chanteur derrière ce micro. C’est une chanson générée par une intelligence artificielle, « Walk My Walk », créditée à un artiste virtuel qui s’appelle Breaking Rust, et elle vient de se hisser numéro 1 du Billboard aux États-Unis. Stéphane, on vient d’écouter un tube fabriqué par des algos. On a basculé dans quoi exactement ? On a basculé dans une nouvelle phase : l’IA ne se contente plus d’expérimenter, elle entre officiellement dans les classements. « Walk My Walk », c’est un projet entièrement piloté par l’IA qui a pris la tête du classement Country Digital Song Sales du Billboard, le palmarès des titres country les plus vendus en téléchargement. C’est la première fois qu’une chanson de 100 % générée par IA arrive en tête de ce type de chart aux États-Unis. Le « chanteur » n’existe pas, c’est un avatar : Breaking Rust, cow-boy barbu généré par IA, voix synthétique, imagerie ultra-codée. Derrière, on trouve un producteur humain qui orchestre les outils, mais tout ce qu’on entend – la voix, les paroles, l’arrangement – sort de modèles d’intelligence artificielle. Rudy : Concrètement, comment on fabrique le morceau qu’on vient d’entendre ? Il reste quoi comme place pour l’humain là-dedans ? L’humain devient orchestrateur plus que musicien. – Il choisit une IA de voix qui va générer le timbre du cow-boy : accent, grain, respirations. – Il demande à un modèle de texte d’écrire des paroles de country bien formatées : route, blessures, « je marche comme je parle », résilience virile. – Une IA musicale génère la base instrumentale dans le style des hits country actuels. – Une IA d’image produit l’avatar : chapeau, barbe, coucher de soleil derrière. Puis le producteur sélectionne, assemble, mixe, met en ligne, pousse un peu de promo digitale. Résultat : un « artiste » virtuel qui cumule des millions d’écoutes et un numéro 1 sur un vrai classement Billboard. Rudy : Et pendant que cette chanson grimpe au sommet, on a appris qu’un des géants de la musique, Warner, signait justement un accord avec une start-up d’IA musicale, Suno. Là, on passe du cas isolé au système organisé, non ? Exactement. Ce qui se joue en parallèle de « Walk My Walk », c’est la structuration du marché. Warner Music, l’une des trois majors mondiales, vient de conclure un accord de licence avec Suno, une start-up qui permet à n’importe qui de générer des chansons complètes avec de simples phrases. Cet accord est présenté comme « historique » : il prévoit de rémunérer les artistes Warner dont la musique servira à entraîner les modèles d’IA et à fabriquer de nouveaux morceaux. En clair : jusqu’ici, les majors étaient en guerre ouverte contre ces outils, qu’elles accusaient de pomper leurs catalogues en douce. Il y avait des procès pour violation massive de droits d’auteur. Là, Warner enterre la hache de guerre avec Suno, retire sa plainte, et bascule dans une logique : « on vous autorise à utiliser nos artistes, mais uniquement ceux qui acceptent, On assiste au même type de bascule que pour Spotify à ses débuts : on passe du « c’est du piratage, on va les tuer en justice » à « on signe des deals, on encaisse des droits, on essaie de cadrer le système ». Rudy : Pour un auditeur qui nous écoute ce matin, ça veut dire quoi très concrètement pour la musique de demain ? Aujourd’hui, on a surtout la preuve que l’IA n’est ni « bonne » ni « mauvaise » en soi, c’est un amplificateur. La même famille de technologies qui a permis d’isoler la voix de John Lennon sur une vieille cassette pour offrir au monde « Now and Then », un dernier vrai morceau des Beatles construit autour de lui et de personne d’autre, sert aussi à fabriquer de toutes pièces un cow-boy virtuel qui rafle la première place du Billboard. La question, ce n’est donc pas : « l’IA a-t-elle sa place dans la musique ? » On sait qu’elle peut réparer, restaurer, ressusciter des trésors qu’on croyait perdus. La vraie question, c’est : qui décide quand elle doit servir la musique – comme avec Lennon – et quand elle se contente de produire du contenu calibré pour les algorithmes ? Tant que l’IA aide à mieux entendre des artistes qui existent vraiment, elle enrichit notre mémoire collective. Le jour où elle se mettra surtout à remplir les tops avec des voix qui n’ont jamais eu de vie, ce ne sera plus de la musique qui nous parle, ce sera juste du son optimisé pour qu’on clique. A la semaine prochaine ! Extrait 2 Walk My Walk 20 secondes

Qui utilise ChatGPT ?

2025-11-10· 4:30

S06 E04 - RadioJ - Chronique Tech Qui utilise ChatGPT ? Rudy Saada : Stéphane, OpenAI a publié récemment des données sur l’usage de ChatGPT. Mais au-delà des usages, j’aimerais qu’on comprenne à quel point ça a explosé, dans le monde, en France et comment ça se compare à d’autres applis. Bonjour Rudy, bonjour à toutes et à tous. Eh bien, commençons par un chiffre spectaculaire : ChatGPT a atteint 100 millions d’utilisateurs mensuels en seulement deux mois. C’est du jamais-vu dans l’histoire des applications grand public. Pour comparer, TikTok a mis neuf mois, Instagram deux ans, et Facebook plus de quatre ans pour franchir ce cap. Autrement dit, l’IA conversationnelle a battu tous les records d’adoption. Rudy Saada : Deux mois… c’est impressionnant. Et aujourd’hui, on en est-on dans le monde ? Les derniers chiffres parlent de plus de 300 millions d’utilisateurs hebdomadaires fin 2024, et environ 700 millions aujourd’hui. Chaque jour, des milliards de requêtes sont envoyées à ChatGPT. Et ce qui est intéressant, c’est que la croissance est plus forte dans les pays à revenus faibles ou intermédiaires : l’IA devient un outil de première nécessité, un peu comme le smartphone dans les années 2000. Rudy Saada : Et en France, est-ce que l’engouement est comparable ? Oui, tout à fait. En mai dernier, 18,3 millions de Français ont utilisé ChatGPT, selon Médiamétrie. Cela représente environ un quart de la population. Et en termes de volume, la France compte pour environ 4 % du trafic mondial, soit près de 100 millions de requêtes quotidiennes. C’est considérable. Rudy Saada : Concrètement, les gens s’en servent pour quoi ? Trois grands usages dominent. D’abord poser des questions, chercher de l’info, demander conseil — ça représente environ la moitié des échanges. Ensuite, produire : rédiger un texte, préparer un voyage, corriger un mail, coder. Ça, c’est 40 % des cas. Enfin, l’expression personnelle : écrire un poème, réfléchir à sa vie, ou simplement jouer avec les mots. Et là, on touche à quelque chose de très humain : l’IA devient parfois un miroir de nos émotions. Rudy Saada : Donc ce n’est pas seulement un gadget, c’est devenu un outil de productivité ? Exactement. Environ 30 % des usages sont liés au travail — comme un assistant qui fait gagner du temps. Mais 70 % sont liés à la vie quotidienne : aider ses enfants à réviser, organiser un repas, ou préparer une lettre administrative. C’est ce qu’on appelle la « valeur invisible » : du temps gagné, de la sérénité, même si ça ne se mesure pas dans le PIB. Rudy Saada : Et la suite, Stéphane, qu’est-ce qu’on peut attendre ? Trois tendances principales à mon humble avis. D’abord, l’universalisation : l’IA va continuer à se démocratiser, notamment dans les pays émergents, comme un levier d’éducation et d’entrepreneuriat. Ensuite, l’intégration : ChatGPT est déjà en train de s’installer dans nos outils de travail — mails, suites bureautiques, réseaux sociaux — ce qui va accélérer son usage sans même qu’on s’en rende compte. Enfin, la régulation : plus une technologie se diffuse vite, plus il faut définir des garde-fous sur la fiabilité, la transparence, l’usage éthique. Rudy Saada : Donc, ChatGPT n’est plus un phénomène de mode ? Non, c’est une infrastructure ou en d’autres mots c’est un peu comme Internet ou le smartphone. Et la vitesse de son adoption montre bien que nous sommes déjà dans un monde où l’intelligence artificielle est devenue un réflexe quotidien. Hag Saméah A la semaine prochaine

ASML

2025-11-10· 4:30

S06E11 – Radio J – Chronique Tech Pourquoi ASML est plus puissante qu'Apple et Google réunis Rudy Saada : "Bonjour ! On parle technologie ce matin, et vous vouliez nous parler d'une entreprise dont le nom ne dit probablement rien à nos auditeurs, et qui pourtant, tenez-vous bien, est peut-être la plus puissante du monde. Plus qu'Apple ou Google ?" Exactement. Oubliez cinq minutes les GAFAM. La société dont je vais vous parler est européenne, elle est basée à Veldhoven, une petite bourgade aux Pays-Bas, et elle s’appelle ASML. C’est simple Rudy : sans eux, le monde moderne s'arrête. Plus d'iPhone, plus de voitures modernes, plus de data centers, et plus d'Intelligence Artificielle. ASML est devenue la société technologique la plus valorisée d’Europe, mais surtout, elle détient un monopole absolu sur la machine la plus complexe jamais construite par l'homme. C'est le goulot d'étranglement de toute l'économie mondiale. Rudy Saada : "C'est incroyable qu'on ne les connaisse pas plus que ça. Mais que font-ils exactement ? C'est quoi cette machine miracle ?" Alors, imaginez une imprimante. Mais une imprimante de la taille d'un bus à impériale, qui coûte 350 millions d'euros pièce. Cette machine fabrique des puces électroniques en utilisant une technologie qu'on appelle la lithographie extrême ultraviolet (EUV). Pour faire simple : elle utilise de la lumière pour graver des circuits infiniment petits sur du silicium. Le niveau de précision est hallucinant. C’est comme si vous essayiez de tirer au laser depuis la Terre pour frapper une pièce de 1 euro posée sur la Lune... et que vous réussissiez à chaque fois. Seul ASML sait faire ça. Leurs clients s'appellent TSMC à Taiwan, Samsung en Corée ou Intel aux US. Ils font la queue pour acheter ces machines. Si ASML a un rhume, toute l'industrie électronique mondiale attrape une pneumonie. C'est pour ça qu'ils sont au cœur de la guerre commerciale entre la Chine et les États-Unis. Washington fait tout pour empêcher Pékin d'accéder à ces machines néerlandaises. Rudy Saada : "On comprend l'enjeu stratégique, c'est fascinant. Mais vous me disiez en préparant l'émission qu'ils ne se contentent plus d'être des usiniers, ils investissent maintenant dans les cerveaux, notamment français ?" Tout à fait. Et c’est là que l’histoire devient intéressante pour nous. ASML a compris qu'avoir la meilleure "imprimante" du monde ne suffit pas, il faut aussi soutenir ceux qui écrivent le "livre". C'est pour ça qu'ASML vient d'entrer au capital de la pépite française Mistral AI. C'est un signal très fort. Le géant du hardware (le matériel) qui parie sur le champion européen du software (le logiciel). ASML sait que ses machines servent à fabriquer les puces (comme les GPU de Nvidia) qui font tourner l'intelligence artificielle. En investissant dans Mistral, ils bouclent la boucle. C'est une alliance 100% européenne qui nous rappelle que le vieux continent a encore son mot à dire. On a la machine qui fabrique les cerveaux numériques (ASML), et maintenant, on finance l'esprit qui va les habiter (Mistral). Pour résumer Rudy : ASML n'est pas juste une usine, c'est le coffre-fort de la technologie mondiale, et ils viennent de nous donner une petite clé supplémentaire.

ChatGPT devient un App Store conversationnel — la vague des « Mini-Apps » démarre

2025-11-10· 4:30

S06E05 – Radio J – Chronique Tech ChatGPT devient un App Store conversationnel — la vague des « Mini-Apps » démarre Rudy Saada : Bonjour à tous, c’est l’heure de notre chronique tech avec Stéphane Zibi, qui nous emmène aujourd’hui dans le futur de nos smartphones ! On va parler d’une révolution signée OpenAI, les créateurs de ChatGPT, qui veulent transformer votre IA en un véritable couteau suisse numérique. Alors, c’est quoi cette histoire de "Mini Apps" qui va tout changer ? Bonjour Rudy, bonjour à toutes et à tous. Aujourd’hui, on plonge dans une révolution qui pourrait bien redessiner notre quotidien numérique. OpenAI, les génies derrière ChatGPT, viennent de transformer leur intelligence artificielle en une plateforme d’applications. Imaginez : votre chatbot devient un App Store vivant, où tout se fait par la voix ou le texte, sans jongler entre mille icônes. C’est la fin des allers-retours entre apps, et le début d’une ère conversationnelle. Pour saisir l’ampleur, remontons à 2008. Apple lance l’App Store, et l’iPhone devient une plateforme où naissent Instagram, Uber, WhatsApp – des apps qui ont changé nos vies. Eh bien, le 6 octobre 2025, lors de leur DevDay, OpenAI a fait pareil avec ChatGPT. Ils ont dévoilé les "Apps in ChatGPT", surnommées "Mini Apps". Pas besoin de cliquer ou télécharger : vous parlez, et l’IA active le service. Concrètement ? Dites : "ChatGPT, trouve-moi un hôtel à Tel Aviv" Hop, Booking s’intègre dans la conversation, propose des options, et réserve si vous validez. Envie d’une playlist pour une soirée ? Spotify s’active. Un flyer pour un événement ? Canva entre en jeu. Ou encore : Coursera pour suivre un cours ou Uber pour filer à la synagogue. Tout ça, fluide, sans quitter le chat. [Relance 1 – Rudy Saada – ~20-30 secondes] Wow, c’est impressionnant ! On dirait un assistant personnel qui fait tout. Mais dites-moi, ça va vraiment simplifier nos vies, ou c’est juste un gadget de plus ? [Chronique – suite] Vous avez raison, Rudy, la simplicité, c’est la clé ! Mais derrière, il y a un enjeu économique colossal : une nouvelle ruée vers l’or numérique. Les startups qui coderont les premières apps pour ChatGPT pourraient devenir les géants de demain. Souvenez-vous : Instagram, racheté 1 milliard par Facebook ; WhatsApp, 19 milliards. Même logique ici. OpenAI a ouvert son SDK gratuitement pour attirer les développeurs, et lancé AgentKit, un outil révolutionnaire. Avec AgentKit, même sans savoir coder, un commerçant casher peut créer un assistant pour gérer ses stocks de hallot, un rabbin pour trier ses textes, ou un avocat pour analyser des dossiers. C’est l’IA démocratisée, accessible même aux utilisateurs gratuits de ChatGPT, sans abonnement premium. Mais attention, Rudy, il y a un hic : en Europe, à cause des réglementations GDPR, ce n’est pas encore dispo. Ça viendra, et quand ça arrivera, ce sera un tsunami. Fini les 50 apps sur votre écran ; bonjour un hub conversationnel qui anticipe tout. OpenAI reproduit la stratégie d’Apple ou Salesforce : créer un écosystème où l’IA orchestre votre vie digitale. Pour nos entrepreneurs juifs, c’est une opportunité en or pour scaler mondialement. [Relance 2 – Rudy Saada – ~20-30 secondes] C’est clair, ça sent la révolution ! Mais est-ce que ça va changer notre façon de bosser ou d’organiser nos journées, genre pour un événement communautaire ? Absolument, Rudy ! Imaginez organiser une bar-mitsva : ChatGPT gère les invitations via une app intégrée, réserve le traiteur, et crée un diapo souvenir avec Canva, tout en papotant avec vous. Cette "Mini Apps mania" transforme le chatbot en chef d’orchestre. C’est un bond aussi grand que l’iPhone en 2007. Les mois à venir vont être fous : des agents IA personnalisés, des intégrations à gogo. Pour les auditeurs, c’est une chance de simplifier la tech et de booster l’innovation. À suivre de près, car ça va pulser ! Rudy Saada : Merci pour ce voyage dans le futur et à la semaine prochaine pour une nouvelle chronique tech !

S06E11bis – Radio J – Chronique Tech - Le début de la fin de l'anonymat sur X

2025-11-10· 4:30

S06E12 – Radio J – Chronique Tech - Le début de la fin de l'anonymat sur X SUJET 1 – « Fin de l’anonymat sur X » 1. Angle général / ouverture « On vient de greffer un détecteur de mensonge sur X : une simple ligne “Pays du compte”. C’est minuscule à l’écran, mais c’est un séisme pour la désinformation. » "C'est le Bug de l'an 2025 pour la désinformation - imaginez un bal masqué géant où Elon Musk allume soudainement la lumière et arrache tous les masques." « Ce n’est pas encore la fin de l’anonymat, c’est la fin du confort pour ceux qui tentent de jouer un rôle en ligne. » 2. Comment ça marche, vulgarisé « X croise l’IP, le GPS, le numéro de téléphone. Pour l’utilisateur lambda, c’est quasi impossible de truquer durablement le pays. » « Avant, on avait des avatars sans corps. Maintenant, on a au minimum un territoire, un fuseau horaire, une cohérence géographique à vérifier. » « C’est l’arroseur arrosé : ceux qui manipulaient les foules en jouant avec la technique, aujourd’hui se font rattraper par la technique. » 3. Les faux narratifs que ça dévoile « On découvre les “télétravailleurs de la désinformation” : officiellement sous les bombes, en réalité sous la couette à Dublin ou à Doha. » « Des soi-disant étudiants de Columbia ou d’UCLA qui tweetent non pas depuis le campus… mais depuis Lagos ou Johannesburg. C’est du théâtre politique, pas de la contestation étudiante. » « LSI Africa qui explique à la France ce que pense “l’Afrique réelle”, alors que le compte est piloté… depuis l’Europe. C’est le panafricanisme en open-space climatisé. » 4. Politique française, Cerfia, Mediavenir, Delogu « Cerfia, Mediavenir, ce n’est pas le Kremlin, c’est le périph’. La désinformation n’est pas toujours importée, elle est souvent fabriquée maison. » « Ces comptes “neutres” sont en fait branchés sur des capitaux très orientés. On découvre que ce n’est pas un problème de bots russes, mais de narratifs politiques français. » « Pour certains politiques, la géolocalisation, c’est le crash-test : Sebastien Delogu qui se présente comme “voix du peuple de Marseille” mais en fait il tweete pas seulement depuis Paris ou Marseille mais aussi depuis Algerça finit par se voir. » 5. Les lignes de force à marteler « La géolocalisation, ce n’est pas la vérité absolue, mais c’est un test de cohérence. Est-ce que ton récit colle avec l’endroit d’où tu parles. » « La colère spontanée fabriquée à l’étranger, c’est ça l’astroturfing : on peint une fausse pelouse numérique pour faire croire à une révolte populaire. » « Les comptes qui passent en privé ou qui effacent en panique leurs archives, c’est le meilleur indicateur que le système touche des nerfs sensibles. » 6. Les nuances / limites (si on te pousse sur la liberté d’expression) « Dans une démocratie, ce type d’info est utile pour débusquer les campagnes d’influence. Dans une dictature, c’est potentiellement une arme contre les opposants. La techno est neutre, l’usage ne l’est pas. » « Tu peux avoir de très bons motifs pour vouloir être anonyme : un lanceur d’alerte, un opposant en Russie ou en Iran. Pour eux, ce champ “Pays du compte” peut être une menace de plus. » « La leçon, ce n’est pas “fini l’anonymat”, c’est : on est entré dans une ère où mentir sur qui on est et d’où on parle devient plus coûteux techniquement. » Le coeur du sujet "C'est l'arroseur arrosé version digitale : des comptes qui combattent l'Occident depuis... le confort de l'Occident !" "On découvre des 'télétravailleurs de la désinformation' : confortablement installés en Irlande ou au Qatar, ils jouent avec l'émotion du monde entier en prétendant être sous les bombes." "C'est de l'Astroturfing pur : on crée une fausse pelouse pour faire croire que c'est de l'herbe naturelle. Cette colère 'spontanée' est totalement artificielle." Les révélations choc "Des 'étudiants de Columbia' qui tweetent depuis Lagos au Nigeria... Du théâtre pour nous faire croire à un soulèvement de la jeunesse occidentale." "Le compte LSI Africa, très influent, tape sur la France au nom du panafricanisme... et il est géré depuis l'Europe !" Pour la politique française "La géolocalisation devient un test de vérité : si vous vous dites 'voix du peuple de France' mais tweetez de Moscou, ça se voit maintenant." "Cerfia et Mediavenir ? C'est du 'Made in France', mais l'ingérence n'est pas toujours étrangère - elle est parfois politique et domestique." Conclusion forte "C'est la fin de l'impunité facile, pas de l'anonymat. On voit déjà la débandade : des comptes qui suppriment leurs tweets en urgence ou passent en privé." "La vérité a marqué un point. La prochaine fois qu'un anonyme vous harangue, cliquez sur son profil. Si son pays ne matche pas avec son histoire, c'est un faussaire." SUJET 2 – Tsahal, l’IA et les soldats : prévention vs surveillance e sujet en trois briques : IA et santé mentale des soldats IA contre les fuites d’infos (Morpheus) IA côté ennemi (Hamas/Hezbollah) et guerre de l’info à 360° 1) Angle général pour démarrer « Tsahal est en train de faire quelque chose de très contemporain : confier à l’IA à la fois la santé mentale de ses soldats… et la police de leurs réseaux sociaux. » « On n’est plus dans “l’IA qui remplace les armes”, on est dans l’IA qui gère le psychologique, l’image, la discipline numérique des soldats. » 2) Bloc prévention du suicide / santé mentale Éléments factuels à glisser – Tsahal teste des outils d’IA et de chatbots qui entraînent les soldats à repérer les signaux de détresse chez leurs camarades et à verbaliser eux-mêmes leurs symptômes – Le chef du service médical explique que l’armée a changé de logique : intégrer les soldats atteints de stress post-traumatique plutôt que les démobiliser. Plus de 1 200 soldats avec PTSD servent aujourd’hui dans des postes réguliers ou de carrière. Punchlines prêtes à l’antenne « L’IA joue les psychologues militaires d’astreinte : des chatbots apprennent aux soldats à repérer un copain qui décroche, qui s’isole, qui change brutalement de comportement. » « Plus de 1 200 soldats diagnostiqués PTSD continuent de servir au lieu d’être écartés. Avant, on les sortait du système, maintenant on essaie de les tenir dans le collectif, avec des outils d’IA en soutien. » « Un psychologue militaire le dit très crûment : “Les jeunes parlent plus facilement à un écran qu’à un supérieur.” Si un chatbot peut être le premier maillon de la prévention, on le met dans la trousse de secours. » « Ce n’est pas de la magie noire : l’IA regarde les signaux faibles dans les échanges, les changements de rythme, de vocabulaire. Exactement le même type de modèles qu’on voit arriver dans la prévention du suicide sur les réseaux sociaux civils. » Phrase de synthèse « Sur ce volet-là, l’IA est un amplificateur de présence : elle ne remplace pas le psy ou le commandant, mais elle permet de détecter plus vite ceux qui sont en train de sombrer dans le bruit de fond de la guerre. » 3) Bloc “Morpheus” – l’outil qui surveille les réseaux sociaux des soldats Éléments factuels clés à placer – Morpheus = nouveau système basé sur l’IA pour analyser tous les comptes publics des soldats d’active (environ 170 000 comptes) – Il scanne textes, photos, vidéos et signale celles qui révèlent des infos sensibles (bases, armes, positions). – En cas de problème : notif automatique au soldat pour supprimer, puis éventuel appel d’un officier sécurité. – Pilote sur 45 000 soldats, des milliers de cas déjà signalés. Mise en service prévue début décembre, seulement sur comptes publics et uniquement pour les militaires d’active (les réservistes sont exclus juridiquement). – Contexte explicite : Hamas a passé des années à collecter des infos sur bases, chars, équipements à partir des posts des soldats avant le 7 octobre Punchlines « Morpheus, c’est l’anti-Instagram naïf : un filtre qui repère, dans vos selfies et vos stories, ce qui ressemble à une carte militaire offerte à l’ennemi. » « L’outil surveille 170 000 comptes publics de soldats. Dès qu’une photo laisse trop voir une base, un char, une position, le système allume un gyrophare numérique. » « La réponse est automatisée : d’abord un message qui dit “supprime ta publication, tu viens de violer les règles de sécurité”, ensuite un humain qui appelle si le soldat ne comprend pas. » « Tsahal reconnaît que Morpheus pousse au maximum la frontière entre sécurité et vie privée des soldats. Mais après avoir découvert que le Hamas avait construit des renseignements à partir de photos Instagram, ils considèrent que le risque inverse est pire. » Formule double tranchant « Morpheus, c’est le prolongement logique de la guerre du 7 octobre : on a compris que le smartphone du soldat était un trou de sécurité majeur, donc on met un gendarme algorithmique derrière chaque compte public. » 4) Bloc “l’ennemi numérique” : Hamas, faux profils et modèles 3D Éléments factuels – Le Hamas et d’autres groupes ont monté des réseaux de faux profils féminins (Instagram, Facebook) pour séduire des soldats, collecter des infos sur unités, mouvements, équipements, et parfois pousser des applis infectées sur leurs téléphones.Le Temps d'Israël+2Île-de-France+2 – Ces avatars sont très travaillés : biographies crédibles, familles et amis fictifs, photos authentiques, pseudo-romances en messages, vocaux, parfois vidéo.ctech – Des enquêtes récentes montrent que ces campagnes d’ingénierie sociale ont permis de cartographier des bases, de construire des modèles détaillés des sites militaires à partir des contenus publics des soldats.ctech+1 Punchlines « Le Hamas a fait du catfishing militaire une arme : derrière la “fille sympa d’Eilat” sur Instagram, il y a parfois un opérateur qui ne s’intéresse qu’à une chose : où est ton unité et avec quel matériel. »ctech+1 « On a vu apparaître des réseaux d’avatars féminins extrêmement crédibles, avec amis, famille, hobbies… mais totalement fabriqués. Leur boulot : draguer le soldat et aspirer de l’information. »ctech « La guerre moderne, ce n’est plus seulement des espions qui infiltrent des bases, ce sont des faux comptes qui infiltrent tes DM. Instagram devient un terrain militaire à part entière. » « Au final, l’ennemi a réussi à reconstituer des modèles précis de bases à partir de photos innocentes : un soldat qui pose devant un char, c’est un souvenir pour lui, mais un puzzle pour un analyste du Hamas. »Times of Israel+1 Phrase de pivot vers Morpheus « Morpheus, c’est la réponse défensive à ça : si l’ennemi utilise tes photos pour préparer la prochaine attaque, la seule réponse rationnelle, c’est de mettre une IA de ton côté pour verrouiller ce que tu montres. » 5) Bloc “double tranchant éthique” Là tu peux monter d’un cran, façon réflexion techno-politique. « On voit bien le double tranchant : la même famille d’algos peut sauver un soldat en repérant une dépression… ou déshumaniser la guerre en transformant des populations entières en flux de données à cibler. » Human Rights Watch+1 « Dans l’arsenal israélien, Morpheus s’ajoute à des outils beaucoup plus controversés, comme Lavender ou “The Gospel”, qui généralisent l’usage de l’IA pour désigner des cibles à Gaza. Là, la question démocratique devient : qui contrôle ces boîtes noires ? » Human Rights Watch+1 « Les militaires te diront : “On n’a pas le choix, le volume de données est inhumain, seule l’IA peut suivre.” Les juristes et les ONG répondent : “Justement, si c’est inhumain, il faut remettre plus d’humain dans la boucle, pas moins.” » Human Rights Watch+1 Clôture possible du sujet 2 « La ligne rouge, ce n’est pas l’IA elle-même, c’est le contrôle démocratique. Tant que ces systèmes restent des aides à la décision, encadrées, auditées, la techno peut protéger. Quand elle commence à décider seule qui surveiller, qui cibler, qui est “suspect”, là on bascule dans autre chose. » L'angle principal Tsahal utilise désormais l'intelligence artificielle sur deux fronts contradictoires : surveiller ses propres soldats pour prévenir les suicides, et détecter les menaces externes sur les réseaux sociaux. Infos-israel Punchlines clés Sur la prévention du suicide : "L'IA devient psychologue militaire : un chatbot apprend aux soldats à reconnaître les signes de détresse chez leurs camarades - changements d'humeur, isolement, propos ambigus. Infos-israel" "Plus de 1 200 soldats souffrant de stress post-traumatique continuent de servir. Avant, on les aurait démobilisés. Infos-israel L'IA leur permet de rester opérationnels." "Le général résume : 'Les jeunes parlent plus facilement à un écran qu'à un supérieur.' C'est toute une génération qui préfère l'algorithme au colonel." Sur les menaces externes : "Le Hamas et le Hezbollah utilisent de faux profils Instagram, principalement de femmes, pour du 'catfishing' militaire - ils créent des relations amoureuses virtuelles pour extraire des informations sur les unités à Gaza. Times of Israel" "Après l'attaque du 7 octobre, on a découvert que les terroristes avaient construit des modèles 3D de bases militaires à partir des photos que les soldats postaient innocemment sur Instagram et Facebook. Radioj" Le paradoxe "C'est le paradoxe de l'armée connectée : d'un côté, on utilise l'IA pour sauver des vies en détectant la détresse psychologique. De l'autre, on doit protéger ces mêmes soldats contre leur propre addiction aux réseaux sociaux." "Tsahal interdit maintenant aux soldats de prendre des photos dans les installations militaires et certains ne peuvent même plus ouvrir de comptes Facebook pour empêcher l'ennemi de créer des profils de renseignement. Radioj" L'angle plus large (si vous avez le temps) "On est dans une guerre de l'information à 360 degrés : l'ennemi vous catfish sur Instagram, votre propre smartphone peut trahir votre position, et pendant ce temps, l'IA surveille votre santé mentale." "La guerre moderne, c'est ça : ton meilleur ami peut être un algorithme qui veut te sauver, et ton pire ennemi une fille sur Instagram qui n'existe pas." Rudy : Ce matin, on parle d'un tremblement de terre sur la planète X, l'ancien Twitter. Ces dernières heures, c'est la panique chez les trolls, les menteurs et même certains politiques. Bonjour Rudy, bonjour à toutes et à tous ! Oui, c’est ce que j'appellerais le "Bug de l'an 2025" pour la désinformation. Imaginez un immense bal masqué où, d'un seul coup, Elon Musk allume la lumière et arrache les masques de tout le monde. Depuis cette semaine, X affiche une petite ligne, discrète mais dévastatrice sur les profils : le "Pays principal du compte". Et croyez-moi, cette simple ligne est en train de détruire des années de propagande. Rudy : C'est fiable ? On ne peut pas tricher ? C'est très difficile pour le commun des mortels. X utilise votre adresse IP, votre GPS, votre numéro de téléphone. Même avec un VPN on ne peut pas tricher. Pour l'industrie du mensonge, c'est une catastrophe. Rudy : Et qu'est-ce qu'on découvre ? Donnez-nous des exemples ! C'est un véritable festival, Rudy, une hécatombe pour les menteurs ! Grâce au travail de fourmi de compte comme Eyal Yakoby, on a soulevé le tapis et ce qu'on trouve dessous est stupéfiant. D'abord, vous avez la catégorie des "Faux étudiants américains". Vous voyez ces comptes avec des photos de profil de jeunes, des bios type "Étudiant à Columbia" ou "UCLA pour la Palestine". Ils tweetent jour et nuit sur l'occupation des campus, ils appellent à la révolte de la jeunesse américaine... Sauf que la localisation nous dit maintenant qu'ils tweetent depuis Lagos au Nigeria, ou depuis l'Afrique du Sud ! C'est du théâtre : on veut nous faire croire à un soulèvement de la jeunesse occidentale, alors que c'est piloté depuis l'étranger. Ensuite, vous avez les "Faux témoins de Gaza". Ce sont des comptes suivis par des milliers de personnes, qui racontent l'enfer minute par minute, qui postent des photos de décombres en disant "Je suis sous les bombes, aidez-moi"... souvent avec une petite cagnotte en lien. Et là, le couperet tombe : "Pays du compte : Irlande", "Pologne" ou même "Qatar". Ces gens-là ne sont pas sous les bombes, Rudy. Ils sont des télétravailleurs de la désinformation. Ils sont assis confortablement en Europe ou dans le Golfe, et ils jouent avec l'émotion du monde entier pour manipuler l'opinion ou pour escroquer les gens. C'est ce qu'on appelle de l'Astroturfing : on crée une fausse pelouse pour faire croire que c'est de l'herbe naturelle. Eh bien là, on a la preuve que cette colère "spontanée" est, en grande partie, totalement artificielle. Rudy : C’est effrayant... Et ça touche aussi la France et nos débats ? Bien entendu. Regardez la sphère "anti-française" qui sévit en Afrique. Le compte LSI Africa, par exemple, très influent, qui tape sur la France à longueur de journée au nom du panafricanisme. On regarde sa localisation : il est géré depuis... l'Europe ! C'est l'arroseur arrosé : ils combattent l'Occident depuis le confort de l'Occident. Rudy : Et nos fameux comptes d'alerte ? Cerfia, Mediavenir ? On a souvent dit que c'était les Russes... Non, c'est du "Made in France". Ils sont bien localisés à Paris ou en banlieue. Mais attention, la transparence révèle autre chose. On sait maintenant que ces comptes, qui se disent "neutres", sont en fait soutenus par des capitaux français très orientés, notamment la galaxie de Pierre-Édouard Stérin. Donc cela pouvait arranger ces comptes de se faire passer pour russes ou syrien mais parfois l'ingérence n'est pas étrangère, elle est politique et domestique. Rudy : J'ai vu aussi que ça commençait à taquiner nos politiques, notamment un certain député marseillais ? Oui. J'ai vu passer un tweet de Fabienne Billat alias Fadouce qui s'amusait de la situation autour de Sébastien Delogu, le député LFI. Eh bien maintenant, les internautes ont pu vérifier que son compte (ou ceux de sa garde rapprochée) "bipe" à Marseille, à Paris jusque là, rien de surprenant, mais aussi à Alger comme par hasard ! C'est là que ça devient savoureux : la géolocalisation devient un test de vérité. Si vous vous dites "voix du peuple de France" mais que vous tweetez de Moscou, ou si vous vous dites "patriote algérien" mais que vous tweetez du 16ème arrondissement, ça se voit ! Rudy : C'est la fin de l'anonymat alors ? C'est la fin de l'impunité facile. On voit déjà des comptes supprimer leurs tweets en urgence ou passer en privé. C'est la débandade. La leçon de ce matin, Rudy, c'est que la vérité a marqué un point. La prochaine fois qu'un anonyme vous harangue sur internet en prétendant être un témoin clé, cliquez sur son profil. Si son pays ne matche pas avec son histoire, vous saurez que c'est un faussaire et enfin je dis bien enfin on pourra avoir confiance à nouveau avec ces réseaux sociaux.

OpenAI : La Boucle à 1 Trillion

2025-11-03· 4:30

S06E08 – Radio J – Chronique Tech OpenAI : La Boucle à 1 Trillion (à développer avec les annonces sur les investissements) Rudy Saada: Stéphane, bonjour ! Aujourd'hui, on va parler d'OpenAI, la société derrière ChatGPT. Mais j'imagine que ce n'est pas juste pour parler du chat que nous utilisons quotidiennement ? Non, effectivement Rudy ! OpenAI est en train de bâtir un véritable empire qui pourrait redéfinir non seulement notre quotidien, mais aussi les règles de l'économie mondiale. Et tout commence avec une vision folle : un monde post-smartphone. Imaginez un petit appareil dans votre poche, sans écran, qui anticipe vos besoins, vous parle, vous écoute... C'est le rêve de Sam Altman, le patron d'OpenAI. Et pour le réaliser, il a recruté une véritable légende : Jony Ive. Rudy Saada: Jony Ive... le designer de l'iPhone ? Exactement ! L'homme qui a dessiné l'objet qui a façonné notre dernière décennie est maintenant en train de construire celui qui pourrait le remplacer. OpenAI a racheté sa startup pour 6,5 milliards de dollars. L'objectif : créer un "compagnon IA" pour nous libérer de la tyrannie des écrans. Rudy Saada: Mais attendez... d'où vient tout cet argent ? 6,5 milliards, ce n'est pas rien ! C'est là que l'histoire devient vraiment fascinante ! Un récent rapport de Bloomberg a révélé ce que certains appellent déjà "la boucle à 1 trillion de dollars". Accrochez-vous bien : OpenAI, Nvidia, Microsoft, Oracle, AMD... tous ces géants de la tech sont liés dans un ballet financier vertigineux. OpenAI achète des puces à Nvidia, qui en retour investit 100 milliards de dollars dans OpenAI. Oracle loue des serveurs à OpenAI, qui elle-même... C'est une économie circulaire, un vase clos où sept entreprises se renvoient 1 trillion de dollars en boucle ! Rudy Saada: Un trillion ! Nous ne sommes pas loin d'une bulle spéculative ? Les analystes parlent d'un "glitch d'argent infini". La question c'est : est-ce une bulle ? Ou le coût nécessaire pour bâtir la technologie de demain ? Et ce n'est pas fini ! Selon Reuters, OpenAI préparerait la plus grande introduction en bourse de l'histoire : une valorisation à 1 000 milliards de dollars. L'objectif ? Lever 60 milliards supplémentaires pour financer ses besoins gargantuesques en recherche et en puissance de calcul. Rudy Saada: On assiste donc à la naissance d'un nouveau géant... Faut-il s'inquiéter ? On assiste en direct à la naissance d'un nouveau type de géant, Rudy. Une entreprise qui veut contrôler toute la chaîne : du logiciel avec ChatGPT, au hardware avec Jony Ive, le tout financé par un écosystème qui tourne à l'argent magique. Alors oui, cette concentration de pouvoir quasi inédite interroge. Mais une chose est sûre : la prochaine révolution est en marche, et elle porte un nom : OpenAI.

— « Trump, premier président “IA-native” »

2025-10-20· 4:30

S06E08 – Radio J – Chronique Tech — « Trump, premier président “IA-native” » Rudy Saada Ce matin, parlons de Donald Trump et de sa manière très particulière d’utiliser l’intelligence artificielle. On a vu passer des images surprenantes ces derniers mois… Oui, et c’est exactement ça qui est frappant : Trump a transformé la présidence en studio de création numérique. Prenez les exemples récents : lui en roi avec une couronne sur une fausse couverture de Time, lui en pape sur Truth Social, ou encore cette vidéo où Gaza devenait une station balnéaire avec des casinos Trump. Ce qui est nouveau, c’est que ces images ne viennent plus seulement de militants anonymes — elles sont assumées, relayées, parfois même créées par la communication officielle de la Maison-Blanche. Rudy Saada Mais attendez, on a toujours eu de la manipulation d’images en politique, non ? Oui, mais là on change d’échelle. Avant, un photomontage maladroit faisait scandale. Aujourd’hui, l’IA permet de créer des images parfaitement crédibles en quelques secondes. Et surtout, Trump a compris quelque chose que peu de dirigeants ont saisi : l’important n’est plus que l’image soit vraie, c’est qu’elle circule. Pendant le bras de fer budgétaire en octobre, la Maison-Blanche a diffusé des mèmes générés par IA — la Faucheuse pour illustrer les coupes budgétaires, des caricatures d’opposants démocrates. Quand on leur fait remarquer, la réponse est simple : “On s’amuse”. Sauf qu’entre-temps, des millions de personnes ont vu ces images. C’est une stratégie délibérée. D’abord, court-circuiter les médias traditionnels. Ensuite, occuper l’espace en permanence. Et le plus inquiétant : remplacer progressivement les faits par des visions. Une Gaza avec des casinos, ce n’est pas un projet politique, c’est une émotion, un fantasme qu’on partage en un clic. Enfin, c’est de la propagande participative : des supporters créent du contenu, la Maison-Blanche le légitime. Rudy Saada Vous disiez que Trump a ouvert une boîte de Pandore. Est-ce qu'on a déjà des exemples concrets de cette diffusion à l'international ? Absolument. Regardez l'Inde. Lors des dernières élections, on a vu des deepfakes ressusciter des politiciens morts pour qu'ils s'adressent à leurs électeurs. Plus fort encore, le Premier ministre Narendra Modi utilise une IA pour traduire ses discours en temps réel dans des dizaines de langues, mais avec sa propre voix. Il peut ainsi toucher personnellement des millions d'électeurs dans leur langue maternelle. C'est un outil de connexion de masse redoutable. Rudy Saada Donc, ce n'est pas que de la manipulation négative, ça peut aussi être un outil de communication ? Exactement, mais la frontière est incroyablement mince. En Inde, l'opposition a riposté avec des clips parodiques en clonant la voix de Modi. On est dans une véritable 'guerre des mèmes' augmentée par l'IA. Rudy Saada Et en Europe, plus près de nous, est-ce que ça arrive aussi ? Le phénomène est bien là, surtout du côté des partis populistes. En Allemagne, le parti AfD utilise massivement l'IA pour créer des images qui n'ont jamais existé : des foules de migrants menaçantes, des familles allemandes 'idéales' et blanches pour illustrer leur vision de la nation. En Italie, le vice-premier ministre Matteo Salvini a diffusé une fausse image d'une fillette mangeant une pizza aux insectes pour dénoncer les politiques alimentaires de l'UE. Et ça va jusqu'à des deepfakes très ciblés : en Irlande, une candidate à la présidentielle a été victime d'une vidéo la montrant se retirer de l'élection. Au Royaume-Uni, un député a découvert une vidéo de lui annonçant sa défection à un autre parti. Tout était faux. L'idée est de créer une 'preuve' visuelle d'une menace ou d'un événement, même si cette preuve est entièrement fabriquée. Ça court-circuite le débat rationnel pour ne jouer que sur l'émotion et la peur. Rudy Saada On est donc bien au-delà de la simple blague, comme le prétend Trump... Très largement. On entre dans une ère de 'propagande esthétique'. La force de ces images, c'est qu'elles sont belles, marquantes, et qu'elles donnent un sentiment d'authenticité, même si tout est faux. Elles ne cherchent pas à convaincre par l'argument, mais à séduire par le visuel. La vraie question maintenant, c’est celle de l’appropriation. Ces techniques vont se diffuser encore plus largement. Trump a ouvert une boîte : celle d’une politique où l’image compte plus que le programme, où la viralité remplace l’argumentation. Et tant que ça marche électoralement, difficile d’imaginer un retour en arrière. À la semaine prochaine ! .​​​​​​​​​​​​​​​​

Quand la Technologie Réinvente Notre Santé et Notre Sommeil

2025-10-13· 4:30

S06E07 - RadioJ - Chronique Tech - Quand la Technologie Réinvente Notre Santé et Notre Sommeil Kevin Derblum : Bonjour à tous et bienvenue dans votre chronique tech. Aujourd'hui, Stéphane, on va parler de santé et de bien-être. On nous répète souvent que pour rester en bonne santé, il faut manger comme un moine, supprimer l'alcool et faire du sport tous les jours. Vous, vous nous dites que ce n'est plus vraiment le cas ? Bonjour Kevin, bonjour à toutes et à tous ! Oui, exactement. Cette vision très ascétique de la santé est en train de laisser place à quelque chose de beaucoup plus moderne : la prévention personnalisée et l'optimisation technologique. Et ce n'est pas de la théorie : des start-ups européennes et américaines bouleversent déjà la manière dont on prend soin de son corps, de jour comme de nuit. Commençons par le jour avec Neko Health, en Suède, fondée par Daniel Ek, le créateur de Spotify. Là, on est dans une autre dimension. Imaginez : vous entrez dans une cabine équipée de capteurs de pointe, de caméras 3D, d'intelligence artificielle médicale. En vingt minutes, votre corps est scanné de la tête aux pieds. Le système cartographie littéralement des millions de points de données à travers votre peau, votre cœur, vos poumons, votre circulation sanguine, vos tissus. On peut détecter une anomalie cutanée, un problème cardiaque, ou même un début de thrombose. Et tout ça sans piqûre, sans radio, et sans douleur. La visite complète dure 60 minutes. Après le scan de 20 minutes, vous vous asseyez avec un médecin pour un débriefing personnalisé. Vous recevez immédiatement sur votre smartphone un compte rendu complet, avec images, graphiques et recommandations médicales. Le médecin vous explique votre état de santé actuel et discute de son évolution future. Si un problème est repéré, on peut être orienté vers un spécialiste avant même que les symptômes n'apparaissent. Le succès est même phénoménal. Sur leurs réseaux sociaux, on voit des gens qui attendent depuis près d'un an pour obtenir un rendez-vous dans les centres pilotes de Stockholm et d'Helsinki. Imaginez : un check-up complet pour environ 250 euros. C'est à peine plus cher qu'une consultation spécialisée, mais avec un niveau de précision incomparable. Résultat : les gens se bousculent littéralement. Et pour la collectivité, ça change tout. Aujourd'hui, la Sécurité sociale dépense des fortunes pour soigner des maladies diagnostiquées trop tard. Un infarctus, c'est en moyenne 15 000 euros d'hospitalisation. Un cancer dépisté à un stade avancé, ce sont des années de traitements lourds. Avec la prévention technologique, on détecte beaucoup plus tôt. Résultat : des vies sauvées et des milliards d'euros d'économies potentielles. La startup a d'ailleurs déjà levé 260 millions de dollars pour installer ces cabines partout en Europe. On passerait ainsi d'une médecine de la réparation à une médecine de la prédiction. Kevin Derblum : Fascinant. Et la nuit alors ? Comment la technologie s'invite-t-elle dans notre sommeil ? Parce que si on optimise notre santé le jour, autant optimiser notre sommeil la nuit. Et là, il y a un gadget dont toutes les stars de la tech raffolent : le lit futuriste de la startup Eight Sleep. On parle d'un véritable bijou de technologie qui a conquis Elon Musk et Mark Zuckerberg. Imaginez un lit bardé de capteurs et dopé à l'intelligence artificielle. Il analyse en temps réel la qualité de votre sommeil, votre rythme cardiaque, votre température corporelle... Il sait tout de vos cycles de sommeil, et il apprend de vous, nuit après nuit. Mais ce n'est pas tout. Le matelas régule sa température de manière autonome. Fini les pieds gelés ou les sueurs nocturnes : le lit maintient une température idéale pour vous, et même différemment pour votre partenaire ! Si Madame a froid et Monsieur a chaud, le lit gère les deux côtés indépendamment. Le lit peut même vous réveiller en douceur, non pas avec une sonnerie stridente, mais en refroidissant ou en réchauffant progressivement le matelas pour un réveil naturel. C'est le summum du "biohacking", cette tendance qui vise à optimiser son corps et son esprit avec la technologie. Côté prix, on parle d'environ 3 300 euros. C'est une somme, bien sûr, mais quand on compare aux matelas de luxe traditionnels qui peuvent dépasser les 4 500 euros sans aucune technologie embarquée, ce n'est pas si délirant. Bien sûr, cela soulève des questions. Certains s'inquiètent de l'impact de toutes ces ondes sur la santé, d'autres y voient un gadget de plus dans un monde déjà hyper-connecté. Kevin Derblum : Donc, demain, rester en bonne santé, ce ne sera plus forcément courir cinq heures par jour ni bannir le chocolat ? Exactement Kevin. La santé du futur, ce sera un mode de vie équilibré bien sûr, mais surtout une prévention intelligente, rapide, abordable le jour, et un sommeil optimisé la nuit. Des cabines comme Neko Health qui cartographient des millions de points de données pour détecter les problèmes avant qu'ils n'apparaissent, et des lits comme Eight Sleep qui transforment nos nuits en véritables sessions de récupération. Mais la vraie question reste : jusqu'où sommes-nous prêts à confier notre intimité à l'intelligence artificielle ? Entre gagner en santé et en bien-être d'un côté, et préserver notre vie privée de l'autre, il faudra trouver le bon équilibre. Mais une chose est sûre : cette révolution est déjà en marche, et elle va transformer notre rapport au corps, à la santé et au sommeil. Bref, vivre mieux, plus longtemps… et sans sacrifier tous les petits plaisirs de la vie. A la semaine prochaine !

L'IA au cœur de l'enquête du Louvre

2025-10-06· 4:30

S06E06 - RadioJ - Chronique Tech - L'IA au cœur de l'enquête du Louvre Rudy : Stéphane, une semaine après le cambriolage de la Galerie d'Apollon, deux suspects ont été interpellés. En quoi l'IA a-t-elle réellement accéléré l'enquête ? Un petit rappel des faits tout d'abord. Le 19 octobre, à 9h30, quatre hommes s'introduisent par l'extérieur, utilisent une nacelle et un camion-élévateur, découpent deux vitrines à la disqueuse et emportent huit joyaux d'une valeur patrimoniale exceptionnelle. L'enquête se met aussitôt en ordre de bataille. Une semaine plus tard, deux trentenaires de Seine-Saint-Denis sont arrêtés, dont l'un à Roissy au moment de quitter le territoire. Plus de 150 prélèvements de traces et d'ADN ont été réalisés, et des indices numériques pointent la possibilité d'une complicité interne. Ce rythme n'est pas un miracle : c'est le résultat d'une enquête augmentée, où l'IA sert à trier, relier et hiérarchiser les informations pour que les enquêteurs se concentrent sur ce qui compte. Rudy : Très concrètement, qu'est-ce que l'IA a permis de faire ici, qu'on ne faisait pas aussi vite auparavant ? On peut résumer en cinq briques, mobilisées en parallèle. Première brique : l'analyse vidéo intelligente. On ne "regarde" plus des heures de caméras à la main. Des algorithmes détectent automatiquement des objets clés — nacelle, outillage, sacs —, reconnaissent des plaques, et suivent une silhouette sur plusieurs caméras malgré les changements d'angle ou de lumière. L'IA fait émerger des signaux faibles et propose des hypothèses de trajectoire qui guident le terrain. À l'inverse, elle révèle aussi les manques : la directrice du Louvre a reconnu l'insuffisance de la couverture vidéo extérieure, notamment sur le balcon emprunté par les voleurs — d'où la mise à l'abri rapide d'autres pièces dans les coffres de la Banque de France, à 26 mètres de profondeur, le temps de l'audit. Deuxième brique : le renseignement logistique. L'IA recoupe des bases hétérogènes pour identifier des chaînes de moyens : locations de nacelles ou de fourgons, achats massifs de cartes bancaires prépayées, achats d'outillage spécifique, synchronisation avec des créneaux horaires compatibles. Dans ce dossier, le camion monte-meuble s'est révélé volé — ironie du sort — à Louvres, près de Roissy. Ce type de rapprochement sort beaucoup plus vite quand on corrèle automatiquement lieux, dates et types de matériel. Troisième brique : la veille d'écoulement. Les équipes surveillent messageries chiffrées et places de marché "grises". Grâce au perceptual hashing, une photo d'un bijou peut être rapprochée d'images d'archives, même recadrée ou compressée. On compare sertissages, micro-rayures, motifs : c'est de la comparaison d'images assistée, précieuse pour repérer une tentative de revente. Quatrième brique : la simulation de scénarios. À partir des plans, on teste des centaines d'itinéraires d'intrusion : par où on gagne des minutes, où sont les angles morts, quelles caméras sont mal positionnées. Ces simulations orientent l'audit de sécurité et les vérifications de terrain. Cinquième brique : la corrélation téléphonique. Il ne s'agit pas d'écoutes, mais d'analyse de métadonnées pour repérer des co-présences récurrentes autour du musée : des appareils qui se déplacent ensemble, se séparent, se retrouvent. Cela aide à esquisser des cercles opérationnels, qui pourront ensuite justifier des actes d'enquête plus ciblés. Rudy : Certains craignent une dérive sécuritaire ou des biais. Où en est-on en France sur ces usages ? Les garde-fous comptent. Les experts rappellent deux choses : D'abord, l'IA ne décide pas, elle oriente. L'intuition et l'expérience de l'enquêteur restent centrales pour valider ou invalider des hypothèses et éviter les effets tunnel. Ensuite, les questions de biais et de vie privée imposent des procédures : traçabilité des requêtes, périmètres juridiques clairs, contrôle du juge. L'objectif n'est pas la surveillance de masse, mais la réduction du bruit pour accélérer des recoupements légitimes. L'enjeu dépasse l'arrestation. Il s'agit de récupérer les pièces intactes. Plus le temps passe, plus le risque de démontage augmente. D'où l'intérêt d'une coordination large : police judiciaire, Interpol qui signale les œuvres, douanes, assureurs, et partenaires capables de scruter les canaux d'écoulement. On a beaucoup glosé sur la participation de la société israélienne CGI — directe, indirecte ou pas du tout. En réalité, l'essentiel est ailleurs : l'enquête moderne est un sport d'équipe. Elle combine police judiciaire, expertises privées et outils d'analyse pour transformer une masse de données en pistes actionnables. L'IA n'a pas vocation à remplacer l'enquêteur ; elle lui fait gagner du temps sur les décisions utiles, au bon moment. Et c'est ce gain de décision — plus que la seule vitesse — qui offre la meilleure chance de ramener des œuvres entières au musée, plutôt que des fragments d'histoire. A la semaine prochaine !

L’avenir appartient-il aux plombiers… ou aux machines ?

2025-09-29· 4:30

S06E05 – Radio J – Chronique Tech L’avenir appartient-il aux plombiers… ou aux machines ? Kevin Derblum: Aujourd’hui, on parle d’avenir, de travail, et d’un débat qui secoue autant le monde de l’éducation que celui de la tech. Selon certains experts, le futur appartiendrait… aux plombiers et aux électriciens ! Et selon d’autres, il ne sert même plus à rien d’étudier. Alors, qui croire ? Faut-il troquer la fac contre la clé à molette ? Tout est parti d’une phrase devenue virale. Jensen Huang, le PDG de Nvidia, l’entreprise qui alimente la révolution de l’intelligence artificielle, a déclaré que “la prochaine génération de millionnaires sera composée de plombiers et d’électriciens.” Pourquoi ? Parce que l’intelligence artificielle, pour exister, a besoin d’une infrastructure colossale : des centres de données à construire, câbler, refroidir, entretenir. Et pour cela, on ne cherche pas des codeurs, mais des techniciens, des artisans, des spécialistes de terrain. Kevin Derblum: Donc ce sont les métiers manuels qui profitent de l’intelligence artificielle ? Oui, au moins dans l’immédiat. C’est un paradoxe : la révolution numérique redonne de la valeur à des métiers qu’on disait “classiques”. Nvidia investit déjà 100 milliards de dollars dans ces infrastructures, et le marché pourrait peser plusieurs milliers de milliards d’ici 2030. Une nouvelle ruée vers l’or — mais cette fois, les pépites, ce sont les câbles et les tuyaux. Mais cette vision optimiste ne raconte qu’une partie de l’histoire. Pendant que les métiers techniques reviennent sur le devant de la scène, d’autres professions, qu’on croyait protégées, sont frappées de plein fouet par l’intelligence artificielle. Kevin Derblum: Les fameux “cols blancs”, les métiers intellectuels ? Exactement. Une étude d’OpenAI, baptisée GDPVal, a analysé 44 professions en mesurant ce qu’une IA est capable d’accomplir dans la vie réelle. Le résultat est saisissant : les plus exposés ne sont pas les ouvriers, mais les psychologues, ingénieurs, enseignants, journalistes, avocats, pharmaciens, analystes financiers… Des métiers qu’on croyait “intouchables”. L’étude estime que 80 % des travailleurs verront au moins 10 % de leurs tâches automatisées, et pour 20 % d’entre eux, c’est plus de la moitié du travail qui pourrait l’être. Une étude de Microsoft arrive aux mêmes conclusions : même des professions comme historiens, politologues ou écrivains sont désormais vulnérables. Bref : aucune forteresse intellectuelle n’est imprenable. Mais attention, ce n’est pas une opposition entre travail manuel et intellectuel. La vraie ligne de fracture, aujourd’hui, se situe entre les tâches codifiables et non codifiables. Autrement dit : tout ce qui peut être décrit, structuré ou automatisé, qu’il soit physique ou cérébral, est à la merci de l’IA. Kevin Derblum: Donc, la question n’est pas “quel métier”, mais “quelle part du métier” survivra ? C’est ça oui. Comme le dit une phrase qu’on entend déjà chez les avocats : “L’IA ne remplacera pas les avocats, mais elle remplacera les avocats qui ne l’utilisent pas.” C’est toute la nuance. L’intelligence artificielle ne supprime pas les professions, elle recompose la façon de les exercer. Les tâches répétitives, les analyses standardisées, la production de contenu seront automatisées. Mais l’humain restera indispensable pour ce que la machine ne sait pas faire : la stratégie, la créativité, la négociation, l’intelligence émotionnelle. Kevin Derblum: Et c’est là que revient le fameux livre de Laurent Alexandre, non ? Oui, exactement. Laurent Alexandre, le médecin devenu futurologue, vient de publier avec l’économiste Olivier Babeau un ouvrage au titre volontairement provocateur : “Ne faites plus d’études.” Leur message, ce n’est pas qu’il faut arrêter d’apprendre, mais qu’il faut apprendre autrement. Les diplômes figés ne protègent plus sur vingt ans. Il faut passer d’un savoir stocké à un savoir vivant, qu’on actualise sans cesse. Et surtout, il faut cultiver ce que la machine ne peut pas imiter : la relation, la confiance, l’intuition humaine. En clair, dans un monde d’algorithmes, la vraie différence, c’est nous. Kevin Derblum: Mais alors, concrètement, qu'est-ce qu'on fait ? On devient plombier en attendant que les robots nous remplacent ? C'est la question du moment. La vision de Jensen Huang, c'est une opportunité à court et moyen terme : pendant dix, quinze ans peut-être, les métiers de la construction et de la maintenance d'infrastructures vont exploser. C'est une fenêtre réelle, tangible, pour ceux qui veulent se former maintenant. Mais Laurent Alexandre nous rappelle une vérité plus dérangeante : à long terme, même ces métiers manuels seront touchés. Il affirme que d'ici 2031 — oui, dans seulement six ans — l'IA pourrait dépasser le cerveau humain dans la plupart des domaines. Et que bientôt, "les robots ouvriers auront les mêmes compétences qu'un polytechnicien". Alors oui, il y a un paradoxe. Mais ce paradoxe nous dit quelque chose d'essentiel : l'avenir n'appartient ni aux plombiers, ni aux ingénieurs, ni aux avocats. Il appartient à ceux qui sauront s'adapter, apprendre en continu, et surtout, rester profondément humains. Parce que dans un monde saturé d'intelligence artificielle, ce qui fera la différence, ce sera notre capacité à créer du lien, à inspirer confiance, à faire preuve d'empathie. A la semaine prochaine !

TikTok rend-il idiot… ou est-il devenu une arme politique ?

2025-09-22· 4:30

S06E04 – Radio J – Chronique Tech TikTok rend-il idiot… ou est-il devenu une arme politique ? Rudy Saada : TikTok, c’est l’appli préférée des jeunes, mais aussi celle qui inquiète les parents et les politiques. On lui reproche d’abrutir et de réduire notre attention, voire de manipuler l’opinion. Et désormais, aux États-Unis, elle est au cœur d’un bras de fer géopolitique. Alors, TikTok rend idiot ou il rend surtout puissant ? Stéphane va nous éclairer à ce sujet. Bonjour Rudy, Chana Tova à toutes et à tous. Oui, TikTok divise. D’un côté, c’est l’application star des vidéos courtes, drôles et créatives. De l’autre, elle est accusée de capter nos données, de réduire notre capacité de concentration, et même d’influencer nos choix politiques. Et les dernières actualités montrent que le débat est encore plus sérieux qu’on ne l’imaginait. TikTok, c’est plus d’un milliard d’utilisateurs, dont 150 millions rien qu’aux États-Unis et près de 28 millions en France. Chaque jour, on y scrolle des vidéos de chats, de recettes express ou de théories douteuses. Et la critique principale, c’est que l’application détruit notre attention. Une étude de Microsoft a même popularisé l’idée que nous aurions désormais l’attention d’un poisson rouge : à peine huit secondes. TikTok exploite exactement ça : des vidéos ultra-courtes, une avalanche de dopamine, qui nous gardent accrochés pendant des heures. Pas idéal pour lire un roman de 500 pages… Rudy Saada : Mais est-ce qu’on n’exagère pas un peu ? On disait la même chose de la télévision à l’époque… C’est vrai Rudy. Mais TikTok pousse le phénomène à l’extrême. Prenons des exemples récents : le fameux chocolat de Dubaï, devenu viral grâce à son craquant en vidéo. Une simple tablette pistache-kadaïf est montée jusqu’à 50 euros pièce, vendue par millions… avant de disparaître aussi vite qu’elle était apparue. Aujourd’hui, on la retrouve bradée. Même chose avec le dentifrice violet censé blanchir les dents en trois brossages : star de TikTok pendant deux mois, puis démoli par les dentistes pour ses effets nocifs. Ces phénomènes montrent deux choses : d’un côté, la vitesse folle de TikTok. Avant, une mode mettait des mois à se répandre ; aujourd’hui, une vidéo peut bouleverser un marché en 24 heures. Mais surtout, ils montrent que l’algorithme ne récompense pas la vérité ou la qualité, il récompense ce qui choque, surprend, attire. Et ça peut être dangereux quand on parle de santé, de politique ou de sujets sensibles. Rudy Saada : Donc TikTok, c’est surtout du contenu abrutissant ? Pas uniquement. TikTok, c’est aussi des contenus pédagogiques. Le hashtag #LearnOnTikTok cumule des millions de vues : des professeurs expliquent la relativité en 60 secondes, des artisans montrent leur savoir-faire, des médecins parlent de notre santé. TikTok peut être une source d’inspiration. Mais attention : la plateforme met sur le même plan un professeur de médecine reconnu… et un influenceur qui n’a aucune compétence. Et l’utilisateur moyen ne fait pas toujours la différence. Et puis, il y a une dimension nouvelle : la politique. Depuis ce mois de septembre, Donald Trump a imposé la cession des activités américaines de TikTok. Et ce sont ses proches qui en prennent le contrôle. Larry Ellison, patron d’Oracle, la famille Murdoch, Michael Dell. Bref, des alliés politiques et économiques. Autrement dit, TikTok aux États-Unis devient une plateforme gérée par le camp républicain. Le Premier ministre israélien Benjamin Netanyahu a qualifié l’opération de « l'achat le plus important en ce moment » Et Trump lui-même a enfoncé le clou : il s’est félicité que, je cite, « TikTok ne soit plus au service des démocrates ni des Chinois ». Une phrase qui montre bien que ce n’est plus seulement une appli de divertissement, mais un outil de communication politique assumé. Rudy Saada : Mais ça change quoi pour nous, utilisateurs ? Ça change énormément. L’algorithme, c’est le cœur de TikTok : il décide ce que vous voyez. En Chine, il met en avant des contenus éducatifs et patriotiques. Aux États-Unis, demain, il pourrait valoriser certains sujets, amplifier certaines colères, voire donner plus de visibilité à certaines idées politiques. Et pendant ce temps, l’Europe reste impuissante. Les États-Unis reprennent le contrôle, la Chine garde la main sur ses données, mais l’Europe, divisée, ne propose aucune alternative crédible. On subit encore et toujours, sans stratégie numérique forte. Rudy Saada : Alors au final, TikTok rend idiot… ou bien il manipule ? TikTok, c’est un piège à attention, oui, mais c’est surtout devenu une machine d’influence qui sera prépondérante pour les prochaines élections municipales en 2026 et surtout la Présidentielle en 2027. La vraie question n’est plus de savoir si on scrolle trop, mais qui tient la télécommande. Parce que l’algorithme, c’est un peu la nouvelle télé : celui qui le contrôle choisit ce que voient des centaines de millions de personnes. Alors non, TikTok ne rend pas idiot par nature. Mais il peut orienter l'opinion, transformer une rumeur en vérité, et façonner nos désirs sans qu’on s’en rende compte. Et ça, c’est peut-être bien plus redoutable que d’avoir une mémoire de poisson rouge. Gmar Hatima Tova à toutes et à tous.

82% de haine : l'antisémitisme roi des réseaux

2025-09-15· 4:30

S06 E03 - RadioJ - Chronique Tech - 82% de haine : l'antisémitisme roi des réseaux Rudy : L’antisémitisme explose sur les réseaux sociaux… Stéphane, que sait-on vraiment des chiffres et que propose la France pour y répondre ? Bonjour Rudy, bonjour à toutes et à tous. Cette semaine, un chiffre a fait froid dans le dos : selon le CAM, le Combat AntiSemitism Movement, sur X, l’ex Twitter, 82 % des posts contenant le mot “Jew” dans une fenêtre de dix minutes contenaient des propos antisémites. Insultes, stéréotypes, appels à la haine… C’est énorme, même si l’échantillon est limité à cent messages. Mais ça veut dire qu’un adolescent qui tape ce mot par curiosité a huit chances sur dix de tomber sur de la haine. Rudy : Et sur les autres plateformes comme TikTok, Instagram, YouTube ou Facebook ? Le problème est général. Sur TikTok, c’est l’algorithme qui pose problème. Le fameux fil “Pour toi”, présenté comme personnalisé, est en réalité un poison : si un jeune s’arrête sur une vidéo complotiste ou haineuse, même par curiosité, il est ensuite inondé de contenus du même type. On a vu la même mécanique avec des sujets liés à l’autodestruction : il suffit d’un clic pour se retrouver enfermé dans une spirale. Instagram et Facebook sont un peu plus réactifs, mais l’antisémitisme circule aussi, notamment via des détournements de mots ou d’émojis. Sur WhatsApp les groupes explosent de haines comme cette question posée dans un groupe d’étudiants de la Sorbonne : "Les Juifs : pour ou contre ?" Antisémitisme décomplexé à Paris 1 Et YouTube reste le plus inquiétant : à peine un tiers des vidéos niant ou déformant la Shoah sont retirées, et près d’un quart des vidéos antisémites identifiées étaient encore monétisées par la publicité. Autrement dit, certaines formes de haine rapportent de l’argent. Rudy : Donc l’exposition est bien réelle, surtout chez les jeunes ? Oui, et c’est ça le cœur du problème. En Europe comme aux États-Unis, une majorité de Juifs disent avoir été exposés à de la haine en ligne. Et pour les adolescents, l’impact est énorme. Au Royaume-Uni, neuf jeunes sur dix utilisent YouTube, et les rapports officiels montrent qu’ils tombent régulièrement sur des contenus nocifs. Le danger n’est pas seulement la proportion brute de messages antisémites : c’est leur visibilité et leur viralité. Quelques centaines de comptes radicaux suffisent à créer une impression massive et à influencer des millions d’utilisateurs. Rudy : Et la France, que veut-elle faire concrètement ? Le rapport parlementaire sur TikTok propose des mesures radicales : interdire les réseaux sociaux aux moins de 15 ans, et pour les 15–18 ans instaurer un couvre-feu numérique, plus d’accès entre 22 h et 8 h. Les députés parlent même d’un “délit de négligence numérique” pour sanctionner certains parents, et menacent d’étendre l’interdiction jusqu’à 18 ans si rien ne change d’ici trois ans. Le vrai obstacle, c’est la vérification d’âge : techniquement possible mais compliquée à appliquer à l’échelle européenne. On a déjà une loi de 2023 qui exigeait une autorisation parentale pour les moins de 15 ans, mais elle n’a jamais été appliquée pour cette raison. Alors, au-delà des lois, pour changer les choses, il faut aussi agir par la culture et l’éducation. Plusieurs livres s’attaquent frontalement à l’antisémitisme. Je pense à Nora Bussigny, qui a analysé dans son livre Les Nouveaux Antisémites qui sort cette semaine, ce phénomène, et aux parutions attendues pour début octobre “C d’Amanda Sthers” et “J’ai Perdu un Bédouin dans Paris” d’Arthur Essebag, qui vont mettre le sujet au cœur du débat public. Lire, comprendre, débattre : c’est une autre façon de sensibiliser et de briser les préjugés. L’antisémitisme en ligne n’est pas résiduel, il est visible, amplifié, parfois même rémunéré. La France veut serrer la vis avec des interdictions et des couvre-feux, mais tout dépendra de l’application réelle. Et surtout, ce combat ne se gagnera pas uniquement par des lois : il se jouera aussi dans nos familles, dans nos écoles, dans nos librairies, dans nos médias. C’est un effort collectif, et il est urgent. Ce qui est certain, c’est que le statu quo n’est plus possible. A la semaine prochaine !

ChatControl : la fin du secret des messages privés ?

2025-09-08· 4:30

S06 E02 - RadioJ - Chronique Tech - ChatControl : la fin du secret des messages privés ? Rudy Ce matin, on parle d'un projet européen dont personne ne parle et qui inquiète de plus en plus : le ChatControl. Certains le présentent comme une arme pour protéger les enfants contre les prédateurs, d'autres comme une menace directe contre la confidentialité de nos échanges privés. Alors, faut-il avoir peur de cette nouvelle surveillance numérique ? On en parle avec Stéphane Zibi, notre expert en technologies. Bonjour Stéphane. Bonjour Rudy, bonjour à toutes et à tous ! Effectivement, le ChatControl est un projet de règlement de l'Union européenne qui pourrait obliger les plateformes comme WhatsApp, Telegram, iMessage, Signal ou encore Messenger à scanner en permanence nos messages privés, y compris ceux chiffrés, donc censés être protégés, pour détecter du contenu pédopornographique. Sur le papier, l'objectif est évidemment noble : protéger les mineurs. Mais dans les faits, cela reviendrait à ouvrir une brèche énorme dans la confidentialité de nos communications. Imaginez que tous vos messages, vos photos, vos conversations de famille ou professionnelles soient passés au crible par des algorithmes, avant même d'arriver à leur destinataire. Rudy (relance 1) : Mais Stéphane, est-ce que ça veut dire que demain tous nos messages vont vraiment être scannés par l'Union européenne ? Et où en est-on concrètement ? J'ai cru comprendre que le sujet revenait sur la table avec de nouvelles propositions. C'est exactement le cœur du débat, et vous avez raison, le projet est de retour en force. Les défenseurs du projet, sous l'impulsion de la présidence danoise du Conseil de l'UE, ont mis une nouvelle proposition sur la table. Ils ne parlent plus de "casser le chiffrement" mais d'une technique appelée "upload moderation", c'est-à-dire une analyse du contenu avant qu'il ne soit chiffré et envoyé. Mais en pratique, pour l'utilisateur, ça ne change rien : pour détecter ces contenus, il faut bien scanner 100% des messages. C'est un peu comme si on installait des micros dans tous les salons, au cas où quelqu'un dirait quelque chose d'illégal. Une personne envoyant des photos de vacances avec ses enfants sur une plage pourrait être ainsi mise sous surveillance. La date clé à retenir est le 14 octobre 2025, date à laquelle un vote crucial pourrait avoir lieu. Et la situation est tendue : 19 États membres seraient déjà favorables à cette mesure. Tout dépendra de la position de l'Allemagne, qui est encore indécise. Rudy (relance 2) : 19 pays, c'est énorme ! On comprend la crainte... Mais alors, pourquoi l'Europe, et notamment le Danemark, pousse-t-elle autant ce texte malgré les critiques et les risques pour notre vie privée ? Parce que le sujet est très sensible politiquement. Personne ne veut apparaître comme être "contre la protection des enfants". Le ministre danois de la justice, Peter Hummelgaard, a même eu cette phrase choc : "De qui la vie privée nous préoccupe-t-elle le plus ? Celle des milliers d'enfants victimes d'abus sexuels ? Ou celle des gens ordinaires ?". Cette émotion légitime est instrumentalisée pour faire accepter une surveillance de masse. D'ailleurs, le régulateur européen de la protection des données, ainsi que de nombreuses ONG, alertent : ce serait une violation directe du RGPD, le fameux règlement qui protège notre vie privée. Pire encore, ce projet pourrait n'être qu'une première étape. Une autre stratégie, nommée "ProtectEU", est déjà dans les cartons et prévoit d'ici 2030 un accès garanti des autorités au déchiffrement complet des communications. Rudy (relance 3) : Certains comparent le ChatControl au Patriot Act américain, mis en place après le 11 septembre, une loi d'exception devenue permanente. Est-ce qu'on est dans ce scénario ? C'est la même chose en effet. Comme le Patriot Act, on part d'une cause juste, mais celle-ci a permis de mettre en place des outils qui peuvent être utilisés à d'autres fins comme la surveillance politique, l’espionnage industriel ou le contrôle social. Une fois que ces technologies de détection seront installées, il sera très difficile de revenir en arrière. Aujourd'hui on dit : "C'est contre la pédocriminalité." Mais demain ? Qui garantit qu'on ne s'en servira pas pour surveiller des opinions politiques, des journalistes, ou même des opposants ? Rudy (relance 4) : Au-delà de la vie privée des citoyens, y a-t-il d'autres risques pour l'Europe ? Oui et c'est aussi un enjeu géopolitique et économique majeur. L'Europe a bâti sa réputation sur la défense de la vie privée, notamment avec le RGPD. Avec le ChatControl, cette crédibilité serait anéantie. On deviendrait un continent où la surveillance est la norme. Les grandes entreprises pourraient alors décider de déplacer leurs infrastructures et leurs investissements hors d'Europe, vers des régions moins contraignantes. Cela affaiblirait notre compétitivité et notre souveraineté numérique. C'est un risque énorme. Rudy (relance 5) : Une dernière question, Stéphane. Il y a quelque chose de paradoxal dans cette histoire : d'un côté, l'État français pousse pour casser le chiffrement des citoyens, mais de l'autre, nos ministres utilisent Tchap, une messagerie ultra-sécurisée. N'est-ce pas contradictoire ? C'est effectivement totalement contradictoire. Tchap, la messagerie officielle de l'État français, utilise un chiffrement de bout en bout pour protéger les communications gouvernementales. Nos dirigeants comprennent donc parfaitement l'importance du chiffrement... pour eux-mêmes ! Mais ils voudraient l'interdire pour les citoyens. C'est le principe du "faites ce que je dis, pas ce que je fais". Cette hypocrisie révèle que le vrai enjeu n'est pas technique, mais politique : il s'agit de contrôler les communications des citoyens tout en préservant le secret des communications officielles. C'est exactement le type de société à deux vitesses que dénoncent les opposants au Chat Control. A la semaine prochaine !

GPT-5 : un lancement entre super assistants, ratés, milliards et rivalités

2025-09-01· 4:30

S06 E01 - RadioJ - Chronique Tech - GPT-5 : un lancement entre super assistants, ratés, milliards et rivalités Rudy Saada : L'événement de l'été dans la tech, c'est le fameux GPT-5 d'OpenAI. Beaucoup de promesses, beaucoup de questions. Stéphane Zibi est avec nous pour faire le point. Alors Stéphane, qu'est-ce qui change vraiment avec ce GPT-5 ? Bonjour Rudy, bonjour à toutes et à tous, je suis ravi de vous retrouver pour cette nouvelle saison sur RadioJ. Oui GPT-5, c'est un programme qui réfléchit comme un humain, mais cette fois on change de dimension. ChatGPT répond à vos questions. GPT-5 gère des missions complètes. C'est en quelque sorte un assistant ultra-compétent qui ne dort jamais. Pour certaines tâches, il atteint le niveau d'un expert avec un doctorat. Rudy Saada : Concrètement, ça change quoi au quotidien ? Prenez votre journée type. Une réunion ? GPT-5 lit vos emails, résume les dossiers, prépare les slides et rédige le compte-rendu. Un autre exemple, un plombier reçoit la photo d'une fuite par SMS ? L'IA analyse l'image, pré-remplit le devis, propose un créneau et rédige la confirmation du rendez vous au client par retour de SMS, il n’y a plus qu’à l’envoyer. Encore mieux, lors de la présentation officielle de GPT-5, a été créée en direct une application complète d'apprentissage du français appelée 'Minuit à Paris'. En 45 minutes chrono, l'IA a généré le code, designé l'interface, créé les exercices et même composé les dialogues. L'application était fonctionnelle et prête à être téléchargée. Les développeurs présents n'avaient vu une telle vitesse de création. Le gain de temps, vous le voyez, est colossal. SI vous avez des idées, elles pourront être rapidement mises en place. Rudy Saada : C’est impressionnant en effet. Mais le lancement ne s'est pas passé comme prévu ? GPT-5 a été lancé le 7 août. En quelques jours, c'est la révolte ! Les forums explosent, les gens parlent de "deuil", d'avoir "perdu un ami". Sam Altman doit avouer : "C'était plus mouvementé que prévu." L'entreprise fait marche arrière le 9 août ! Rudy Saada : Comment expliquer un tel plantage ? Deux problèmes. Technique d'abord : le système de sélection automatique (Auto, Fast, Thinking) ne marchait pas. GPT-5 "semblait plus bête", selon Altman. Mais surtout, on découvre que des millions de personnes ont développé un attachement émotionnel réel à leur IA. Beaucoup utilisent ChatGPT comme thérapeute. Ce lien fut perdu d’un coup avec GPT-5. Et cette semaine, une preuve de plus de ces liens créés, un drame absolu : les parents d'Adam Raine, 16 ans, poursuivent OpenAI. Ils accusent ChatGPT d'avoir conseillé leur fils sur les méthodes de suicide et proposé d'écrire sa lettre d'adieu. L'adolescent est mort le 11 avril. Rudy Saada : C'est dramatique. Derrière tout ça, il y a en plus une véritable bataille économique ? D'un côté OpenAI-Microsoft, de l'autre Google et Meta où chacun dépense des milliards pour faire plus vite, plus fort et plus rapide que le concurrent. Mais le plus fou : Elon Musk aurait tenté de racheter OpenAI pour 100 milliards, en contactant même Mark Zuckerberg pour faire alliance, alors qu’il y a quelques mois ils devaient s’affronter sur un ring ! Et cette semaine, nouveau rebondissement : un ingénieur chinois, Xuechen Li, est poursuivi par xAI d’Elon Musk. Il aurait volé tout le code source de Grok pour l'apporter à OpenAI, en vendant 7 millions de dollars d'actions au passage. C'est de l'espionnage industriel pur ! Rudy Saada : Cette bataille, elle nous dit quoi sur notre époque ? Que l'intelligence artificielle n'est plus un gadget pour initiés, c'est devenu l'enjeu économique du siècle. Qui contrôle ces technologies contrôle une partie de l'économie mondiale. Pensez-y : si votre entreprise dépend d'une IA américaine pour fonctionner, vous dépendez des décisions prises à San Francisco. Et là, la France et l'Europe ont un problème. Pendant que les Américains se battent pour définir les règles du jeu, nous risquons de rester de simples consommateurs de ces technologies. Nous avons pourtant des entreprises prometteuses comme Mistral AI en France et Aleph-Alpha en Allemagne, mais la fenêtre pour rattraper le retard se referme vite. Le paradoxe français est cruel : nos meilleurs chercheurs en intelligence artificielle sont recrutés massivement par les géants américains, je pense à Yann Le Cunn chez Meta, Fidji Simo et Romain Huet, que je salue, chez OpenAI. Cette semaine même, le patron de Doctolib a lancé un appel désespéré : "Dernier appel pour l'Europe, restez travailler chez nous !" Rudy Saada : Comment les entreprises peuvent se préparer ? Commencer maintenant, même petit. Tester sur des tâches simples, former des référents IA par équipe. Mais garder l'humain dans la boucle - le drame d'Adam Raine nous le rappelle tragiquement. Nous avons 12 à 18 mois pour nous adapter. L'IA ne va pas supprimer votre travail, mais quelqu'un qui sait s'en servir pourrait prendre votre place. L'intelligence artificielle est la nouvelle révolution industrielle, avec ses promesses et ses dangers. Ceux qui l'embrasseront intelligemment définiront l'économie de demain. À la semaine prochaine !

Israël, la puissance tech qui dérange

2024-08-26· 4:30

RadioJ S05E09 - Chronique Tech - Israël, la puissance tech qui dérange Rudy : Waze guide vos trajets, Mobileye protège votre voiture, les systèmes israéliens sécurisent vos données... Sans le savoir, vous dépendez déjà d'Israël plusieurs fois par jour ! Ce matin, Stéphane Zibi nous dévoile un phénomène fascinant : comment un pays plus petit que la Bretagne, au cœur des tempêtes géopolitiques, s'impose comme l'une des premières puissances technologiques mondiales. Bonjour Rudy, bonjour à toutes et à tous. Quand on parle d'Israël dans l'actualité, ce n'est jamais pour évoquer la technologie. C'est pour parler de guerre, de tensions, de controverses. Mais il y a une autre réalité, bien plus silencieuse et infiniment plus puissante : celle d'un pays qui s'impose comme LA superpuissance technologique du 21ème siècle. Car ne nous y trompons pas : Israël n'est pas un pays qui fait de la tech. C'est un pays qui façonne la tech mondiale. Vous utilisez Waze pour éviter les embouteillages ? Créé à Tel-Aviv, racheté par Google pour plus d'un milliard. Votre voiture a des systèmes d'aide à la conduite ? Il y a de fortes chances qu'ils utilisent Mobileye, acquis par Intel pour 15 milliards. Vous stockez vos données dans le cloud ? SolarWinds protège probablement vos informations. Et le record d’une vente vient d'être pulvérisé : Google a sorti le chéquier pour Wiz, géant de la cybersécurité, 32 milliards de dollars - sa plus grosse acquisition à date. Pour vous donner une idée : c'est plus que le PIB de certains pays européens. Et il y a moins d’une semaine c'est au tour de CyberArk d'annoncer son acquisition par Palo Alto Networks pour 25 milliards de dollars. Rudy : 32 milliards pour Wiz, 25 milliards pour CyberArk... Des chiffres absolument vertigineux ! Mais comment un pays si petit, constamment sous tension, peut-il rivaliser avec les géants américains et chinois, peut-il produire autant de licornes technologiques ? Le secret, Rudy, c'est un écosystème unique au monde, forgé dans l'adversité. Dans un pays confronté à l'instabilité permanente, entreprendre devient littéralement une forme de survie nationale. Les unités d'élite comme 8200 - l'équivalent de notre DGSE numérique - ou Talpiot forment des génies de la tech dès 18 ans. Anecdote révélatrice : Gil Shwed, l'inventeur du pare-feu informatique moderne et fondateur de Check Point, a commencé à coder... dans une base militaire du désert du Néguev. En Israël, on code avant même d'avoir passé son permis de conduire. Cette formation militaire crée une mentalité particulière : résoudre des problèmes impossibles avec des ressources limitées. C'est exactement ce qu'on demande aux start-ups. Résultat : Israël investit 6,1% de son PIB en R&D - record mondial absolu, loin devant la Corée du Sud et les États-Unis. Tel-Aviv, classé 4ème écosystème technologique mondial, et concentre plus de startups par kilomètre carré que la Silicon Valley elle-même. Dans ce pays, échouer n'est pas une honte, c'est un passage obligé vers l'innovation. Cette chutzpah - qu’on peut traduire par audace assumée - permet d'oser ce que d'autres n'osent pas. Rudy : C’est surtout, dans le domaine médical, cette excellence israélienne fait-elle aussi des miracles ?" Dans le médical, Rudy, Israël frappe encore plus fort et sauve des vies à l'échelle planétaire. ReWalk permet aux paraplégiques de remarcher grâce à des exosquelettes robotisés. OrCam donne littéralement la vue aux malvoyants par l’intelligence artificielle via un petit boîtier qui lit le monde à voix haute. Mais la vraie révolution, c'est le cancer. Depuis janvier 2024, Israël propose le test sanguin Galleri : une simple prise de sang qui détecte 50 types de cancers avant même l'apparition des symptômes. Le pays devient l'un des premiers au monde, hors États-Unis, à démocratiser cette technologie révolutionnaire qui pourrait sauver des millions de vies et économiser des milliards à la sécurité sociale. À l'Université de Tel-Aviv, les nano vaccins contre les cancers gastro-intestinaux développés par l'équipe du Prof. Satchi-Fainaro viennent de recevoir la prestigieuse bourse européenne EIC Transition. Il y a quelques jours à peine, l’Université hébraïque de Jérusalem annonçait une percée dans l’immunothérapie avec la découverte de cellules immunitaires ‘suralimentées’ qui tuent le cancer plus efficacement. Et voici un 1er paradoxe qui dérange profondément : même les pays qui critiquent le plus vivement Israël politiquement... investissent massivement dans sa technologie. L'Arabie Saoudite, officiellement en conflit, finance secrètement des startups israéliennes, depuis des années. C'est une forme de diplomatie par la technologie. Rudy : "Cette dépendance technologique mondiale ne pose-t-elle pas un véritable problème de souveraineté ? On pourrait dire qu’Israël contrôle nos GPS, nos systèmes de sécurité, nos données de santé..." C'est LA question géopolitique du 21ème siècle. Aujourd'hui, pourtant TOUS les géants mondiaux sans exception ont leur centre R&D en Israël : Google y emploie 2000 ingénieurs, Apple y développe ses puces, Meta y conçoit ses algorithmes, Amazon y teste ses IA. Plus de 400 multinationales y développent, presque naturellement, leurs produits les plus stratégiques. Le pays capte 25% des investissements européens en cybersécurité. Nos banques, nos hôpitaux, nos gouvernements ont leurs données en France mais dépendent des technologies israéliennes. C'est une forme de soft power absolu. Car dans le numérique, l'excellence n'a effectivement pas de frontières, mais elle crée des dépendances. L'influence aujourd'hui et encore plus demain ne se mesure plus en missiles ou en portes-avions, mais en lignes de code et en brevets. Rudy : "Alors, quelle leçon tirer de ce phénomène israélien pour la France et l'Europe ?" Voici un autre paradoxe fascinant : Israël divise géopolitiquement, mais sa technologie unit le monde entier. Elle guide nos trajets, soigne nos cancers, protège nos données. Israël n'a pas encore de siège au G7, mais il siège déjà au conseil d'administration de notre avenir numérique. Pour la France, c'est un réveil brutal ! Nous excellons dans l'aéronautique, nous maîtrisons le nucléaire, mais dans le numérique ? Nous accusons un retard dramatique. Station F à Paris face à l'écosystème israélien, c'est un peu David contre Goliath... sauf que cette fois, Israël n’est pas David ! La leçon est implacable : au 21ème siècle, la vraie souveraineté, c'est la souveraineté technologique. Et sur ce terrain, Israël a pris plusieurs longueurs d'avance sur la plupart des membres du G7. Rudy : "Une chronique montrant bien cette puissance technologique israélienne ! Mais justement, Stephane, cette domination numérique soulève parfois des questions complexes. Cette semaine, une actualité illustre parfaitement ces enjeux : des familles de victimes du 7 octobre viennent d'attaquer Meta en justice pour plus d'un milliard de dollars. Ils accusent Facebook et Instagram d'avoir facilité la diffusion en direct des attaques terroristes. Comment analysez-vous cette affaire qui mélange tech, terrorisme et responsabilité des plateformes ?" Déjà il faut le rappeler, le 7 octobre n’a pas seulement été un massacre : c’était une mise en scène globale, diffusée sur les réseaux sociaux comme une campagne de communication terroriste. C'est donc un procès historique. qui pose la question : quelle est la responsabilité des plateformes numériques face au terrorisme comme ces mêmes plateformes ont eu un impact décisif lors des Printemps Arabes. Le cas est particulièrement tragique : la famille Idan du Kibboutz Nahal Oz a vu l'attaque de leur domicile diffusée en direct sur Facebook. Leur fille Maayan a été tuée pendant cette diffusion, leur père Tsachi kidnappé puis assassiné à Gaza. Ce qui est nouveau, c'est qu'on ne reproche pas seulement à Meta d'avoir hébergé le contenu, mais d'avoir facilité sa diffusion massive par ses algorithmes. C'est la différence entre être un simple hébergeur, statut qui a toujours permis à Meta ou les autres plateformes de passer entre les gouttes, et devenir un amplificateur. En permettant la diffusion de ces atrocités, Meta a transformé nos écrans en armes psychologiques. Rudy : "Les plateformes peuvent-elles vraiment empêcher ce type de diffusion ?" C'est un défi technique majeur, Rudy. La modération en temps réel, c'est extrêmement complexe. Quand des terroristes diffusent en direct, les algorithmes ne peuvent pas distinguer immédiatement un contenu terroriste d'un reportage d'actualité. Quand la modération arrive après le crime, c’est déjà trop tard.Les plateformes sont devenues les complices techniques des tueurs, même malgré elles. Le vrai problème, c'est l'après. Les familles accusent Meta de continuer à laisser circuler ces images malgré les signalements répétés. Là, c'est plus difficile à justifier techniquement. Pour que les auditeurs comprennent un peu le problème. Ce que Meta (et les autres plateformes aussi) utilise : - Le hashing et la détection automatique : les vidéos terroristes connues sont “empreintées” numériquement (hash) et bloquées si repostées à l’identique. Ils utilisent aussi des modèles d’IA de reconnaissance visuelle : en cherchant les vidéos similaires (même si légèrement modifiées). Et seulement en dernier recours pour les cas ambigus, ils font appel à des modérateurs humains. Mais ce système a des failles : Quand on fait du live = pas de pré-modération : une vidéo diffusée en direct ne peut pas être bloquée avant diffusion. Quand la vidéo est modifiée = le hash devient inefficace : un simple filtre ou un changement de format permet de passer à travers. Le délai de réaction : même avec 2 minutes de retard, les images ont déjà été capturées, partagées, archivées. La modération multilingue incomplète avec les contenus en hébreu, arabe ou modifié lexicalement échappent souvent à la détection. Et on reparle de la minorité ultra bruyante et extrêmement bien organisée la propagande en boucle : dès qu’un contenu “choquant” devient viral, des centaines de copies apparaissent, plus difficiles à gérer. Il faut aussi comprendre que ces plateformes traitent des milliards de contenus par jour. Donc c’est on va dire que c’est compliqué. Rudy : "Un milliard de dollars, c'est réaliste ?" Le montant peut paraître énorme, mais il faut le mettre en perspective. Meta génère plus de 100 milliards de chiffre d'affaires annuel. Un milliard, c'est moins de 1% de leur CA. Mais au-delà de l'argent, c'est le précédent juridique qui compte. Si ce procès aboutit, cela pourrait obliger toutes les plateformes à revoir fondamentalement leurs systèmes de modération. C'est d'ailleurs ce qui se passe en Europe avec le Digital Services Act : on impose aux géants du numérique des obligations de moyens, pas seulement de résultats. Et les sanctions si sanctions bien sûr pourront aller bien au-delà de ce milliard. En demandant cette sommes les familles veulent médiatiser cette procédure ce qui est aussi un des buts. Qu’importe si les familles toucheront la somme, elles souhaitent aussi qu’enfin ces plateformes (on peut inclure TikTok, qui vient d’embaucher, une américaine juive à la tête de son département de modération d’ailleurs, YouTube et X dans le lot) soient enfin à la hauteur de l’enjeu. Les minorités ultra bruyantes se trouvent en position de force, en régulant, en interdisant l’anonymat et en étant vraiment sévères en supprimant définitivement les comptes diffusant de la haine sous toutes ses formes, elles serviront la cause du bien. Merci et excellentes vacances à toutes et à tous !

La Machine à Fake News : Comment les Portails d'Information Amplifient la Désinformation

2024-08-19· 4:30

La Machine à Fake News : Comment les Portails d'Information Amplifient la Désinformation Kevin : "L’info en continu est-elle devenue une machine à fake news ? Ce matin, Stéphane Zibi — consultant en technologies émergentes, pionnier du web en France, expert en innovations et en intelligence artificielle — nous alerte sur un phénomène discret mais redoutable : la manière dont les portails comme Yahoo Actualités ou Google News amplifient la désinformation… sans jamais en payer le prix." Bonjour à toutes et à tous, bonjour Kevin. Imaginez que vous cherchiez des informations, sur un événement d'actualité. Vous tapez quelques mots dans Google, et là, en première position, apparaît un article de Yahoo Actualités avec un titre choc : "Un champ de massacre : le gouvernement israélien accusé d'avoir ordonné à son armée de tuer délibérément des civils à Gaza". L'information (pourtant maintes fois démontrée comme fausse) vous interpelle, vous cliquez, vous lisez, et peut-être même vous partagez. Mais savez-vous que cet article n'est qu'une copie conforme d'un article de BFMTV, republié tel quel, par Yahoo, sans aucune valeur ajoutée journalistique ? Kevin : "Mais Stéphane, comment ces portails peuvent-ils continuer à propulser ce genre d’info, sans même vérifier ?" Ce phénomène révèle un dysfonctionnement majeur de notre écosystème informationnel. Les portails d'agrégation comme Yahoo Actualités, Google News, ou Bing News, sont devenus de véritables amplificateurs d'information, parfois douteuses, grâce à leur puissance de référencement naturel. Dans cette bataille de la visibilité en ligne, les armes ne sont pas égales. Le Mécanisme de l'Amplification Yahoo Actualités ne fait que republier mécaniquement le contenu de BFMTV, sans vérification supplémentaire ni mise en perspective éditoriale. Parce que oui, parfois, je dis bien parfois, BFM peut s’avérer être une source peu fiable. L'algorithme de sélection privilégie, en effet, le potentiel viral au détriment de la vérification factuelle. Résultat : une information non vérifiée se retrouve propulsée en première page, bénéficiant, de la crédibilité supposée, de la source originale et du portail qui la diffuse. Cette dynamique révèle plusieurs problèmes structurels. D'abord, l'automatisation aveugle : les portails utilisent des algorithmes qui privilégient l'engagement plutôt que la véracité. Ensuite, la déresponsabilisation éditoriale : en se contentant de republier des contenus de sources "réputées", ces portails se déchargent de toute responsabilité. Enfin, l'effet de légitimation : quand une information douteuse est reprise par Yahoo Actualités, elle acquiert une légitimité supplémentaire, qu’elle n’aura jamais du avoir. Cette dynamique crée une asymétrie redoutable dans la bataille de l'information. Lorsqu'une fake news est reprise par ces portails, elle bénéficie instantanément d'un référencement naturel puissant. Google News, Yahoo Actualités, Bing News indexent et mettent en avant ces contenus, leur conférant une visibilité démultipliée. Face à cette machine, les voix qui tentent de contredire ou de nuancer l'information partent avec un handicap considérable. Elles ne disposent ni de la même force de frappe éditoriale ni du même pouvoir de référencement. Un fact-checking rigoureux mettra des heures, voire des jours à émerger, quand la fake news aura déjà été partagée des milliers de fois et lue par des millions d'internautes. L'effet de primauté joue à plein : la première information, même fausse, s'ancre plus profondément dans les esprits que les corrections ultérieures. Kevin "On comprend bien l’urgence… Mais qui pourrait — ou devrait — vraiment agir pour enrayer ce phénomène ?" La Responsabilité Éditoriale Cachée Contrairement aux apparences, ces contenus en une ne sont pas sélectionnés automatiquement. Derrière Yahoo Actualités ou Google News, des équipes éditoriales humaines prennent des décisions de mise en avant. Ces choix, guidés par la recherche d'audience, privilégient souvent le sensationnel au factuel. L'article de BFM TV repris par Yahoo illustre cette logique : un titre percutant, des accusations graves, un potentiel de controverse maximal. Tous les ingrédients sont là. Peu importe que l'information soit basée sur des témoignages anonymes dans un contexte où la vérification est complexe. L'important est de capter l'attention et de générer du trafic. Une des raisons pourrait venir du fait que dans certaines rédactions, les journalistes ont été remplacés par des rédacteurs, donc non soumis à un devoir de vérification des faits, parfois même ces rédactions sont gérées par des responsables spécialistes, d’abord, de référencement naturel. Le Paradoxe des Droits Voisins Bref. Ironiquement, cette situation s'inscrit dans un contexte où Google verse des sommes considérables aux médias français au titre des droits voisins. Plus de 450 publications ou sites de presse en France perçoivent ces rémunérations. Cette relation financière crée une dépendance mutuelle, qui peut s’avérer problématique. Mais cette mécanique économique ne prévoit aucune clause de qualité éditoriale. Google paie pour le contenu, peu importe sa véracité. Les médias touchent de l'argent pour leur production, qu'elle soit rigoureuse ou bâclée. Cette absence de conditionnalité qualitative participe à la déresponsabilisation générale. Kevin : Et du côté de l’IA, est-ce qu’il existe de vraies alternatives pour contrer cette dérive ?" Perplexity : Une Fausse Alternative Face à ces problèmes, certains voient en Perplexity une solution. Cette plateforme, une sorte de mix entre ChatGPT et Google, promet de fournir des réponses précises en citant systématiquement ses sources, permettant théoriquement de croiser les informations et de détecter les incohérences. Contrairement aux portails, qu’on a cités et qui republient, on l’a vu, mécaniquement. Perplexity utilise son IA pour synthétiser l'information à partir de multiples sources. Mais une analyse approfondie révèle des failles majeures qui remettent en question cette promesse. Une étude de 2024 montre que Perplexity n'a que 49% de précision dans ses citations, ce qui signifie que plus de la moitié, des sources citées, sont inexactes. Avec 31,6% d'hallucinations, Perplexity présente aussi un risque majeur de désinformation. Pire, il peut légitimer de fausses informations en les présentant avec des "sources" incorrectes et une apparence qu’on pourrait qualifier de scientifique. Cette "fausse autorité technologique" est particulièrement dangereuse car elle exploite la confiance parfois aveugle du public envers l'IA. Au lieu de résoudre le problème de la désinformation, Perplexity finalement la sophistique. Kevin : "Donc, si on résume : il faudrait que ça coûte, je dirai enfin, quelque chose de diffuser de la fausse information ?" Vers une Responsabilisation Financière Exactement Kevin. La solution passe par une conditionnalité des droits voisins à la qualité éditoriale. Google et les autres plateformes pourraient introduire des clauses de qualité dans leurs accords avec les médias, prévoyant des sanctions financières en cas de diffusion avérée de fake news. Concrètement : quand un média publie une fake news avérée, les portails qui l'ont reprise et amplifiée devraient payer une amende proportionnelle à la diffusion donnée. Cette responsabilité financière inciterait les plateformes à être plus sélectives et à investir dans des systèmes de vérification, comme l’a fait, étonnamment, l’AFP avec Factuel. La solution pourrait venir d’un nouveau type d’agence comme la WarRoom, fondée, par Benoît Thieulin, ex-président du Conseil national du numérique, qui se présente comme la première agence offensive de riposte cognitive et stratégique face à la désinformation, aux manipulations numériques et à la guerre des récits. Car aujourd'hui, amplifier une fake news ne coûte rien aux portails d'agrégation, mais leur rapporte des clics et de l'argent. Il faut inverser cette logique en rendant la désinformation coûteuse pour ceux qui la diffusent massivement. Cette question dépasse l'enjeu économique. Dans un contexte où la désinformation devient un enjeu majeur, nous ne pouvons plus laisser des algorithmes amplifier aveuglément n'importe quelle information. Les portails ont acquis un pouvoir considérable. Ce pouvoir s'accompagne de responsabilités qu'il est temps d'assumer. Israël a sûrement gagné militairement la guerre contre le Hamas, le Hezbollah et l’Iran mais elle l’a perdue, peut-être, diplomatiquement et surtout sur le terrain de la communication entre autres pour les raisons que nous venons d’évoquer ce matin. L'équation est donc simple, Kevin : tant que mentir rapportera plus que dire la vérité, la machine à fake news continuera de tourner. Il est urgent d'inverser cette logique avant que notre capacité collective à distinguer le vrai du faux ne soit définitivement compromise. Car une démocratie sans information fiable, ce n'est plus vraiment une démocratie. Bonne journée à toutes et à tous!

TF1 débarque sur Netflix - Une révolution audiovisuelle

2024-08-12· 4:30

Radio J S05E04 - Chronique Tech Netflix et TF1 : Une révolution audiovisuelle KEVIN : Bonjour Stéphane, vous nous parlez aujourd'hui d'une annonce qui a secoué le monde de l'audiovisuel français. De quoi s'agit-il exactement ? Bonjour à toutes et à tous, Bonjour Kevin ! Effectivement, c'est du jamais vu : Netflix et TF1 ont officialisé en juin un partenariat absolument révolutionnaire qui entrera en vigueur l'année prochaine, à l'été 2026. Imaginez : vous ouvrez Netflix comme d'habitude, mais cette fois, vous pouvez regarder en direct TF1, suivre Koh Lanta, Miss France ou The Voice, ou découvrir les derniers épisodes de Demain nous appartient, le tout sans quitter votre plateforme de streaming. Cette alliance représente une première mondiale pour Netflix. Jamais auparavant la plateforme américaine n'avait ouvert ses portes à un autre diffuseur. Habituellement, c'est Netflix qui s'invite chez les autres, comme sur Canal+ ou Molotov. Là, c'est l'inverse qui se produit. KEVIN : Concrètement, qu'est-ce que cela va changer pour les téléspectateurs français ? Tous les abonnés Netflix français auront accès aux cinq chaînes du groupe - TF1, LCI, TMC, TFX et TF1 Séries Films - ainsi qu'aux contenus exclusifs de TF1+, sans surcoût annoncé pour le moment. Pour Netflix, c'est un coup de maître stratégique. Greg Peters, co-PDG de la plateforme, l'avoue sans détour : TF1 excelle dans des domaines où Netflix peine encore, notamment le sport et les émissions en direct. Imaginez pouvoir suivre les matchs de l'équipe de France ou les grands événements sportifs directement sur Netflix, avec la qualité de recommandation personnalisée de la plateforme. Cette alliance s'inscrit dans une logique de complémentarité parfaite. Netflix apporte son expertise technologique et ses algorithmes de recommandation. TF1 offre ses programmes populaires, son savoir-faire en direct et sa connaissance du public français. Ensemble, ils créent une offre unique qui pourrait bien redéfinir les codes du divertissement. KEVIN : D'ailleurs, on a vu France Télévisions signer dans la foulée un accord avec Amazon Prime Video. Simple coïncidence de calendrier ? Ah, pas du tout Kevin ! C'est exactement ce qu'on appelle un effet domino. Quand Netflix annonce ce partenariat historique avec TF1, France Télévisions ne peut pas rester les bras croisés. L'accord avec Amazon Prime Video, c'est une réaction directe, une façon de dire "nous aussi, on joue dans cette nouvelle cour de récréation". Ce qui est fascinant, c'est qu'on assiste en temps réel à une recomposition totale du paysage audiovisuel. Les chaînes traditionnelles ont compris qu'elles ne peuvent plus ignorer les plateformes de streaming. C'est une course contre la montre pour ne pas se faire distancer. KEVIN : Vous pensez que cette logique va s'étendre à d'autres médias ? C'est là que ça devient vraiment intéressant ! Netflix ne s'arrêtera pas à la télévision. Leur objectif, c'est de devenir LE hub central de notre consommation média quotidienne. Imaginez demain : vous finissez un épisode de Fauda sur Netflix, et hop, l'algorithme vous propose directement d'écouter la matinale de Radio J pour approfondir l'actualité du Moyen-Orient. Ou encore, après avoir regardé un documentaire sur l'économie, Netflix vous dirigerait vers un podcast spécialisé ou une émission radio d'analyse économique sur le même sujet. L'idée, c'est de créer un écosystème complet où Netflix devient votre compagnon média 24h/24, une sorte de super télécommande. Netflix veut être votre point d'entrée unique vers l'information, le divertissement, la culture. KEVIN : Mais quelle est la stratégie économique derrière tout ça ? C'est là tout le génie de Netflix ! Plus ils vous gardent sur leur plateforme, plus ils collectent de données sur vos habitudes de consommation. Et surtout, plus vous devenez dépendant de leur écosystème, moins vous êtes sensible aux augmentations de tarifs. C'est ce qu'on appelle la stratégie de l'enfermement doré. Une fois que Netflix aura intégré vos habitudes télé, radio, peut-être même la presse, comment pourrez-vous vous en passer ? Ils pourront alors augmenter leurs tarifs comme ils le souhaitent, car le coût de sortie devient trop élevé pour l'utilisateur. L'enjeu économique est colossal. Dans un marché français où la télévision traditionnelle résiste encore - 64% de la consommation vidéo se fait toujours via un poste traditionnel selon Médiamétrie - ce partenariat pourrait accélérer la transition vers le tout-numérique. KEVIN : Cette stratégie, elle inquiète les régulateurs ? Pour l'instant, les autorités observent, mais cette concentration pourrait effectivement poser des questions de concurrence. Quand une seule plateforme contrôle l'accès à la majorité des contenus audiovisuels d'un pays, ça interroge sur la pluralité des médias et le pouvoir de prescription. Netflix pourrait demain décider de moins mettre en avant certains contenus au profit d'autres. Cette capacité d'influence sur l'opinion publique, c'est un pouvoir considérable. Cette alliance Netflix-TF1 symbolise un changement de paradigme plus large. Nous assistons à la naissance d'un nouveau modèle où les géants du streaming ne se contentent plus de produire du contenu, mais deviennent de véritables agrégateurs de divertissement. Netflix ne veut plus être qu'une plateforme parmi d'autres, mais LE point d'entrée unique vers tous les contenus. Dans cette guerre acharnée entre plateformes - Disney+, Amazon Prime Video, Apple TV+, Max - celui qui proposera l'offre la plus complète et la plus pratique aura un avantage décisif. Pour les annonceurs aussi, cette alliance ouvre des perspectives inédites : imaginez pouvoir cibler les audiences avec la précision des algorithmes Netflix tout en bénéficiant de la puissance de frappe des programmes TF1. Nous sommes à un tournant historique. À partir de l'été 2026, soit un an avant l’élection présidentielle, regarder la télévision ne sera plus jamais comme avant. Cette fusion des mondes annonce une nouvelle ère du divertissement, où les frontières entre linéaire et streaming, entre local et global, s'estompent définitivement. Pour le consommateur, c'est un confort immédiat indéniable : tout au même endroit, recommandations personnalisées, interface unifiée. La vraie question, c'est : sommes-nous prêts à confier notre consommation média quotidienne à une seule entreprise, américaine de surcroît ? C'est tout l'enjeu des prochaines années. A bientôt

Et si le moteur de recherche de Google disparaissait

2024-07-29· 4:30

RadioJ S01E04 - Et si le moteur de recherche de Google disparaissait Depuis plus de vingt ans, « Google » est devenu synonyme de recherche sur Internet. Mais en 2025, le géant californien fait face à une tempête inédite : concurrence féroce, révolution de l’intelligence artificielle, et remise en cause de son modèle économique. Ilana : La fin de Google est-elle vraiment envisageable, ou assiste-t-on simplement à la mue d’un empire ? D’abord, il y a la révolution technologique. Google a lancé une refonte majeure de son moteur de recherche, misant tout sur l’IA générative. Désormais, avec « AI Overviews », l’utilisateur obtient des réponses synthétiques, rédigées par l’intelligence artificielle, directement en haut des résultats. L’objectif ? Rendre la recherche plus naturelle, plus fluide, et surtout plus adaptée aux nouvelles habitudes, notamment celles des jeunes générations qui posent des questions longues, nuancées, et attendent des réponses personnalisées. Mais cette innovation n’est pas sans ratés : des réponses absurdes, des erreurs sur des sujets sensibles, et une inquiétude croissante des éditeurs de contenus, qui voient leur trafic s’effondrer au profit de ces résumés IA. En parallèle, la domination de Google est attaquée sur tous les fronts. Les alternatives se multiplient : Bing, dopé à l’IA de Microsoft Copilot, séduit par ses réponses conversationnelles et sa transparence sur la vie privée. Brave et DuckDuckGo misent sur la confidentialité, tandis que de nouveaux venus comme Perplexity AI ou DeepSeek proposent des moteurs de recherche entièrement repensés autour de l’intelligence artificielle, avec des millions d’utilisateurs chaque mois. Même les réseaux sociaux, TikTok et Reddit en tête, deviennent des points d’entrée majeurs pour la recherche d’informations, notamment chez les plus jeunes. Le modèle économique de Google, fondé sur la publicité, vacille. Pour la première fois, sa part de marché dans la publicité liée à la recherche passe sous la barre des 50 % aux États-Unis, et la tendance est à la baisse au niveau mondial. Les annonceurs diversifient leurs investissements, et les utilisateurs, lassés des publicités et soucieux de leur vie privée, explorent d’autres horizons. Face à cette fragmentation, Google tente de s’adapter : intégration de la recherche multimodale, personnalisation accrue, et même l’idée d’une version payante sans publicité est évoquée. Mais la concurrence, l’évolution des usages et la pression réglementaire – notamment en Europe – pourraient bien accélérer la fin de l’hégémonie de Google. Ilana : Est ce la fin de Google ? Pas tout à fait. Je dirai que c’est certainement la fin d’un monopole, oui. L’ère du « Google it » touche à sa fin, remplacée par une multitude d’outils, de plateformes et d’assistants IA. La recherche d’information devient plus riche, plus diversifiée, mais aussi plus complexe. Pour Google, l’enjeu est clair : se réinventer, ou risquer de devenir un géant du passé.

ChatGPT pour choisir votre série sur Netflix

2024-07-22· 4:30

RadioJ S01E04 ChatGPT pour choisir votre série sur Netflix Vous en avez assez de passer de longues minutes à faire défiler le catalogue Netflix sans jamais trouver le film ou la série qui correspond à votre humeur du moment ? Bonne nouvelle : Netflix expérimente actuellement une nouvelle fonctionnalité de recherche basée sur l’intelligence artificielle, développée en partenariat avec OpenAI, la société à l’origine de ChatGPT. Une petite révolution qui pourrait bien transformer notre façon de naviguer sur la plateforme. Ilana : Dans une étude Nielsen de 2023, On note que les utilisateurs passent en moyenne 10,5 minutes par session pour trouver quelque chose à regarder, contre seulement 7 minutes en 2019. Qu’en est il exactement ? Jusqu’à présent, le moteur de recherche de Netflix se contentait de vous proposer des titres en fonction de votre historique de visionnage, de vos notes ou des genres que vous aviez l’habitude de regarder. Mais cette nouvelle fonctionnalité basée sur l’Intelligence Artificielle va beaucoup plus loin. Désormais, il sera possible de formuler des requêtes en langage naturel, comme « Je veux une comédie romantique légère pour me détendre » ou « Je cherche un thriller intense avec une fin surprenante ». L’IA interprète alors votre demande, prend en compte votre humeur, vos envies du moment, et vous propose des recommandations sur-mesure, bien plus précises et personnalisées qu’auparavant. Pour l’instant, cette innovation est en phase de test, uniquement sur l’application iOS de Netflix, et seulement en Australie et en Nouvelle-Zélande. Les utilisateurs intéressés doivent choisir de participer à ce test, ce qui garantit un certain contrôle sur la collecte de leurs données. Netflix prévoit d’étendre ces tests aux États-Unis dans les prochaines semaines, mais aucune date n’a encore été annoncée pour la France ou d’autres pays. Patience donc, car la plateforme se veut prudente : « Nous sommes vraiment dans une phase d’apprentissage et d’écoute pour cette version bêta », explique un porte-parole du groupe. Ilana : Mais pourquoi une telle évolution ? Tout simplement parce que le temps passé à chercher un programme à regarder est devenu un vrai casse-tête pour de nombreux abonnés. Avec des milliers de titres disponibles, il n’est pas rare de passer plus de temps à chercher qu’à regarder ! En rendant la recherche plus intuitive, plus naturelle, Netflix espère améliorer la satisfaction de ses abonnés et renforcer leur fidélité. Côté confidentialité, Netflix n’a pas encore détaillé comment les données issues de cette nouvelle fonctionnalité seront utilisées. Mais on peut supposer que les retours des utilisateurs et les requêtes formulées serviront à affiner encore davantage les recommandations. Rassurez-vous, la participation à ce test est volontaire, et vous gardez le contrôle sur votre implication. Il faut rappeler que Netflix n’en est pas à son coup d’essai avec l’intelligence artificielle. Depuis près de 20 ans, la plateforme utilise le machine learning pour affiner ses recommandations. Mais avec cette collaboration avec OpenAI, Netflix franchit un nouveau cap, en rendant la recherche plus humaine, plus conversationnelle, et surtout, plus adaptée à nos envies du moment. Alors, bientôt la fin des soirées passées à zapper sans rien trouver ? Peut-être. En tout cas, Netflix continue d’innover pour nous simplifier la vie… et nous garder devant l’écran un peu plus longtemps.

Et si l’IA gagnait un oscar

2024-07-15· 4:30

Radio J S01E03 - Et si un film créé avec de l’IA gagnait un Oscar Bonjour à toutes et à tous, Aujourd’hui, je vous emmène à Hollywood. Ou plutôt dans les coulisses d’Hollywood, là où on réécrit discrètement les règles du jeu. Car depuis quelques jours, une décision de l’Académie des Oscars pourrait bien changer la manière dont on conçoit – et récompense – les films. Je vous la fais courte : les films utilisant l’intelligence artificielle pourront désormais prétendre à une nomination. Oui, c’est nouveau. Jusqu’ici, on disait plutôt : « l’IA ? Merci, mais non merci ». Désormais, c’est : « OK, mais à condition qu’un humain reste aux commandes ». Ilana : Concrètement, qu’est-ce qui change dans les règles des Oscars ? Eh bien, ce qui change, c’est que l’Académie reconnaît que l’intelligence artificielle fait partie des outils de création d’aujourd’hui. Un scénario coécrit avec ChatGPT ? Pourquoi pas. Une scène générée en image de synthèse grâce à des modèles d’IA ? C’est envisageable. Une voix retravaillée ou même un visage recréé numériquement ? Tant qu’un humain supervise, dirige, ajuste… c’est admissible. Autrement dit : tant qu’on ne laisse pas l’IA écrire, réaliser, monter, et jouer toute seule… on reste dans les clous. Mais vous sentez le glissement, non ? On entre doucement dans une ère de cinéma hybride, entre création humaine et assistance algorithmique. Et cette évolution, elle ne tombe pas du ciel. Elle arrive dans un contexte tendu : après la grève des scénaristes, qui ont justement tiré la sonnette d’alarme sur l’utilisation de l’IA dans l’écriture ; après aussi les expérimentations des studios, qui cherchent à produire plus vite, moins cher… et parfois sans passer par la case humain. Ilana : Est-ce que ça veut dire que demain, on verra un film 100 % IA recevoir une statuette ? Pas encore. Et peut-être jamais, du moins pas avec les règles actuelles. L’Académie insiste : seul un être humain peut recevoir un Oscar. L’IA, elle, peut assister, suggérer, illustrer… mais elle ne peut pas signer. Pour le moment, pas de robot sur scène à la cérémonie. Pas de discours généré automatiquement non plus – quoique, certains l’ont peut-être déjà fait. Mais cette ouverture soulève des questions vertigineuses : qu’est-ce qu’une œuvre originale, à l’heure où l’IA peut synthétiser des styles, recomposer des images, imiter des voix ? À qui appartiennent les droits d’un film co-conçu avec une machine ? Et surtout, comment garantir que la création reste un espace d’expression humaine, et pas juste un produit calibré par un algorithme ? Alors oui, dans les prochaines années, on verra peut-être un film touchant, poignant, intelligent… conçu en partie par une IA… repartir avec une statuette dorée. Et ce jour-là, il faudra surtout saluer le talent de l’équipe humaine derrière l’outil. Parce qu’au fond, ce n’est pas la technologie qui fait un bon film, c’est ce qu’on en fait. Ce n’est pas l’IA qui crée l’émotion, c’est l’intention derrière l’écran. Et puis entre nous, si l’IA peut un jour nous éviter deux ou trois navets en salles chaque année, ce sera déjà un petit miracle. À la semaine prochaine.

Astaroth ou le phishing de plus en plus perfectionné

2024-07-15· 4:30

RadioJ S01E03 Astaroth ou le phishing de plus en plus perfectionné Ilana : Stéphane, aujourd’hui vous nous parlez d’une menace numérique de plus en plus présente : le phishing. Pourquoi devons-nous y faire attention ? Le phishing, c’est quand un pirate se fait passer pour un organisme officiel – votre banque, votre fournisseur d’énergie, ou même les impôts – pour vous voler des informations personnelles. Vous recevez un mail alarmant, vous cliquez sur le lien, vous entrez vos identifiants… et vous venez, sans le savoir, de les remettre à un cybercriminel. Et ce qui est inquiétant, c’est que ces attaques sont de plus en plus perfectionnées. Prenons l’exemple d’Astaroth, une technique de phishing très sophistiquée apparue récemment. Ce n’est plus le petit mail bourré de fautes, comme avant. C’est un kit ultra professionnel, capable de contourner même l’authentification à deux facteurs. Imaginez : vous croyez être sur le site sécurisé de votre banque. L’adresse semble correcte, il y a le cadenas, tout paraît normal. Mais en réalité, vous êtes sur une copie de site presque parfaite, qui enregistre tout ce que vous tapez, en temps réel : vos identifiants, vos mots de passe, et même les codes que vous recevez par SMS. On appelle ça un proxy inversé. Une façade invisible et redoutable. Cela concerne donc tout le monde, qu'on soit expert ou béotien, c’est tellement bien fait que les arnaques se multiplient de façon exponentielle. Ilana : C’est terrifiant. Y a-t-il quand même des signes pour détecter ce genre d’arnaque ? Oui, et heureusement, il existe quelques bons réflexes : D’abord, méfiez-vous des messages urgents : "compte bloqué", "paiement refusé", "problème de sécurité". Les pirates jouent sur la panique. Vérifiez l’adresse de l’expéditeur. Un petit détail peut tout changer : un "connexion-google.com" n’est pas "google.com". Ne cliquez jamais directement sur un lien reçu. Tapez l’adresse du site vous-même sur votre navigateur. Activez l’authentification à deux facteurs. Ce n’est pas une garantie absolue, mais ça bloque déjà pas mal d’attaques. Et utilisez un gestionnaire de mots de passe : ça évite les identifiants recyclés. Si malgré tout vous tombez dans le piège : - Faites opposition immédiatement. - Changez tous vos mots de passe. - Conservez les preuves. - Signalez l’attaque sur signal-spam.fr ou par SMS au 33 700. - Et si besoin, France Victimes peut vous accompagner gratuitement au 116 006. Ilana : Une dernière recommandation ? Oui, une seule : ne vous fiez jamais à l’apparence. Même les mails les mieux imités cachent parfois des pièges redoutables, la précipitation est l’alliée des pirates. Prenez 10 secondes de recul avant de cliquer — ça peut vous éviter des semaines de galère.

Meta AI dans WhatsApp et Instagram, cela change quoi ?

2024-07-08· 4:30

- Meta AI dans WhatsApp et Instagram, cela change quoi ? Bonjour à tous et bienvenue dans notre chronique tech hebdomadaire. Aujourd'hui, plongeons dans l'univers de Meta AI, l'assistant virtuel qui s'invite désormais dans nos conversations sur WhatsApp et Instagram. Depuis le 20 mars 2025, Meta a déployé son assistant IA sur ses principales plateformes, dont WhatsApp et Instagram. Cette intégration marque une nouvelle ère dans notre façon d'interagir avec ces réseaux sociaux populaires. Pour utiliser Meta AI, il suffit de taper "@MetaAI" suivi de votre requête dans une conversation. Que ce soit pour planifier un voyage, trouver une recette ou simplement pour discuter, l'assistant est là pour vous aider. Meta AI offre une multitude de fonctionnalités pratiques : Des Réponses instantanées à vos questions, comme on peut le faire sur ChatGPT, Gemini, Mistral, Grok ou Perplexity. La génération d'images (qui n’est pas encore tout à fait disponible pour tout le monde) L’aide à la planification et à l'organisation La traduction en temps réel Des suggestions de contenu personnalisé Imaginez pouvoir demander des recommandations de restaurants directement dans votre groupe WhatsApp lors de la planification d'une soirée entre amis. Ou encore, obtenir des idées de légendes créatives pour vos posts Instagram en quelques secondes. Les possibilités, vous le voyez, sont vastes. Par exemple, les entreprises peuvent utiliser Meta AI pour améliorer leur service client sur WhatsApp. Les créateurs de contenu sur Instagram peuvent s'en servir pour générer des idées ou optimiser leurs publications. Cependant, l'intégration de Meta AI soulève également des inquiétudes : La confidentialité des données tout d’abord : Les conversations avec Meta AI ne sont pas chiffrées de bout en bout sur Instagram, ce qui pose des questions sur la protection de nos informations personnelles. La fiabilité des réponses : comme tout assistant IA, Meta AI peut parfois fournir des informations inexactes ou trompeuses. Il est crucial de vérifier les informations importantes, surtout en matière de santé ou de finances. Une dépendance accrue qui pourra être excessive : l'omniprésence de l'IA pourrait réduire notre capacité à réfléchir par nous-mêmes ou à interagir authentiquement avec les autres. La propagation de la désinformation : L'IA pourrait potentiellement amplifier la diffusion de fausses informations si elle n'est pas correctement encadrée. Enfin le principal problème à mon humble avis est l’impossibilité de désactiver la fonction. Il n'existe pas d'option, en effet, pour désactiver complètement Meta AI sur WhatsApp, ce qui peut être frustrant pour certains utilisateurs. L'intégration de Meta AI dans WhatsApp et Instagram représente une avancée technologique significative, offrant de nombreuses possibilités d'amélioration de notre expérience utilisateur. Cependant, il est essentiel de rester vigilant quant à la protection de nos données et à la fiabilité des informations fournies. Comme pour toute nouvelle technologie, l'utilisation responsable de Meta AI sera la clé pour en tirer le meilleur parti tout en minimisant les risques potentiels. Restez informés, soyez critiques, et n'hésitez pas à donner votre avis sur cette nouvelle fonctionnalité. A la semaine prochaine

Meta entre intelligence artificielle et tempête judiciaire

2024-07-08· 4:30

RadioJ S01E02 Meta, entre intelligence artificielle et tempête judiciaire Imaginez un monde sans WhatsApp et Instagram, une amie me répondit à ça : « J’aurais une meilleure vie j’en suis sûre ». C’est une semaine décisive pour Meta, qui se retrouve à la croisée des chemins entre innovation technologique et tempête judiciaire. D’un côté, Meta déploie à grande échelle son assistant virtuel Meta AI, de l’autre, Mark Zuckerberg doit défendre son empire devant la justice américaine, accusé d’avoir étouffé la concurrence lors des rachats d’Instagram et WhatsApp. Ilana : Commençons, Stéphane, par la nouveauté qui va impacter des millions d’utilisateurs européens : l’arrivée de Meta AI dans Facebook, Instagram, Messenger et WhatsApp Si vous avez remarqué un petit cercle multicolore dans vos conversations, c’est lui ! Meta AI, c’est l’assistant intelligent qui promet de répondre à toutes vos questions, de rédiger des messages, de vous conseiller en temps réel, et même de vous recommander la meilleure baguette de Paris. Mais pour rendre son IA plus performante, Meta va collecter les posts et commentaires publics de ses utilisateurs européens – à l’exception des messages privés et des données des mineurs. Une notification va bientôt apparaître sur vos applications, vous permettant de refuser cette collecte. Meta insiste sur la transparence de sa démarche, se disant plus respectueux que ses concurrents, et assure que cette collecte “vise à mieux comprendre les subtilités culturelles et linguistiques de chaque pays européen”. Mais cette avancée technologique s’accompagne de questions sur la confidentialité et la sécurité des données. Meta rappelle que l’IA n’accède qu’aux messages explicitement partagés avec elle, et que l’utilisateur garde le contrôle en invitant Meta AI dans ses conversations via la mention @Meta AI. Malgré tout, la vigilance reste de mise : il est conseillé de ne jamais partager d’informations sensibles avec l’assistant, et de bien comprendre les limites de cette nouvelle technologie. Ilana : Pendant que Meta vante les mérites de son assistant intelligent, une autre actualité secoue la Silicon Valley : l’ouverture du procès antitrust à Washington. La Federal Trade Commission, la FTC, accuse en effet Meta d’avoir abusé de sa position dominante en rachetant Instagram en 2012 et WhatsApp en 2014, pour « éliminer la concurrence ». Mark Zuckerberg, appelé à la barre dès le premier jour, doit justifier ces acquisitions, alors même que des e-mails internes révèlent une stratégie assumée de « buy or bury » : acheter ou enterrer toute start-up menaçante. Pour la FTC, Meta a ainsi verrouillé le marché des « réseaux sociaux personnels », empêchant l’émergence de nouveaux acteurs et privant les consommateurs de choix réels. La défense de Meta, elle, s’appuie sur deux arguments : d’abord, ces rachats ont permis à Instagram et WhatsApp de devenir des géants mondiaux grâce aux investissements de Meta ; ensuite, le marché des réseaux sociaux serait bien plus vaste que ne le prétend la FTC, avec des concurrents comme TikTok, YouTube ou même iMessage d’Apple. L’enjeu du procès est colossal : si Meta perd, il pourrait être contraint de se séparer d’Instagram et WhatsApp, ce qui bouleverserait son modèle économique basé sur la publicité et l’accès à 3,3 milliards d’utilisateurs quotidiens. Ce serait un séisme pour l’écosystème numérique mondial, et un signal fort envoyé à tous les géants de la tech. Mais hier, l’audience a pris un tournant décisif. Mark Zuckerberg, lors de son deuxième jour de témoignage, a fait une concession clé : il a reconnu avoir racheté Instagram parce que l’application disposait d’une caméra bien meilleure que celle que Facebook tentait alors de développer. « Nous faisions une analyse build vs buy », a-t-il expliqué, admettant que l’équipe de Facebook avait échoué à créer une application photo convaincante, et qu’Instagram était tout simplement en avance. Cette déclaration renforce la thèse de la FTC, qui accuse Meta d’avoir systématiquement préféré acheter ses concurrents plutôt que d’innover pour les dépasser. Zuckerberg a également reconnu que la plupart des tentatives de Meta pour lancer de nouvelles applications avaient échoué : « Construire une nouvelle application, c’est difficile, et la plupart du temps, ça ne marche pas », a-t-il déclaré devant la cour. Cette franchise, si elle humanise le patron de Meta, alimente aussi l’argument des régulateurs : Meta aurait ainsi pris l’habitude de racheter les innovations qui lui échappaient, plutôt que de risquer de se faire dépasser. Les avocats de la FTC ont ressorti des e-mails internes, dont un fameux message de 2008 où Zuckerberg écrivait déjà : « Il vaut mieux acheter que concurrencer. » D’autres échanges montrent que l’acquisition d’Instagram était vue comme un moyen de « neutraliser » une menace grandissante, Instagram étant alors en pleine ascension sur mobile. En 2022, Zuckerberg évoqua même, voyant la menace de ce procès de ni plus ni moins remettre à zéro nos listes d’amis sur Facebook pour minimiser l’importance des fonctionnalités sociales de ce réseau. Bref cela sentait déjà la panique à bord. En coulisses, Mark Zuckerberg a multiplié les efforts pour influencer la sphère politique, espérant un assouplissement de la régulation avec le retour de Donald Trump à la Maison Blanche. Mais la FTC, désormais dirigée par Andrew Ferguson, affiche sa détermination à ne pas laisser émerger un nouveau monopole, quelle que soit la couleur politique de l’administration. Entre avancées technologiques et bataille judiciaire, Meta joue son avenir sur tous les fronts. L’issue de ce procès pourrait bien redéfinir la place des géants de la tech dans nos vies numériques, et la façon dont l’innovation s’impose – par la création, ou par l’acquisition..

OpenAI lance ChatGPT-4o mini

2024-07-01· 4:30

RadioJ S01E02 OpenAI lance ChatGPT-4o mini Aujourd'hui, je vais vous parler d’une avancée majeure dans le domaine de l'intelligence artificielle. OpenAI vient de dévoiler son dernier modèle : le GPT-4o mini. Ce nouveau modèle promet de rendre l'intelligence artificielle plus accessible et plus abordable que jamais. Le GPT-4o mini se distingue par son efficacité et son coût réduit. En effet, il est proposé à seulement 15 cents par million de tokens en entrée et 60 cents par million de tokens en sortie. Cela représente une réduction de plus de 60% par rapport au GPT-3.5 Turbo et le rend dix fois plus abordable que les modèles de pointe précédents. Il est important de noter que GPT-4o mini s'inscrit dans un paysage compétitif en constante évolution. Parmi les grands acteurs de ce domaine, nous trouvons Gemini Advanced de Google, Mistral en France, Claude porté par Amazon et Grok sur X. Chacun de ces concurrents apporte ses propres innovations et atouts. Gemini Advanced de Google est réputé pour son intégration fluide avec les services de Google, offrant une capacité de recherche et de traitement de données exceptionnellement puissante. Mistral, la pépite française, se distingue par son accent sur la sécurité des données et la conformité aux régulations européennes strictes. Claude, soutenu par Amazon, bénéficie d'une infrastructure cloud robuste, facilitant l'intégration à grande échelle. Grok, créé par Elon Musk, mise sur une approche audacieuse et innovante, en se concentrant sur l'optimisation des tâches complexes et des interactions en temps réel. Avec la rentrée 2024, nous entrons dans une ère où l'intelligence artificielle pourrait transformer radicalement nos habitudes quotidiennes. Le geste de chercher des informations sur Google, autrefois un réflexe, pourrait bien être remplacé par l'utilisation d'outils d'IA tels que GPT-4o mini. Ce modèle offre non seulement une recherche rapide et précise, mais aussi des capacités de traitement et d'interaction bien au-delà de ce que les moteurs de recherche traditionnels peuvent offrir. ChatGPT-4o mini ne se contente pas de traiter du texte ; bientôt il prendra en charge les entrées et sorties en image, vidéo et audio. Il est parfaitement équipé pour gérer des tâches complexes et volumineuses, comme l'analyse de bases de code entières ou l'interaction en temps réel avec des clients via des chatbots. La sécurité n'a pas été négligée. OpenAI a intégré des mesures de sécurité robustes dès la conception du modèle, avec des techniques telles que l'apprentissage par renforcement avec retour humain pour garantir des réponses précises et fiables. Plus de 70 experts externes ont contribué à évaluer et améliorer la sécurité du GPT-4o mini, garantissant ainsi une utilisation sûre et conforme aux politiques de l'entreprise. OpenAI nivelle le terrain pour le développement de l'IA avec le lancement de GPT-4o Mini, une version plus petite et significativement plus abordable de son puissant modèle de langage. Cette nouvelle offre vise à donner du pouvoir aux développeurs qui étaient auparavant exclus de l'utilisation de modèles plus grands comme GPT-4 en raison de coûts prohibitifs. Le coût élevé de la construction d'applications d'IA avec les modèles de taille complète d'OpenAI a été une barrière significative pour de nombreux développeurs. Cela a conduit certains à se tourner vers des alternatives moins chères comme Gemini 1.5 Flash de Google et Claude 3 Haiku d'Anthropic. Reconnaissant ce besoin d'une plus grande accessibilité, OpenAI propose maintenant une option plus économique. GPT-4o Mini, disponible pour les utilisateurs de ChatGPT sur les plans Free, Plus et Team dès aujourd'hui, offre des capacités supérieures à GPT-3.5 tout en restant significativement moins cher à exploiter. Il sera également accessible aux développeurs via l'API d'OpenAI, offrant un support pour le traitement du texte et de la vision, avec des plans d'extension aux entrées et sorties multimodales comme la vidéo et l'audio dans un avenir proche. Bien que le GPT-4o Mini soit conçu pour des tâches plus simples, ses performances sont impressionnantes. Il a obtenu un score de 82% sur le benchmark MMLU, surpassant le score de 70% de GPT-3.5 et rivalisant avec les scores des modèles légers concurrents comme Claude 3 Haiku et Gemini 1.5 Flash. OpenAI a démontré le potentiel du GPT-4o Mini à travers des partenariats avec la startup fintech Ramp et le client de messagerie Superhuman. Ramp a utilisé le modèle pour construire un outil de numérisation de reçus qui extrait les données de dépenses à partir d'images, tandis que Superhuman l'a exploité pour créer une fonctionnalité de suggestion de réponse par email alimentée par l'IA. ChatGPT-4o mini marque une étape importante vers une intelligence artificielle plus accessible et plus intégrée dans nos vies quotidiennes. Avec des coûts réduits et des capacités améliorées, il ouvre la voie à de nouvelles applications innovantes et à une adoption plus large de l'IA. Cette rentrée, nous assistons à un véritable bouleversement technologique où l'IA remplace progressivement les outils traditionnels de recherche et d'information. Chers auditeurs, préparez-vous à voir l'intelligence artificielle non seulement simplifier vos tâches quotidiennes, mais aussi transformer votre manière d'interagir avec le monde numérique. Restez à l'écoute pour découvrir comment cette technologie révolutionnaire continuera de façonner notre futur.

Wiz, un rachat historique par Google

2024-07-01· 4:30

RadioJ S01E01 Wiz, un rachat historique par Google Lancement Ilana : présentation de la chronique. Bonjour à toutes et à tous, je suis ravi de pouvoir décrypter les grandes actualités de la planète tech avec bien entendu l’intelligence artificielle en toile de fond. Aujourd’hui, focus donc sur une acquisition qui fait trembler le monde de la tech tout entier : Google a racheté Wiz, une start-up israélienne spécialisée dans la cybersécurité cloud, pour 32 milliards de dollars. Ce montant record en fait la plus grosse acquisition jamais réalisée par le géant californien. Ilana : Qu'est-ce qui fait d'Israël un terreau si fertile pour les start-ups technologiques, en particulier dans le domaine de la cybersécurité ? Wiz, a été fondée en 2020, s’est imposée en un temps record comme un leader dans la sécurisation des infrastructures cloud. Avec l’explosion des données et des menaces numériques, cette expertise est devenue incontournable. Google renforce ainsi sa position face à ses rivaux comme Amazon et Microsoft. De numéro 3, ils deviennent les numéros 1 mondiaux. Mais ce rachat dépasse la simple compétition : il reflète une volonté de sécuriser l’avenir numérique à l’heure où l’intelligence artificielle et le cloud redéfinissent nos usages. Pour mieux comprendre l’ampleur de cette opération, revenons sur un autre rachat marquant de Google : celui de YouTube en 2006 pour 1,65 milliard de dollars. À l’époque, ce montant semblait colossal pour une plateforme encore jeune et non rentable. Quinze ans plus tard, YouTube génère des milliards de dollars chaque mois et représente près de 11 % des revenus d’Alphabet, la maison-mère de Google. Ce pari visionnaire a transformé la manière dont nous consommons du contenu vidéo. Avec Wiz, Google semble réitérer cette stratégie : investir massivement aujourd’hui pour dominer un secteur clé demain. Cependant, toutes les acquisitions de Google n’ont pas été aussi réussies. En 2012, le géant avait déboursé 12,5 milliards de dollars pour Motorola, espérant renforcer sa position dans le mobile. Mais cette opération s’est avérée moins stratégique : Google a revendu Motorola à Lenovo deux ans plus tard pour seulement 3 milliards, ne conservant que les brevets acquis dans l’opération. Cette comparaison souligne que chaque acquisition est un pari, avec des résultats incertains. Ce rachat met également en lumière le rôle central d’Israël dans l’innovation technologique mondiale. Après des succès tels que Mobileye, vendu à Intel pour 15 milliards de dollars, ou encore Waze, acquis par Google pour 1 milliard de dollars, Wiz confirme qu’Israël est un véritable incubateur de futurs géants technologiques. Ilana : Quelles leçons l'Europe pourrait-elle tirer de l'écosystème start-up israélien pour renforcer sa propre compétitivité technologique ? Avec Wiz, Google ne se contente pas d’une acquisition record : il s’offre une place au premier rang du futur numérique sécurisé, où Israël sera donc sa plaque tournante. Ce mouvement stratégique rappelle que les grandes entreprises ne se contentent pas de suivre les tendances technologiques : elles les façonnent au contraire de l’Europe qui ne fait elle que réguler. En effet, l’Europe peine encore à rivaliser sur ce terrain. Les entreprises européennes investissent peu dans les start-ups israéliennes ou manquent souvent d’agilité face aux acteurs américains ou chinois.

S06EXX – Radio J – Chronique Tech IA : l’industrie invisible qui consomme notre énergie… et notre eau

2024-01-01· 4:30

S06E23 – Radio J – Chronique Tech IA : l’industrie invisible qui consomme notre énergie… et notre eau Ilana (introduction) Bonjour Stéphane. Cette semaine, vous voulez parler d’un angle mort de l’intelligence artificielle : ce qu’elle consomme réellement. Pas en « pixels », mais en ressources physiques. Stéphane Exactement. On continue à parler de l’IA comme d’un logiciel. En réalité, c’est devenu une industrie lourde, avec des usines : les data centers. Et ces usines ont deux besoins critiques : l’électricité… et l’eau. Commençons par l’électricité. L’IA moderne, ce sont des grappes de GPU qui tournent 24h/24. Ça ne ressemble pas à un PC plus puissant : ça ressemble à une sidérurgie numérique, avec des besoins de puissance continus, des systèmes redondants, des groupes électrogènes, et des contraintes réseau. Les ordres de grandeur ont changé. En 2024, plusieurs analyses situent déjà les data centers autour de 4% de la consommation électrique américaine. Et les projections convergent : d’ici 2030, on parle de chiffres pouvant monter jusqu’à ~9% dans certains scénarios. Et au niveau mondial, l’Agence internationale de l’énergie projette un doublement de la consommation électrique des data centers d’ici 2030, autour de 945 TWh dans son scénario de référence. Pourquoi c’est important ? Parce que le débat public parle « innovation », alors que les opérateurs de réseau, eux, parlent « risque de tension », surtout l’hiver, quand la demande explose déjà. Les autorités de fiabilité électrique en Amérique du Nord alertent d’ailleurs sur des marges qui se réduisent, dans un contexte où les data centers deviennent un moteur majeur de la hausse. Ilana (relance 1) Et c’est là qu’arrivent les méga-projets d’infrastructures, type « Stargate », dont on entend beaucoup parler ? Stéphane Oui. Et il faut remettre les chiffres au bon niveau. Dans plusieurs enquêtes, « Stargate » est décrit comme l’idée d’un supercalculateur distribué, un réseau de très gros sites, avec une puissance électrique qui se compterait en gigawatts. Une estimation marquante parle d’environ 5 GW pour l’ensemble — ce qui correspond grosso modo à la production de plusieurs centrales nucléaires. Ce qui est frappant, c’est que ce n’est pas un sujet « tech ». C’est un sujet de politique énergétique et industrielle : où produire, comment raccorder, avec quelles sources, et qui paie les renforcements de réseau. Et quand la demande accélère, on voit aussi des effets secondaires : par exemple une ruée vers des capacités pilotables, parfois fossiles, pour sécuriser l’alimentation de ces sites. Mais l’électricité n’est que la partie visible. Le vrai angle mort, c’est l’eau. Ilana (relance 2) Pourquoi l’eau devient un sujet aussi central, alors qu’on parle de « cloud » et d’immatériel ? Stéphane Parce qu’un data center ne s’arrête pas sur un bug : il s’arrête sur une surchauffe. Et refroidir des salles pleines de serveurs haute densité, ce n’est pas un détail. Selon les technologies, on utilise des systèmes où l’eau sert directement ou indirectement à évacuer la chaleur. Et plus on densifie pour l’IA, plus le refroidissement devient une contrainte majeure. Là aussi, les ordres de grandeur sont concrets : des organismes et synthèses américaines rappellent que la consommation d’eau des data centers, agrégée, devient significative, et surtout très problématique localement. Le point clé : ce n’est pas “l’eau mondiale”, c’est l’eau d’un territoire, d’un bassin, d’une ville. Et sur ce plan, plusieurs enquêtes récentes sont brutales : une part importante des data centers — ou des nouveaux projets — se retrouve dans des zones déjà sous stress hydrique. Par exemple, des analyses citées ces derniers mois évoquent que deux tiers des nouveaux data centers américains depuis 2022 sont situés dans des zones à fort stress hydrique. D’autres travaux, basés sur de grands échantillons, trouvent des niveaux comparables d’exposition : autour de 40% dans des zones très stressées, selon des cartographies et permis analysés. Et il y a des cas emblématiques : en Oregon, autour de The Dalles, la question de l’eau et de la transparence sur les volumes liés aux extensions de sites a cristallisé des tensions. À l’international, la polémique existe aussi, comme en Uruguay, où un projet a été vivement contesté dans un contexte de sécheresse. Ilana (relance 3) Est-ce que tous les pays suivent la même trajectoire : toujours plus gros, toujours plus énergivore ? On entend souvent que la Chine miserait davantage sur l’optimisation. Stéphane Il y a deux logiques qui s’affrontent. La logique « Occident » aujourd’hui, c’est souvent : échelle, capex, gigawatts, et course à la puissance brute, parce que les modèles géants donnent un avantage produit et un avantage de plateforme. Et puis il y a une logique « sobriété relative » : modèles plus petits, spécialisés, compression, efficacité, et optimisation de l’inférence. Ce n’est pas une posture morale : c’est une stratégie de contrainte. Parce que l’eau et l’électricité deviennent des variables géopolitiques, et même des variables d’acceptabilité sociale. La conclusion est simple : l’intelligence artificielle n’est pas virtuelle. Elle est matérielle, territoriale, et elle a un coût physique par requête. Tant qu’on parlera d’IA sans parler d’électricité, de refroidissement, d’eau, et d’infrastructures, on fera un débat incomplet — et on laissera les choix structurants se faire hors micro. A la semaine prochaine !

S06EXX - RadioJ - Chronique Tech - Decart – La plateforme qui veut pulvériser YouTube, Netflix et TikTok

2024-01-01· 4:30

S06 E03 - RadioJ - Chronique Tech - Decart – La plateforme qui veut pulvériser YouTube, Netflix et TikTok Rudy : « Ce matin, Stéphane, vous nous parlez d’une start-up israélienne qui affiche une ambition XXL : remplacer YouTube, Netflix… et TikTok. Elle s’appelle Decart. C’est sérieux, ou c’est un rêve de start-up ? » Bonjour à toutes et à tous. Ce n’est pas un rêve, c’est un plan de bataille. Quand on connaît la houtspa, on ne peut pas être étonné de ce que Decart, une jeune société israélienne déjà valorisée à plus de 3 milliards de dollars, veut être. Sans sourciller elle annonce clairement la couleur : “On ne veut pas travailler avec les géants, on veut les remplacer.” Pas de partenariat, pas d’intégration. Ils veulent que, dans quelques années, YouTube et Netflix fassent figure d’anciens combattants du web. Rudy : « Mais enfin, qu’est-ce qu’ils peuvent offrir que ces géants ne font pas déjà ? » Deux armes fatales : Oasis et Mirage. Oasis, c’est un moteur vidéo capable de créer des environnements entiers en temps réel, sur simple commande. Imaginez un jeu, un concert, un reportage, et que le décor change instantanément : un stade de foot devient une cité futuriste, une salle de classe se transforme en Rome antique… et tout ça, en direct. Mirage, c’est encore plus bluffant : vous prenez une vidéo en live et vous la transformez à la volée. Pas un filtre Instagram, pas un montage : une vraie métamorphose visuelle en 100 millisecondes, à 20 images par seconde. Comme si vous aviez un studio de cinéma dans votre poche. Rudy : « Donc on ne se contente plus de regarder… on joue avec la vidéo ? » Exactement. C’est le passage de la vidéo “figée” à la vidéo “vivante”. Sur YouTube, TikTok, Netflix, vous êtes spectateur. Avec Decart, c’est un peu je regarde donc je suis, vous devenez co-réalisateur, sans savoir monter, sans savoir coder. Vous parlez, vous tapez une commande, et l’image change sous vos yeux. Et les usages sont énormes : Un prof d’histoire peut faire voyager sa classe à travers les époques sans quitter la salle. Un influenceur peut transformer un simple live en expérience immersive pour chaque spectateur. Un vendeur en ligne peut montrer un produit dans dix contextes différents en moins d’une minute. On ne consomme plus une vidéo, on la vit. On pourrait même changer des fins de film, par exemple Meryl Streep ouvrant la porte de la voiture dans Sur La Route de Madison pour rejoindre Clint Eastwood ou Kolo Muani qui marque le 4ème but contre l’Argentine en finale de Coupe du Monde. Bon je m’emballe un peu. Rudy : « Impressionnant… mais à ce rythme-là, est-ce que la technologie tient ? » C’est là que Decart frappe fort : derrière, ce sont des ingénieurs formés dans l’unité 8200, le Mossad du numérique israélien. Ils ont optimisé l’IA pour que ça tourne presque sans latence, à un coût imbattable : moins de 25 centimes par minute de vidéo. Résultat : c’est fluide, c’est scalable, et ça ne nécessite pas un budget de production hollywoodien. Rudy : « Mais entre l’idée de remplacer YouTube ou Netflix, il y a un océan… » Oui, et Decart le sait. Leur pari, c’est d’attirer d’abord les créateurs. Car là est la clé : si les artistes, les profs, les marques, les gamers s’installent chez eux, le public suivra. TikTok a mis moins de trois ans à s’imposer face à Instagram en partant de rien. Et Decart a un argument massue : ailleurs, la vidéo est statique ; chez eux, elle se réinvente en temps réel. C’est comme passer de la photo au cinéma… sauf que cette fois, le spectateur tient la caméra. Rudy : « Donc pour vous, ils peuvent vraiment changer la donne ? » Si Decart réussit, ce sera un changement de paradigme. On passera d’un modèle où l’on consomme un contenu… à un modèle où chacun peut le remodeler à volonté. Et ça, c’est exactement ce qui pourrait faire vaciller même les géants établis. En résumé, Decart ne promet pas seulement de remplacer YouTube, Netflix et TikTok… Ils promettent de changer notre rapport à la vidéo. Et dans un monde où l’attention est une bataille mondiale, offrir au public le pouvoir de transformer ce qu’il regarde pourrait bien être l’arme ultime. A la semaine prochaine !

S06EXX – Radio J – Chronique Tech Quand une partie de la tech tourne le dos à la démocratie

2024-01-01· 4:30

S06E24 – Radio J – Chronique Tech Quand une partie de la tech tourne le dos à la démocratie lana : Bonjour Stéphane. Cette semaine, une phrase choc tirée d’une interview de la journaliste Raphaëlle Bacqué dans Le Point : “une partie des élites de la tech ne croit plus à la démocratie”. C’est une provocation pour faire vendre du papier, ou c’est un constat sérieux ? Stéphane : Bonjour Ilana. C’est un constat très sérieux, et je dirais même que c’est l’un des enjeux politiques majeurs de notre décennie. On a longtemps vu la tech comme un simple “secteur économique”. C’était une erreur. Aujourd’hui, la tech est un pouvoir. Un pouvoir qui n’est pas seulement économique, mais politique, idéologique, et qui concurrence directement les États. Ce n’est plus l’histoire de start-ups sympathiques dans des garages. C’est l’histoire d’infrastructures privées (nos réseaux sociaux, nos clouds, nos IA) qui gouvernent la place publique, l’accès à l’information et même le déroulement des conflits. La question n’est plus si elles ont un pouvoir, mais comment elles l’utilisent. Ilana : Un pouvoir qui concurrence les États, c’est très fort. Est-ce qu’on a des exemples concrets, qui vont au-delà de la simple modération sur les réseaux sociaux ? Stéphane : Absolument. L’exemple le plus frappant et le plus récent, c’est ce qui se passe aux États-Unis depuis la réélection de Donald Trump. Il a créé une commission spéciale, le DOGE (Department of Government Efficiency), pour démanteler ce qu’il appelle “l’État profond”. Et qui a-t-il mis à sa tête ? Elon Musk et Vivek Ramaswamy. On a donc le patron de X, Tesla et Starlink qui a un mandat officiel pour réformer l’administration américaine. C’est une fusion quasi-inédite entre un pouvoir technologique privé et l’appareil d’État. Autre exemple : la guerre en Ukraine. L’accès à internet pour l’armée ukrainienne dépend en grande partie des satellites Starlink, qui appartiennent à Musk. À plusieurs reprises, il a menacé de couper ou restreint l’accès pour influencer des opérations militaires. Un seul homme, par une décision privée, peut donc changer le cours d’une guerre. C’est une prérogative de chef d’État, pas de chef d’entreprise. Ilana : C’est vertigineux. On a l’impression que ces patrons de la tech se voient comme des leaders mondiaux. Est-ce qu’il y a une idéologie derrière ça, une doctrine qui justifie cette prise de pouvoir ? Stéphane : Oui, et elle est de plus en plus décomplexée. Le parrain intellectuel de ce mouvement, c’est Peter Thiel, le co-fondateur de PayPal et l’un des premiers investisseurs de Facebook. En 2009, il a écrit une phrase qui est devenue un manifeste : “Je ne crois plus que liberté et démocratie soient compatibles.” Cette idée, autrefois marginale, infuse aujourd’hui une partie de la Silicon Valley. C’est un courant qu’on appelle la “Dark Enlightenment” (les sombres Lumières) ou le mouvement néo-réactionnaire. Pour eux, la démocratie est lente, inefficace, irrationnelle. Ils lui préfèrent une sorte de “techno-monarchie” ou de “gouvernement-entreprise” dirigé par une élite éclairée… c’est-à-dire eux-mêmes. Ils ne cherchent plus à convaincre la démocratie, mais à la contourner, à la rendre obsolète par la technologie. Ilana : Face à cette offensive, que fait-on ? Est-ce qu’on est juste des spectateurs impuissants ? L’Europe, par exemple, a tenté de réagir avec des lois comme le DSA (Digital Services Act). Stéphane : C’est exactement la bonne question. L’Europe est le seul acteur qui tente de construire une digue. Le DSA est une arme cruciale, car il part du principe que les grandes plateformes ne sont pas des entreprises comme les autres. Elles créent des “risques systémiques” pour la société (désinformation, haine en ligne, etc.) et doivent donc être auditées et régulées comme telles. C’est une tentative de reprendre le contrôle politique. Mais le rapport de force est brutal. L’Europe régule, mais elle ne produit que très peu de ces technologies stratégiques. On régule des géants américains ou chinois. L’alerte de fond, c’est celle de la souveraineté. Sans autonomie technologique, notre souveraineté politique et démocratique est menacée. Ilana : Alors, la phrase à retenir de cette chronique ? Stéphane : La tech n’est plus un outil, c’est une force politique. Et une partie de ses élites ne se contente plus d’ignorer la démocratie : elle la considère activement comme un obstacle à abattre. A la semaine prochaine !