Si le journalisme n'est rien de plus qu'un nouvel exercice de collecte d'informations pour des systèmes qui transforment cette récolte en ce produit appelé "contenu personnalisé",Si le journalisme n'est rien de plus qu'un nouvel exercice de collecte d'informations pour des systèmes qui transforment cette récolte en ce produit appelé "contenu personnalisé",

[Dans les coulisses] Confronter le moment Oppenheimer du journalisme

2025/12/14 11:00

Au cours du week-end, Nieman Labs — connu pour ses reportages sur l'intersection de la technologie et du journalisme — a publié une série de prédictions stimulantes pour le journalisme en 2026. 

Plusieurs d'entre elles ont provoqué une agitation parmi les journalistes philippins. Parmi celles-ci, l'une déclarait : "Désolé, l'article explicatif est mort", et une autre prédisait l'émergence d'un nouveau type de journalisme — "un qui n'est pas destiné aux personnes, mais explicitement adapté aux compilateurs de langage et d'information des machines". 

L'auteur du premier article d'opinion disait essentiellement que, comme les gens se tournent vers l'IA pour des choses comme les explications et le contenu intemporel, ces éléments n'ont plus d'importance. Ce qui fonctionne ? L'auteur affirme que ce sont les fondamentaux : les actualités hyperlocales, les dernières nouvelles, les scoops, les récits à la première personne notables et le journalisme d'investigation. "L'IA", selon l'expert, "ne peut pas ou ne veut pas résumer ces informations car elles sont trop récentes ou trop uniques."

L'auteur qui a parlé du journalisme pour les Agents d'IA a quant à lui noté que "les systèmes d'IA n'ont pas besoin d'accroches, de paragraphes de synthèse ou de flux narratifs ; ils ont besoin de contenu pertinent pour l'utilisateur, nouveau et lisible par la machine". 

Le rôle du journalisme pour les Agents d'IA, a-t-il précisé, était d'écrire les cinq W, les citations, le contexte et les liens vers du contenu multimédia. Tous ces éléments, a noté l'auteur, sont ensuite assemblés et personnalisés au moment de la livraison, en fonction de ce qui convient à l'utilisateur final. 

Ces deux articles m'ont troublée. En y réfléchissant davantage maintenant, je réalise que c'est parce que ces observations, bien que sombres, sont vraies dans une certaine mesure. 

En fait, ce qui m'a le plus troublée, c'est que ces articles n'allaient pas vraiment assez loin. Et ils n'ont pas approfondi les solutions réelles aux défis existentiels auxquels les salles de rédaction du monde entier sont confrontées aujourd'hui. 

Bonjour ! Je suis Gemma Mendoza, responsable des services numériques et chercheuse principale sur la désinformation et les plateformes chez Rappler. 

Depuis le lancement de Rappler, j'ai travaillé en étroite collaboration avec nos équipes techniques et de données dans la conception et le développement de systèmes et de plateformes qui produisent du contenu à grande échelle en utilisant des données. Ces projets vont des pages de résultats électoraux hautement interactives que nous avons lancées chaque année d'élection depuis 2013 à notre chatbot Rai, alimenté par GraphRAG.

Je dirige également nos recherches sur la désinformation et la haine sur les plateformes, qui ont commencé lorsque nous avons observé des changements dans les algorithmes de Facebook à l'approche des élections de 2016. 

Comme mentionné précédemment, je suis d'accord avec de nombreux points soulevés par les auteurs des articles de NiemanLab. Par exemple, en effet, une meilleure architecture sémantique aidera ces grands modèles de langage à mieux faire remonter l'information. Chez Rappler, nous avons travaillé sur notre propre graphe de connaissances avant de développer notre chatbot Rai.

Mais je veux parler des choses troublantes que nous avons observées en travaillant sur les systèmes d'IA et leur impact sur notre propre plateforme. 

L'auteur du premier article que j'ai mentionné se trompe lorsqu'elle dit que l'IA ne peut pas résumer des informations uniques. Ce n'est pas vrai. 

Si vous les laissez faire, les systèmes d'IA peuvent facilement résumer du contenu unique. En fait, même si vous leur dites explicitement de ne pas le faire, ils trouveront un moyen de le faire.  

Nous le savons parce que nous avons observé les bots d'IA qui ont exploré et récolté du contenu sur le site web de Rappler. Nous savons que malgré les restrictions imposées par les règles de notre site web sur l'extraction par l'IA, ces chatbots continuent joyeusement à produire des données et du contenu que l'équipe de Rappler a péniblement recueillis. 

Dans un cas, ChatGPT a instantanément fourni des informations détaillées sur les conclusions d'un rapport rédigé par notre journaliste universitaire sur une dynastie bien établie dans la région de Bicol qui a dépensé environ un million de pesos en publicités sur les réseaux sociaux pour attaquer ses rivaux. Les informations utilisées pour cette histoire ont été péniblement rassemblées pendant plusieurs mois par un journaliste étudiant qui a participé à notre programme de bourse. (Voir la capture d'écran ci-dessous.)

Toute personne familière avec les systèmes évolutifs vous dira que si un moteur de recherche interroge une base de données pour la première fois, il y aura un décalage dans la livraison. Même le moteur de recherche de Google a besoin de temps pour traiter et indexer les informations. Sur la base de sa réponse instantanée, ChatGPT avait clairement l'article entier dans sa propre base de données, avant même que nous ne l'interrogions. 

Ce n'est pas le seul contenu unique publié par Rappler que le bot a exploité. 

Lorsque nous avons ajouté des restrictions d'extraction par l'IA à notre fichier robots.txt, ChatGPT a reconnu qu'il était conscient de ces restrictions. Cependant, il a quand même trouvé un moyen d'utiliser notre contenu, initialement en prétendant qu'il utilisait des sources publiquement disponibles ou en référençant d'autres sites qui ont également extrait et synthétisé notre contenu — également sans permission. (Voir ci-dessous.)

Mon point est que nous parlons déjà aux machines. Nous le faisons depuis un certain temps. Ce n'est pas nouveau.

C'est ce que nous faisons chaque fois que nous modifions la façon dont nous écrivons nos histoires et nos légendes sur les réseaux sociaux pour nous conformer aux mises à jour des algorithmes de Facebook et de Google. Nous facilitons la compréhension de notre contenu par ces machines, ainsi que l'utilisation et la monétisation de ce que nous avons recueilli, écrit et produit. 

Au fil des ans, on nous a dit que l'ajout de microtags aux histoires aiderait à mieux faire remonter notre contenu. Et nous l'avons fait. La question est vraiment de savoir si les salles de rédaction et les journalistes devraient continuer dans cette direction.

C'était autrefois une relation symbiotique. L'optimisation pour ces plateformes récompensait Rappler avec un trafic substantiel, nous permettant de nous développer. 

Maintenant, avec l'IA, nous sommes à nouveau poussés à "optimiser" — cette fois, pour les moteurs de réponse. 

Mais voici le dilemme : ces systèmes désormais "agentiques" sont des bêtes totalement différentes. Ce sont des machines affamées d'informations qui veulent tout savoir. 

Contrairement aux bibliothécaires serviables, ils extraient de manière parasitaire — sans demander la permission — et sucent le jus du contenu dont ils se nourrissent.

Et ils ne veulent pas payer pour ce contenu. Croyez-moi, nous avons demandé.

OpenAI a payé une poignée d'éditeurs. Aucun d'entre eux (toujours) ne vient du Sud global.

Et le problème est que ces chatbots s'adressent à un public qui est de plus en plus conditionné comportementalement vers la gratification instantanée. Ces audiences ne cliquent pas sur ces liens si subtilement placés dans les réponses générées par l'IA. Souvent, elles ne vérifient même pas si les liens sont réels. 

Et les chiffres le montrent. Le trafic que même les plus grands éditeurs de presse obtiennent de ces systèmes parasites est carrément pitoyable.

Ce qui est pire, c'est que les journalistes, et l'industrie de l'information elle-même, ne prennent pas cela suffisamment au sérieux. Certains grands réseaux médiatiques prennent ce qu'ils peuvent en concluant des accords avec les plateformes d'IA. D'autres qui ont moins d'influence s'estompent impuissamment en marge. 

Comme l'a souligné un autre article de la série NiemanLab : "Nous n'apprenons pas du passé. Au lieu de cela, nous abordons cette nouvelle ère de l'IA générative comme nous l'avons fait avec les plateformes."

Si cela continue, l'auteur a dit, "Nous garantissons la mort de la plupart des salles de rédaction restantes."

Je suis d'accord. 

C'est le moment Oppenheimer du journalisme. 

La question est la suivante : Les journalistes et les salles de rédaction doivent-ils succomber à cette directive une fois de plus, corps et âme comme nous l'avons fait avec les médias sociaux ? 

La question ici est : Le public que nous servons bénéficie-t-il finalement si nous continuons sur cette voie de reddition aux plateformes ? Ou — pour leur bien et le nôtre — devrions-nous résister et tracer une voie alternative, qui n'est pas parasitaire mais se concentre sur l'atteinte d'une symbiose ? 

Si le journalisme n'est rien de plus qu'un nouvel exercice de récolte d'informations pour des systèmes qui transforment cette récolte en ce produit appelé "contenu personnalisé", que devient son âme et sa mission ?

Ces questions doivent être confrontées non seulement par nous, journalistes, mais aussi par les citoyens qui croient que le journalisme indépendant doit survivre en tant que contrôle du pouvoir, des abus et de la corruption. 

Nous avons besoin de communautés de soutien pour collaborer avec nous dans ce voyage. 

Au cours des dernières années, Rappler a construit une plateforme mobile qui vous permettra de converser directement avec nous et avec le reste de notre communauté d'une manière sûre et libre de manipulation.  

Nous avons également commencé à travailler avec d'autres salles de rédaction aux Philippines et dans la région de l'ASEAN pour construire une approche ascendante de la circulation des nouvelles — une voie plus durable pour développer l'audience et les revenus au-delà des algorithmes capricieux des grandes technologies.

Si vous ne l'avez pas encore fait, téléchargez nos applications mobiles et abonnez-vous à nos newsletters afin que vous puissiez avoir cette ligne directe avec nous.

Si vous ne l'avez pas encore fait, veuillez envisager de vous inscrire à Rappler Plus, notre programme d'adhésion premium. Et s'il vous plaît, aidez-nous à convaincre d'autres personnes.

Nous avons besoin de vous pour nous aider à affronter le moment Oppenheimer du journalisme. 

Aidez-nous à tracer ces voies pour conserver notre agence afin que nous puissions maintenir notre mission dans ce monde d'IA générative. – Rappler.com

Clause de non-responsabilité : les articles republiés sur ce site proviennent de plateformes publiques et sont fournis à titre informatif uniquement. Ils ne reflètent pas nécessairement les opinions de MEXC. Tous les droits restent la propriété des auteurs d'origine. Si vous estimez qu'un contenu porte atteinte aux droits d'un tiers, veuillez contacter service@support.mexc.com pour demander sa suppression. MEXC ne garantit ni l'exactitude, ni l'exhaustivité, ni l'actualité des contenus, et décline toute responsabilité quant aux actions entreprises sur la base des informations fournies. Ces contenus ne constituent pas des conseils financiers, juridiques ou professionnels, et ne doivent pas être interprétés comme une recommandation ou une approbation de la part de MEXC.