Pendant plus de deux décennies, le web s’est structuré autour d’un pacte implicite mais efficace : les internautes accédaient gratuitement à des contenus variés – articles, tutoriels, vidéos, forums – en échange d’un peu de leur attention, monétisée par la publicité. Ce modèle, hérité de la presse et adapté à l’ère numérique, reposait sur une chaîne de valeur relativement stable : les créateurs de contenu (éditeurs, blogueurs, plateformes collaboratives…) publiaient des pages optimisées pour le référencement, les moteurs de recherche comme Google jouaient le rôle d’intermédiaires techniques, et les utilisateurs, en cliquant sur les liens affichés, assuraient la circulation de l’audience et la génération de revenus. Ce trafic organique, souvent qualifié de « gratuit », était en réalité le nerf de la guerre : il déterminait la visibilité, la rentabilité, et in fine, la viabilité du média.
Or, cette mécanique est aujourd’hui menacée par un changement de paradigme technologique : l’émergence des agents conversationnels et des moteurs de réponse automatisés, capables de résumer, reformuler ou réécrire les contenus existants sans rediriger l’utilisateur vers la source. Le web devient un gisement de matière première pour des intelligences artificielles qui extraient l’information sans contrepartie. Dans ce nouveau paysage, la valeur ne réside plus dans le clic, mais dans la réponse immédiate – souvent générée sans que l’internaute ne voie jamais la page d’origine.
Ce bouleversement remet en cause l’un des piliers économiques du web.
C’est ce que nous examinerons dans notre série de juillet.
Historiquement, les moteurs de recherche – Google en tête – constituaient l’infrastructure centrale de distribution du trafic sur le web. Ils jouaient un rôle de courroie entre les internautes et les producteurs de contenus, acheminant un flux d’audience dit “qualifié” vers les sites répondant aux intentions de recherche. Ce modèle reposait sur une dynamique relativement stable : pour deux pages indexées, un clic était généré. Autrement dit, les éditeurs pouvaient raisonnablement espérer qu’un internaute sur deux finisse par visiter leur site après une recherche.
Or cette équation s’est profondément déréglée avec l’irruption des intelligences artificielles génératives dans le parcours utilisateur. En 2025, ce ratio est tombé à un pour six : il faut désormais six pages indexées pour obtenir un seul clic, selon les données rapportées par Matthew Prince, CEO de Cloudflare¹. La majorité des requêtes trouvent désormais leur réponse sans que l’internaute ait besoin de visiter le moindre site externe.
La conséquence est directe: les contenus originaux – pourtant encore produits massivement – n’attirent plus suffisamment de visiteurs pour justifier leur coût de création. Cela affaiblit l’ensemble de l’écosystème qui faisait vivre le web ouvert : régies publicitaires, modèles freemium, partenariats d’affiliation, voire abonnements numériques fondés sur la visibilité.
L’arrivée des intelligences artificielles comme ChatGPT, Claude ou Perplexity a profondément changé la façon dont les internautes accèdent à l’information. Là où les moteurs de recherche traditionnels (comme Google) affichaient une liste de liens vers des sites, ces outils donnent directement des réponses complètes, sans rediriger l’utilisateur vers la page d’origine.
Ces IA fonctionnent en absorbant des milliards de pages web pour produire des textes “neufs”, souvent bien rédigés et faciles à lire. Le problème, c’est qu’elles utilisent massivement le contenu créé par d’autres (articles, forums, tutoriels…), mais sans créditer ni ramener de visiteurs aux sites sources.
Matthew Prince (Cloudflare) donne des chiffres parlants : pour chaque clic qu’OpenAI envoie vers un site, elle consomme environ 250 pages. Chez Anthropic (créateur de Claude), ce serait jusqu’à 6000 pages pour un seul clic. Cela signifie que la grande majorité des contenus sont utilisés, mais que quasiment personne ne va les lire sur leur site d’origine.
C’est une rupture majeure : les éditeurs créent encore des contenus, mais les visiteurs n’arrivent plus. L’IA devient un intermédiaire qui empêche le lien entre le lecteur et l’auteur. Cela détruit la logique même du web ouvert, où le clic permettait de financer la production d’information.
Aujourd’hui, 80 % des utilisateurs résolvent 40 % de leurs requêtes sans cliquer sur un résultat (Bain & Co, cité par le WSJ). Les réponses intégrées (résumés AI, featured snippets) minimisent le besoin de visiter les sites, mettant à mal le SEO classique.
Google a commencé à déployer un nouveau format de recherche appelé AI Mode. À la place de ses résultats classiques (les fameuses “SERP” – Search Engine Results Pages), le moteur propose désormais des réponses générées automatiquement par intelligence artificielle. Ces réponses résument plusieurs sources… sans lien direct vers les sites d’origine.
Concrètement, l’utilisateur obtient un résumé instantané, rédigé par l’IA de Google, en haut de la page. Dans la plupart des cas, il n’a plus besoin de cliquer sur un lien pour trouver ce qu’il cherche. Résultat : le trafic organique – les visites naturelles issues des recherches – s’effondre, en particulier pour les petits sites et blogs.
Dans ce nouveau paysage, seuls les grands acteurs consolidés (sites institutionnels, grandes marques, Wikipédia) apparaissent encore parfois en référence dans les résumés. Pour tous les autres, la visibilité chute.
Face à ce changement, une nouvelle discipline tente d’émerger : l’Answer Engine Optimization (AEO) ou Generative Engine Optimization (GEO). L’idée : optimiser son contenu non plus pour apparaître dans les liens de recherche, mais pour être repris dans la réponse générée par l’IA. Cela implique un style très direct, structuré, avec des données claires et des questions-réponses bien définies. Mais même avec ces efforts, rien ne garantit qu’un site sera cité ou que l’internaute cliquera.
Quand les visiteurs ne viennent plus, les revenus s’évaporent. Or, la grande majorité des créateurs de contenu – qu’il s’agisse de journalistes, blogueurs, comparateurs, testeurs ou sites d’avis – dépendent du trafic pour exister. Moins de clics, c’est moins de revenus, et donc moins d’incitation à produire.
Le modèle repose sur une chaîne simple : créateur → contenu → visite → monétisation. Si le lien avec le public se coupe, c’est toute l’équation qui s’effondre. Matthew Prince (Cloudflare) le dit clairement : « Si les créateurs de contenu ne peuvent pas en tirer de valeur, ils cesseront simplement de créer. »
Les piliers de la monétisation web sont directement menacés :
Quand une IA fournit directement la réponse, plus personne ne clique, et l’éditeur devient invisible dans les échanges numériques. Le risque est systémique : un web sans trafic, c’est un web sans contenu neuf, donc un appauvrissement rapide de la matière même que les IA exploitent.
Les conséquences de l’essor des IA génératives dépassent largement la seule question des revenus. D’un côté, ces technologies reposent sur une infrastructure très coûteuse : les IA doivent interroger des milliers de pages pour produire une réponse, ce qui fait exploser les besoins en serveurs, en bande passante et en énergie. Des sites comme Wikipédia ou StackOverflow se plaignent d’un usage massif de leurs ressources… sans compensation. Résultat : ils paient davantage pour alimenter des IA qu’ils ne reçoivent d’aide.
De l’autre, on assiste à une prolifération de contenus créés uniquement pour les IA, et non pour les humains. Des milliers de textes générés automatiquement — peu fiables, mal écrits, souvent vides — envahissent le web. C’est ce qu’on appelle des « content farms » ou du « AI-generated garbage ». Cela favorise la désinformation, les titres racoleurs (“clickbait”) et, à terme, affaiblit la confiance des utilisateurs dans les résultats qu’ils trouvent en ligne.
Retrouvez-nous mi juillet, pour la deuxième partie de cet article, dans laquelle nous verrons s’il est possible de réinventer les flux d’audience et les modèles financiers. Dans l’intervalle, si vous avez un film, une série, un logiciel ou un livre électronique à protéger, n’hésitez pas à faire appel à nos services en contactant l’un de nos gestionnaires de comptes; PDN est pionnier dans la cybersécurité et l’antipiratage depuis plus de dix ans, et nous avons forcément une solution pour vous aider. Bonne lecture et à bientôt!
Partager cet article