Cyberéthique et libertés numériques

Référencement IA : Google a délibérément choisi de forcer la main aux éditeurs – Next

Pas le choix, si les éditeurs de sites web veulent être indexés par le moteur de recherche de Google, ils doivent autoriser de facto l’entreprise à moissonner leurs sites pour ses outils d’IA. On le savait déjà, mais un document interne montre que l’entreprise a volontairement exclu l’idée de donner le choix.

Bloomberg l’a découvert dans le dossier du procès sur l’abus de position de Google dans la recherche web.

Une ligne rouge : la séparation entre recherche sur le Web et entrainement des IA

Dans ce document [PDF], Google estime bien avoir six options pour la granularité du contrôle donné aux éditeurs, allant d’une réelle séparation entre indexation et entrainement à l’option extrême de ne proposer aucun contrôle. Le schéma inclus rejette pourtant directement la séparation claire derrière une « ligne rouge bloquante » :

Référencement IA : Google a délibérément choisi de forcer la main aux éditeurs – Next

Parmi ces options, Google a évoqué la possibilité d’un « opt-out SGE-only », qui aurait permis le refus de l’utilisation des données dans certaines fonctions d’IA générative de Google Search, sans pour autant être exclu du moteur de recherche lui-même.

Un choix délibéré de ne pas donner de nouveaux contrôles

Finalement, l’entreprise a choisi de ne pas donner « de nouveaux contrôles sur la recherche ». Dans ce document, une responsable gestion produits chez Google Search, Chetna Bindra, écrit noir sur blanc qu’ « au minimum, notre position actuelle en matière de produits devrait être l’option 2 : faire ce que l’on dit, dire ce que l’on fait, mais prudemment ».

Google a décidé de « mettre à jour silencieusement » et « sans annonce publique » sur sa façon dont l’entreprise utilise les données des éditeurs de sites. Dans le document, Google indique clairement sa volonté de cacher les détails des différences entre l’entrainement de ses IA Gemini et de son système pour son moteur de recherche.

« Un peu accablant »

Devant le tribunal, Paul Bannister, responsable chez Raptive (une entreprise qui aide environ 5 000 éditeurs de sites à gagner de l’argent grâce à leurs contenus) a affirmé : « c’est un peu accablant », ajoutant que « cela montre clairement qu’ils savaient qu’il existait une série d’options et qu’ils ont choisi la plus conservatrice et la plus protectrice d’entre elles, à savoir celle qui n’offrait aucun contrôle aux éditeurs ».

Interrogée par The Verge, Google affirme que ce document était une première liste d’options envisagées alors que l’entreprise faisait évoluer sa recherche boostée par l’IA. Selon l’entreprise, il ne reflèterait pas les décisions prises finalement. « Les éditeurs ont toujours contrôlé la manière dont leur contenu est mis à la disposition de Google, car des modèles d’IA sont intégrés dans le moteur de recherche depuis de nombreuses années, ce qui permet de mettre en évidence les sites pertinents et de générer du trafic vers ces derniers », ajoute-t-elle.

Nos confrères de The Verge font remarquer que la documentation de Google indique que le paramètre nosnippet « s’applique à tous les types de résultats de recherche (sur Google : recherche sur le Web, Google Images, Discover, Aperçus IA, Mode IA) et empêche également l’utilisation du contenu en tant qu’entrée directe pour les Aperçus IA et le Mode IA ».


Auteur : Martin Clavey
Aller à la source

Artia13

Bonjour ! Je m'appelle Cédric, auteur et éditeur basé à Arles. J'écris et publie des ouvrages sur la désinformation, la sécurité numérique et les enjeux sociétaux, mais aussi des romans d'aventure qui invitent à l'évasion et à la réflexion. Mon objectif : informer, captiver et éveiller les consciences à travers mes écrits.

Artia13 has 2662 posts and counting. See all posts by Artia13