Bard Google vs. Chat GPT Bing. Guerre des moteurs de recherche dopés à l’IA

Bard Google vs. Chat GPT Bing

La guerre des moteurs de recherche ( dopés à l’intelligence artificielle ) est entamée !

Nous aurions même pu rajouter Baïdu – Ernie, qui se lance aussi dans la course du conversationnel intelligent, même s’il y a de grandes chances, que comme Baïdu l’est actuellement, son périmètre ne reste que chinois contrairement aux 2 premiers protagonistes.

Google est hégémonique depuis des années après près de 95% de parts de marché de la recherche sur internet dans le monde, mais se voit pris de court par l’arrivée de Chat GPT, et surtout de l’accord avec Microsoft Bing qui lie l’IA ( Intelligence Artificielle ) à la recherche sur Internet.

Google travaille depuis des années également sur le sujet, mais ne pensait pas que son « faible » concurrent dégainerait si vite, et se voit obligé de rétorquer dès 2023.

Quels enjeux pour les moteurs de recherches eux-mêmes ? Quels enjeux pour le référencement des sites internets, des annonceurs ? 

Nous allons tenter ici de les décrypter.

Commençons toutefois par les définir 


Qu’est-ce que CHAT GPT ( et BING + CHAT GPT ) ?

Chat GPT est un modèle de langage naturel développé par OpenAI.

Il est conçu pour comprendre et générer du langage humain de manière similaire à celle d’un humain.

Basé sur une architecture de réseaux de neurones appelée « transformateur », Chat GPT peut traiter de grandes quantités de texte pour apprendre à prédire les mots suivants dans une séquence de texte.

Grâce à cela, Chat GPT est capable de répondre à une variété de questions et de tâches de langage naturel, comme la traduction de langues, la compréhension de texte, la génération de texte et bien d’autres choses encore.

En résumé, Chat GPT est un outil conçu pour comprendre et générer du langage naturel, et il a été formé à partir de grandes quantités de données textuelles pour être capable de comprendre et de produire des textes dans plusieurs langues.

Bing, moteur de recherche de Microsoft et challenger de Google, s’est associé à Open AI pour développer une recherche plus performante, ou à défaut, complémentaire aux résultats de recherches issus du web, afin de les enrichir, et tenter de donner des résultats plus complets avec cette touche d’intelligence artificielle.


Qu’est-ce que BARD de Google ?

Bard est un modèle de langage naturel développé par Google, qui vise à améliorer la compréhension et la génération de langage naturel. Comme Chat GPT, Bard est basé sur une architecture de réseaux de neurones appelée Transformer et utilise un entraînement massif sur des données textuelles pour améliorer sa performance.

Cependant, il y a quelques différences entre Bard et Chat GPT. Bard a été conçu avec un objectif plus spécifique en tête, à savoir améliorer la compréhension des requêtes de recherche en langage naturel sur Google. Il est également optimisé pour fonctionner sur des dispositifs mobiles, ce qui signifie qu’il est plus léger et plus rapide que de nombreux autres modèles de langage naturel.

En résumé, Bard est un modèle de langage naturel développé par Google, qui a été spécifiquement conçu pour améliorer la compréhension des requêtes de recherche en langage naturel sur Google, en particulier sur les appareils mobiles.


Quels sont les enjeux de la recherche sur Internet dopée à l’IA ?

La recherche sur Internet dopée à l’IA présente plusieurs enjeux importants qui méritent d’être examinés. Voici quelques-uns de ces enjeux :

1.Qualité et pertinence des résultats de recherche avec l’IA :

L’utilisation de l’IA pour améliorer la recherche sur Internet peut potentiellement améliorer la qualité et la pertinence des résultats de recherche.

Cependant, cela peut également entraîner une monopolisation de l’information, où les grandes entreprises technologiques qui développent ces technologies pourraient influencer les résultats de recherche en fonction de leurs intérêts commerciaux.

Qui va pouvoir contrôler ce biais que ce soit pour Bing ou Google ? 

Tant que nous étions dans des résultats de classements et de rankings de sites, il y avait potentiellement un prisme de « favoritisme commercial » ( cf. SEA – Search Engine Adversised – ) mais pas de biais d’opinion.

Avec l’arrivée de l’IA, qui garantira que ces partis pris, ces allégations sont objectives et potentiellement contestables pour certaines ?

2. Confidentialité des données :

Les modèles de recherche basés sur l’IA nécessitent de grandes quantités de données pour fonctionner efficacement, ce qui soulève des préoccupations en matière de confidentialité des données.

Les utilisateurs pourraient ne pas être conscients de la quantité de données qu’ils partagent et de la façon dont ces données sont utilisées. Encore moins qu’ils ne le sont aujourd’hui.

3. Biais algorithmiques liés à l’intelligence artificielle :

Les algorithmes d’IA peuvent être biaisés en raison des données qu’ils ont été entraînés à utiliser.
Si ces données sont biaisées, cela peut se refléter dans les résultats de recherche, ce qui peut avoir des conséquences négatives pour les utilisateurs qui recherchent des informations précises et objectives. 

Ce qui rejoint le point 1.

4. Impact sur l’emploi :

L’utilisation de l’IA pour améliorer la recherche sur Internet pourrait potentiellement avoir un impact sur l’emploi dans les industries liées à la recherche, notamment les bibliothèques, les archives et les musées.

De la même manière, on peut imaginer que la production de contenu humaine, soit de plus en plus robotisée, et que la production de contenus pour les sites internet soient eux-mêmes générés de plus en plus par des machines, et de moins en moins par l’homme.

5. Fiabilité des sources d’informations :


Alors que la recherche sur Internet dopée à l’IA peut aider à améliorer la qualité des résultats de recherche, elle peut également rendre plus difficile la distinction entre les sources d’information fiables et celles qui ne le sont pas.

Les algorithmes d’IA peuvent classer les résultats en fonction de la popularité ou de l’engagement, plutôt que de la fiabilité ou de l’exactitude des informations.

6. Personnalisation excessive des résultats de recherches dans les SERP :

Les algorithmes d’IA peuvent utiliser des données personnelles pour personnaliser les résultats de recherche en fonction des préférences et des comportements de l’utilisateur.

Bien que cela puisse être utile pour certaines recherches, cela peut également conduire à une personnalisation excessive et à une bulle de filtre, où les utilisateurs ne sont exposés qu’à des informations qui correspondent à leurs opinions et leurs intérêts.

7. Coût et accès aux ressources :

Les modèles de recherche basés sur l’IA nécessitent de grandes quantités de données, de calcul et d’infrastructure informatique pour fonctionner efficacement.

Cela peut rendre l’utilisation de ces technologies coûteuse pour les petites entreprises ou les organisations à but non lucratif qui n’ont pas les ressources nécessaires pour se permettre ces coûts.

8. Réglementation et responsabilité :

Comme pour de nombreuses autres applications de l’IA, la recherche sur Internet dopée à l’IA soulève des questions de réglementation et de responsabilité.

Les entreprises qui développent ces technologies doivent être responsables de la manière dont elles utilisent les données, garantir la transparence des algorithmes et des résultats de recherche, et respecter les lois et les normes en matière de protection des données et de la vie privée.



En somme, la recherche sur Internet dopée à l’IA peut offrir des avantages considérables en matière de qualité, de pertinence et de personnalisation des résultats de recherche, mais elle soulève également un certain nombre de préoccupations importantes en matière de protection des données, de fiabilité des sources d’information, de réglementation et de coûts.

Il est donc important que ces enjeux soient abordés de manière proactive pour maximiser les avantages potentiels de ces technologies tout en minimisant les risques.


Google Bard vs CHAT GPT. Qui va gagner ?

Bien malin est celui qui peut le prédire à ce stade, mais une chose est sûre, les cartes pourraient être rebattues selon justement la pertinence que les internautes trouveront à l’usage sur l’un des deux, voire sur les deux moteurs de recherches

On peut même supposer assez facilement que dans un premier temps, les recherches s’effectuent ET d’un côté ET de l’autre pour observer lequel des deux fournit les meilleures informations, et soit à terme, conserver les deux dans les usages, soit ne garder que celui des deux dont les réponses semblent être les plus pertinentes 

En tout état de cause, il pourrait y avoir de grands perdants indirectement, comme Wikipédia, les providers Google et Microsoft eux-mêmes s’ils n’arrivent pas à conserver les liens sponsorisés ( et donc les revenus publicitaires liés à ces mêmes liens sponsorisés )

On peut donc imaginer que pour éviter de tuer la poule aux oeufs d’or, les résultats de recherches intelligents viennent compléter habillement les SERP sans prendre toute la place qui est elle-même limitée.


Les conséquences possibles des moteurs de recherches dopés à l’IA

Prabhakar Raghavan, vice président du géant américain Google a t-il annoncé trop tôt l’arrivée de Bard ?

Une simple erreur de test de Bard ayant fait perdre 100 milliards de dollars de capitalisation boursière à Google en une journée…

Nous pouvons donc présager d’ores et déjà des mouvements plutôt brutaux et violents au fil des mois qui vont venir.

Des usages des internautes qui évoluent grâce / à cause de l’IA

Jusque là les internautes allaient sur Google, Bing et autre en phase de recherche active de sites. 
Ils viendront désormais pour avoir des réponses étayées comme s’ils consultaient un wikipédia en direct.

Il faudra donc que les moteurs de recherches sachent faire la part des choses entre les recherches à des fins informatives, ou à des fins transactionnelles.

L’intention de recherche va donc conditionner le visage de la SERP, et il va falloir, a fortiori sur smartphone bien gérer la place que prendra « la discussion », qui devra continuer à cohabiter avec les liens cliquables.

Il semblerait que Bing – Chat GPT inclue d’ores et déjà des microliens au sein du contenu conversationnel enrichi.

Des classements de sites internet qui évoluent grâce / à cause de l’IA

De facto, la place se faisant plus chère ( parce que plus rare ), que vont devenir les liens sponsorisés, les classements SEO des sites internet ?

Il y a de fortes chances pour que ça complique le travail des Agences SEO, et/ou que ça leur offre d’autres possibilités de positionnement.

Il est d’ailleurs très probable que Bing reprenne des parts de marchés à Google, et que le travail jusque là essentiellement concentré sur Google, se voit un peu plus partagé entre les deux moteurs de recherche 

Des pertes de parts de marché de Google ( et gains pour Bing )

C’est que qu’on pourrait en effet présager, avec la prime à la rapidité, la nouveauté que Chat GPT et Bing sont en train de prendre, notamment avec un mise en place plus précoce que Bard google, qui a été pris de court

Maintenant, dans quelles proportions et jusqu’où ?

Tout dépendra de la qualité perçue des deux systèmes par les internautes, et de la pertinence perçue des résultats de recherches mixés entre transactionnels et informatifs.

Mais il est fort à parier que Bing reprenne du poil de la bête après des années de disette, et donc une nouvelle génération de moteur.

L’expérience utilisateur et la qualité des réponses seront au coeur des débats de ces prises ou reprises de parts de marchés ( et/ou pertes pour Google )

Des conséquences sur les recherches transactionnelles et les sites E-Commerce

Que va devenir Google Shopping dans un univers de SERP restreint ?

De deux choses l’une, soit comme nous l’entrevoyons déjà avec Bing – Chat GPT la partie conversationnelle, sera reléguée dans une boite de dialogue à droite des résultats classiques, soit elle s’entremêlera avec le classement des URL… et là nous pourrions craindre le pire quant à la place réservée aux vignettes des annonces sponsorisées…

Cela pourrait faire perdre potentiellement des millions d’euros à certains sites E-Commerce, ou à défaut, ne permettre qu’aux plus gros de préempter les meilleures places restantes au détriment des « petits »  

Des conséquences pour le métier de référenceur et pour les Agences SEO 

A la fois risque et opportunités, le contenu des sites internet pourrait se voir remplacer par finalement des commencements de réponses à la mode « Featured Snippets » encore étoffés et améliorés 

Plus besoin dans certains cas d’aller jusqu’à cliquer sur le lien du site internet concerné puisque la réponse aura déjà était produite et obtenue sur la SERP de Google ou de Bing.

Cependant, il y a deux suppositions que l’on peut faire:

La première est que les moteurs auront quand même besoin de se nourrir perpétuellement d’un contenu frais et innovant ( produit lui-même pas les actualités des sites – média, blogs, etc. )

La deuxième est que le travail des agences SEO qui se voyait essentiellement concentré sur Google, devrait désormais se partager un peu plus sur Bing en plus de Google.

Une chose est sûre, les clients finaux auront d’autant plus besoin de conseils pour continuer à être bien référencé avec la touche AI en plus 

Optimize 360, se fait fort de promouvoir ses clients au sein des deux systèmes enrichis 

Des conséquences pour les annonceurs publicitaires 

Comme évoqué plus haut avec Google Shopping, une nouvelle version de SERP pourrait engendrer moins de places disponibles pour les liens sponsorisés Google Ads, Bing Ads etc.

On peut s’attendre donc à un sur-enchérissement des enchères publicitaires, pour continuer à promouvoir commercialement, des sites internet sur un espace d’expression restreint 


En conclusion, le futur est passionnant avec l’arrivée de robot conversationnel, et cette nouvelle expérience liée au modèle de langage OpenAI, lui-même bientôt concurrencé par LaMDA ( famille de modèles de langage neuronal conversationnel, développé par Google ) 

Restez au courant de notre actualité pour en voir les évolutions.

Cet article sera mis à jour au fur et à mesure des évolutions constatées en 2023 et pour les années qui viennent.

Nos autres articles sur la SGE et l’IA

blank
A propos de l'auteur

Frédéric POULET est le fondateur de l'Agence SEO Optimize 360 Après un parcours de 20 ans dans de grands groupes, il a fondé Optimize 360 pour mettre le savoir faire des grands groupes au service des PME
blank Accélérateur de Performances Digitales pour les PME

ContactRendez-vous

fr_FRFR