Bard, le Google Chatbot qui présente pour la première fois de fausses informations

Bard, o Chatbot da Google que se estreia a apresentar informação errada

Google a annoncé son chatbot basé sur l’IA pour concurrencer ChatGPT. C’est dans cette annonce qu’il a partagé un GIF avec un exemple du potentiel du service. Cependant, le résultat présentait des informations erronées. Et maintenant, quelle est la crédibilité de Bard dans ce début ? Google a prévenu !

Bard, le Google Chatbot qui présente pour la première fois de fausses informations

ChatGPT a été introduit il y a quelques mois et révolutionne déjà Internet. Le service OpenAI est capable d’écrire du code de programmation, est capable de passer des tests d’entrée à l’université et même de rédiger des thèses. Il existe déjà des entreprises liées à la communication et à la presse qui utilisent le service pour rédiger des articles ou sélectionner des informations.

Google a vu ce service comme un concurrent et travaille déjà dur sur une proposition pour correspondre. Rappelons que le créateur de Gmail a même mentionné que « ChatGPT sera l’abîme pour les affaires de Google ».

Bard est un bug qui pourrait mettre en péril votre réputation avant même son lancement

Le service Bard a été confirmé il y a deux jours par Google et entend combiner l’étendue des connaissances mondiales avec la puissance, l’intelligence et la créativité des grands modèles linguistiques de Google. Il utilise spécifiquement une « version modèle légère de LaMDA » qui « nécessite beaucoup moins de puissance de calcul, ce qui lui permet de s’adapter à plus d’utilisateurs, permettant plus de retours ».

Dans la publication de lancement du service, Google montre un GIF où Bard se voit poser une question : « De quelles nouvelles découvertes du télescope spatial James Webb puis-je parler à mon enfant de 9 ans ?”. C’est-à-dire qu’elle est interrogée sur les nouvelles découvertes du télescope spatial James Webb qui sont idéales pour raconter à un enfant de 9 ans.

Il reste trois curiosités liées au télescope, dont une ne correspond pas à la vérité. Il est répondu que « JWST a pris les premières photos d’une planète en dehors de notre propre système solaire. Ces mondes lointains sont appelés ‘exoplanètes’. Exo indique ‘dehors’. »

Maintenant, il est vrai que le télescope a pris des photos d’exoplanètes, mais ce n’était pas le premier à le faire. Le Very Large Telescope (VLT) de l’Observatoire européen austral en 2004 l’avait fait auparavant, en 2014, selon la NASA.

Google a prévenu !

La vérité est que cette inexactitude n’est pas quelque chose dont Google n’a pas averti. Dans l’annonce au service, il était clair que « Bard peut, pour l’instant, fournir des informations inexactes ou inadéquates. La phase de test est destinée à aider Google à continuer à apprendre et à améliorer la qualité et la rapidité de Bard. Aucune donnée sur comment et quand le public peut découvrir Bard est disponible. »

Compte tenu de cette mise en garde, des questions claires se posent quant à l’avenir. CNET, par exemple, dispose déjà d’un programme d’écriture d’articles basé sur l’IA alloué à l’équipe CNET Money, avec ChatGPT. Dans une information partagée récemment, l’entreprise précise que plus de la moitié des 77 articles écrits ont dû être corrigés, « avec des erreurs substantielles », certains avaient de petits problèmes, comme des noms d’entreprises incomplets ou un langage trop vague pour les exigences de la canal d’information. Certains d’entre eux ont même eu des problèmes plus graves, comme le plagiat.

Cependant, pour la majorité de la population, ces inexactitudes peuvent être un prédicteur de la propagation de la désinformation. Parce que les chatbots sont si précis et donnent des réponses avec un degré élevé de confiance, toute personne qui ne vérifie pas ses réponses pourrait se retrouver avec de fausses croyances.

Compte tenu du chaos que la désinformation (non alimentée par l’IA) a déjà déclenché dans la société, la mise à disposition de ces technologies qui peuvent être alimentées par la désinformation d’origine humaine elle-même, pourrait nous conduire à un avenir difficile à distinguer ce qui est faux et vrai.


Envie de vous détendre un peu ? Voici un reportage sur l’intelligence artificielle :

YouTube video