Google a annoncé qu’il travaillait sur son propre chatbot similaire à ChatGPT. Ces systèmes basés sur l’intelligence artificielle seront très importants en l’an 2023 et pourront dicter l’avenir de l’information et de la création (dans ses domaines les plus variés). Cependant, ils ont encore beaucoup à améliorer. Google affirme que son système « apprend mieux par l’exemple ».
Chatboots, intelligence artificielle et bugs ChatGPT et Bard
De ChatGPT, nous avons vu de nombreux exemples de ses capacités. Malgré de nombreuses erreurs, des informations inexactes et certaines limitations, ce qu’il fait déjà est absolument impressionnant.
Peut-être, craignant de perdre cette course, Google a annoncé sa proposition qui viendra concurrencer la solution OpenAI, mais sans encore la rendre accessible au public. C’est dans cette annonce que les choses n’ont pas très bien commencé.
Tout d’abord, il semble que l’équipe de développement n’ait pas été très satisfaite de l’annonce. Par la suite, le premier exemple partagé sur les réseaux sociaux a immédiatement présenté des informations erronées.
Le fait est que, dans l’annonce faite, Google a immédiatement laissé l’avertissement « Bard peut, pour l’instant, fournir des informations inexactes ou inadéquates ».
Les correctifs et les améliorations sont apportés par des humains
CNBC a révélé que, pour améliorer la qualité des informations de Bard, Google utilise directement les personnes, ses employés.
Prabhakar Raghavan, vice-président de la recherche chez Google, aurait envoyé un e-mail à l’équipe de développement de Bard leur demandant de réécrire les réponses de Bard sur des sujets qu’ils connaissaient bien, avec l’idée que le chatbot « apprend mieux par l’exemple ». Par conséquent, le former avec des réponses factuelles aidera à améliorer sa précision. Prabhakar Raghavan aura également inclus une liste de « choses à faire » et « à ne pas faire » pour corriger les réponses du barde.
Le journal avance également que, selon les indications laissées par l’exécutif, les réponses doivent être faites à la première personne POV, sans avis et neutre, et doivent avoir un ton poli, désinvolte et accessible. Les employés sont également invités à « éviter de faire des suppositions fondées sur la race, l’origine nationale, le sexe, l’âge, la religion, l’orientation sexuelle, l’idéologie politique, le lieu ou des catégories similaires ».
Plus que cela, les employés ne doivent pas décrire Bard comme une personne, laisser entendre qu’il a des émotions ou prétendre qu’il a des expériences humaines. Il doit également rejeter toutes les réponses que le chatbot pourrait donner, faisant référence à des « conseils juridiques, médicaux et financiers » ou qui seraient haineuses et abusives.
Cet e-mail de Prabhakar Raghavan serait arrivé après une demande du PDG de l’entreprise, Sundar Pichai, pour que tous les employés passent une partie de leur temps de travail à utiliser Bard.
Envie de vous détendre un peu ? Voici un reportage très intéressant sur l’intelligence artificielle :
