ChatGPT a inventé un scandale de harcèlement sexuel et « accusé » une vraie personne

Ilustração ChatGPT mentiroso

L’Intelligence Artificielle telle que nous la connaissons est encore loin de ce qui sera réellement un problème ou une aide précieuse pour l’humanité. Cependant, au moment où ChatGPT invente un scandale sexuel et attribue un tel crime à un professeur de droit, une personne qui existe réellement… il faudra faire quelque chose !

Illustration ChatGPT menteur

ChatGPT porte de sérieuses fausses accusations

L’affaire est racontée par le Washington Post où le journal lui-même est impliqué dans un complot criminel, lié à un faux article. Apparemment, la semaine dernière, le professeur de droit Jonathan Turley a reçu un e-mail troublant. Dans le cadre d’une étude d’investigation, un collègue avocat californien a demandé au chatbot d’intelligence artificielle ChatGPT de générer une liste d’avocats qui avaient harcelé sexuellement quelqu’un. Le nom de Turley était sur la liste.

Le chatbot, créé par OpenAI, a déclaré que Turley avait fait des commentaires sexuellement suggestifs et avait tenté de toucher un étudiant lors d’une excursion en Alaska, citant un article de mars 2018 dans le Washington Post comme source de l’information. Le problème : un tel article n’existait pas. Il n’y a jamais eu d’excursion en Alaska. Et Turley a déclaré qu’il n’avait jamais été accusé d’avoir harcelé un étudiant.

La question est inquiétante, car il n’y a aucun moyen de corriger cette terrible erreur et les informations peuvent se propager comme des feuilles par une journée venteuse.

C’est très effrayant. Une allégation de ce type est incroyablement préjudiciable.

Turley a déclaré dans une interview avec The Post.

L’expérience de Turley est une étude de cas sur les pièges de la dernière vague de robots linguistiques, qui ont capté l’attention du grand public grâce à leur capacité à écrire du code informatique, à écrire des poèmes artisanaux et à mener des conversations étrangement humaines. Mais cette créativité peut aussi être un moteur d’affirmations erronées ; les modèles peuvent déformer des faits clés avec beaucoup de panache, allant même jusqu’à fabriquer des sources primaires pour étayer leurs affirmations.

Alors que des logiciels d’intelligence artificielle largement non réglementés tels que ChatGPT, Microsoft’s Bing et Google’s Bard commencent à être intégrés sur le Web, leur propension à générer des mensonges potentiellement dangereux soulève des inquiétudes quant à la propagation de la désinformation – et de nouvelles questions sur qui est responsable lorsque les chatbots trichent.

1680793504 56 ChatGPT a invente un scandale de harcelement sexuel et

Mensonges, sexe et IA

L’affaire a continué d’alimenter la curiosité de ceux qui veulent comprendre jusqu’où va cet acte profond d’attaque de la vérité par l’IA. La semaine dernière, le journal a recréé la requête exacte faite par Volokh sur ChatGPT et Bing. La version gratuite de ChatGPT a refusé de répondre, arguant qu’une telle réponse « violerait la politique de contenu d’AI, qui interdit la publication de contenu offensant ou préjudiciable ».

Cependant, Bing, propulsé par GPT-4, a répété la fausse affirmation concernant Turley – citant, parmi ses sources, l’éditorial de Turley publié par USA Today le lundi de cette semaine décrivant son expérience d’avoir été faussement accusé par le ChatGPT.

En d’autres termes, la couverture médiatique de la bévue initiale de ChatGPT à propos de Turley semble avoir incité Bing à répéter la bévue. C’est la preuve que la désinformation peut se propager d’un outil d’intelligence artificielle à un autre.

Le directeur des communications de Microsoft a déjà commenté la position de l’entreprise sur l’affaire. Asher a déclaré que la société prenait des mesures pour garantir la sécurité et l’exactitude des résultats de recherche.

Nous avons développé un système de sécurité qui comprend le filtrage du contenu, la surveillance opérationnelle et la détection des abus pour offrir une expérience de navigation sécurisée à nos utilisateurs. Les utilisateurs reçoivent également une notification explicite indiquant qu’ils interagissent avec un système d’IA.

Katy Asher, directrice des communications de Microsoft, a déclaré dans un communiqué.

Volokh a déclaré qu’il est facile d’imaginer un monde où les moteurs de recherche alimentés par des chatbots font des ravages dans la vie privée des gens.

Envie de vous détendre un peu ? Voici un reportage très intéressant sur l’intelligence artificielle :

YouTube video