Luigi Mangione : Les fake news facilement évitables grâce à l’intelligence d’Apple

Luigi Mangione fake news could have been easily avoided by Apple Intelligence

La technologie d’intelligence artificielle nous fascine et, à bien des égards, elle transforme notre quotidien. Cependant, des erreurs se glissent parfois dans les systèmes, provoquant étonnement et confusion. C’est ce qui s’est produit récemment avec Apple Intelligence, un service qui synthétise les notifications d’actualités. Une fausse information a émergé, suscitant des interrogations sur la fiabilité de cette nouvelle technologie.

Erreurs de l’IA, non sans conséquences

Les systèmes d’IA générative montrent souvent des résultats impressionnants, mais leur manque d’intelligence réelle leur fait commettre des erreurs parfaitement spectaculaires. Les incidents peuvent être à la fois drôles et préoccupants. On se souvient par exemple d’un système de commande McDonald’s qui a ajouté des nuggets à outrance, atteignant un total de 260 pièces. D’autres cas plus graves révèlent le véritable risque associé à ces erreurs.

Parmi les exemples tragiques se trouve un livre d’IA sur la cueillette des champignons qui conseillait de goûter les champignons pour identifier les toxiques. Des applications de cartographie ont même dirigé des utilisateurs vers des zones enflammées, démontrant ainsi que les mésaventures de l’IA ne sont pas à prendre à la légère.

Une erreur embarrassante pour Apple

Récemment, un résumé d’Apple Intelligence a créé un climat de malaise. En tentant de condenser l’actualité d’une manière trop réductionniste, le système a été à l’origine d’une annonce erronée. Il a été rapporté que Luigi Mangione, impliqué dans une affaire criminelle tragique, s’était tiré une balle. Or, cette information était totalement fausse.

Cette situation a mis en lumière les limites des résumés automatiques. Le cas n’est pas isolé, car une précédente notification avait signalé à tort l’arrestation du premier ministre israélien alors qu’une simple mise en accusation avait été lancée par la CPI.

Les conséquences potentielles de l’IA

Il est crucial de reconnaître qu’éviter totalement ces erreurs pourrait s’avérer impossible. Cependant, Apple pourrait prendre des mesures pour minimiser les conséquences sur des sujets sensibles. Une approche proactive consisterait à filtrer certains mots-clés, comme tirs, meurtres, ou victimes, qui devraient être examinés par un humain avant publication.

Si cet incident s’est soldé par une simple embarrassante erreur, on peut facilement imaginer des scénarios plus graves. Une mauvaise décision d’IA sur des sujets délicats pourrait mener à des réactions vives de la part du public. Tout cela soulève la question de la nécessité d’une vérification humaine pour assurer la précision de ces résumés, même si cela demande des ressources supplémentaires.

Bien que Apple ait lancé cette fonctionnalité récemment, il serait judicieux d’envisager une équipe de vérification dédiée, car, après tout, préserver l’intégrité de l’information est essentiel à l’ère numérique.

Photo de Jorge Franganillo sur Unsplash