L’Intelligence Artificielle présentera-t-elle un risque d’extinction équivalent à une guerre nucléaire ?

Inteligência Artificial apresenta risco de extinção equivalente a uma guerra nuclear

Chaque jour, il y a des nouvelles des avancées technologiques autour de l’intelligence artificielle, et chaque jour des voix se font entendre qui mettent en garde davantage contre les dangers de cette technologie et son développement accéléré. Il y a un groupe de grands leaders de l’industrie de pointe qui ont lancé une autre alerte, avec une phrase percutante.

L'intelligence artificielle présente un risque d'extinction équivalent à une guerre nucléaire

Atténuer le risque d’extinction de l’IA doit être une priorité mondiale, tout comme c’est le cas pour d’autres risques à l’échelle de la société, tels que les pandémies et les guerres nucléaires.

Cette phrase peut être lue dans une déclaration signée par de grands noms de l’industrie, publiée dans le Center for AI Safety. La liste des signatures comprend des noms tels que Sam Altman, PDG d’OpenAI, Demis Hassabis, PDG de Google DeepMind et les chercheurs Geoffrey Hinton et Yoshua Bengio, considérés par beaucoup comme les parrains de l’IA moderne.

Les experts en IA, les journalistes, les décideurs et le public discutent de plus en plus d’un large éventail de risques importants et urgents liés à l’IA. Même ainsi, il peut être difficile d’exprimer des inquiétudes concernant certains des risques les plus graves de l’IA avancée. Cette courte déclaration, comme indiqué, vise à surmonter cet obstacle et à ouvrir la discussion.

Il vise également à créer une connaissance commune du nombre croissant d’experts et de personnalités publiques qui prennent également au sérieux certains des risques les plus graves de l’IA avancée.

LIntelligence Artificielle presentera t elle un risque dextinction equivalent a une guerre

Il faut encore évaluer les risques et réglementer

Il s’agit de la deuxième déclaration du genre ces derniers mois. Déjà en mars, Elon Musk et Steve Wozniak, avec plus de 1000 autres personnalités de la technologie et de la science, avaient demandé que le développement des systèmes d’IA cesse d’être alimenté en informations pour avoir le temps de réglementer et de créer des règles d’utilisation de l’Intelligence Artificielle.

Bien que l’IA ne soit pas tout à fait consciente d’elle-même, comme certains le craignaient, elle présente déjà des risques d’utilisation abusive et de préjudice par le biais de deepfakes, de désinformations automatisées, etc. Les LLM peuvent également changer la façon dont le contenu, l’art et la littérature sont produits, affectant potentiellement de nombreux emplois.

Partout dans le monde, les gouvernements se sont déjà engagés à trouver les meilleures stratégies de régulation et, dans plusieurs pays, des solutions telles que ChatGPT ont déjà été interdites. Dans l’Union européenne, OpenAI a déjà menacé de quitter le territoire si les règles en cours d’écriture sont une nuisance… sans grande intention de s’adapter aux règles.

Envie de vous détendre un peu ? Voici un reportage très intéressant sur l’intelligence artificielle :

YouTube video