Le petit-threads d’Oppenheimer se joint à l’appel à une action mondiale contre l’IA et d’autres menaces existentielles

Le petit-fils d'Oppenheimer se joint à l'appel à une action mondiale contre l'IA et d'autres menaces existentielles

Qu’est-ce qui vient de se passer? Un groupe de plus de 100 personnalités mondiales du monde des affaires, de la politique et d’autres domaines ont signé une lettre ouverte exhortant les dirigeants mondiaux à faire face aux menaces existentielles actuelles et futures, notamment l’IA, le changement climatique, les pandémies et la guerre nucléaire.

La lettre, publiée jeudi, provient de The Elders, une organisation non gouvernementale créée par l’ancien président sud-africain Nelson Mandela, et du Future of Life Institute, une organisation à but non lucratif qui vise à orienter les technologies transformatrices pour qu’elles profitent à la vie et s’éloignent des risques à grande échelle.

Les signataires de la lettre comprennent le fondateur milliardaire du groupe Virgin, Richard Branson, l’ancien secrétaire général des Nations Unies Ban Ki-moon et Charles Oppenheimer (petit-threads de J. Robert Oppenheimer). Il est également signé par plusieurs anciens présidents et premiers ministres, militants, PDG, fondateurs et professeurs.

« Notre monde est en grave danger », commence la lettre. « Nous sommes confrontés à un ensemble de menaces qui mettent l’humanité tout entière en danger. Nos dirigeants ne réagissent pas avec la sagesse et l’urgence requises. »

Le changement climatique, la pandémie et les guerres dans lesquelles l’option du recours à l’arme nucléaire a été évoquée sont cités comme exemples de menaces actuelles. La lettre indique que le pire pourrait arriver, d’autant plus que nous ne savons toujours pas quelle sera l’ampleur des menaces émergentes associées à une IA non gouvernée.

Le petit threads dOppenheimer se joint a lappel a une action

« Le leadership à long terme signifie faire preuve de la détermination à résoudre des problèmes insolubles et non seulement de les gérer, de la sagesse nécessaire pour prendre des décisions fondées sur des preuves scientifiques et la raison, et de l’humilité d’écouter toutes les personnes concernées. »

La lettre appelle les gouvernements à s’entendre sur certains points, tels que la manière de financer la transition des combustibles fossiles vers les énergies propres, la relance des négociations sur le contrôle des armements pour réduire le risque de guerre nucléaire et la création d’un traité équitable contre la pandémie. En ce qui concerne l’IA, la suggestion est de mettre en place la gouvernance nécessaire pour faire de la technologie une force bénéfique et non un risque incontrôlable.

Max Tegmark, cosmologue au MIT, qui a créé le Future of Life Institute aux côtés du cofondateur de Skype, Jaan Tallinn, a déclaré à CNBC que The Elders et son organisation ne considéraient pas l’IA comme « mauvaise », mais craignaient qu’elle puisse être utilisée comme un outil destructeur si elle progresse rapidement entre les mains des mauvaises personnes.

Le Future of Life Institute a également publié l’année dernière une lettre ouverte appelant à une pause de six mois dans le développement avancé de l’IA. Il a été signé par 1 100 personnes, dont le cofondateur d’Apple, Steve Wozniak, Elon Musk et le cofondateur de Pinterest, Evan Sharp. Cette lettre n’a pas eu l’effet escompté ; Non seulement les entreprises d’IA n’ont pas réussi à ralentir leur développement, mais nombre d’entre elles ont en réalité accéléré leurs efforts pour développer une IA avancée.

Les comparaisons entre l’IA et la guerre nucléaire ne sont pas nouvelles. Experts et PDG ont mis en garde en mai dernier contre le risque d’extinction posé par cette technologie. Et même OpenAI, créateur de ChatGPT, affirme qu’une IA plus intelligente que les humains pourrait provoquer l’extinction de la race humaine.

Envie de vous détendre un peu ? Voici un reportage très intéressant sur l’intelligence artificielle :

YouTube video