Steve Wozniak, co-fondateur d’Apple, soutient un ban temporaire sur l’IA superintelligente

Apple co-founder Steve Wozniak supports an interim ban on AI superintelligence

La montée en puissance de l’intelligence artificielle suscite autant d’excitation que d’inquiétude. Dernièrement, un groupe de figures éminentes, dont Steve Wozniak, co-fondateur d’Apple, a manifesté son opposition à l’avancée vers une superintelligence. Ce cri d’alarme, soutenu par des chercheurs, prix Nobel et experts en sécurité, met en lumière les dangers potentiels de cette technologie.

Une déclaration marquante

Cette déclaration, concise mais percutante, souligne les risques associés à la superintelligence. Les signataires, parmi lesquels se trouvent d’éminents chercheurs en IA, rappellent que les outils d’IA peuvent offrir des avancées significatives en matière de santé et de prospérité. Toutefois, ils alertent sur le fait que l’objectif actuel de certaines entreprises est de développer une intelligence qui pourrait surpasser l’humain dans presque tous les domaines cognitifs.

Nous appelons à une prohibition sur le développement de la superintelligence, qu’elle ne soit pas levée avant qu’il existe :

  1. un large consensus scientifique que cela peut être fait en toute sécurité et de manière contrôlable, et
  2. un fort support du public.

Des personnalités influentes en support

En plus de Wozniak, le support à cette déclaration provient de personnalités respectées dans le domaine de l’IA. Des pionniers tels que Geoffrey Hinton, surnommé le « parrain de l’apprentissage profond », ainsi que des chercheurs comme Yoshua Bengio et Stuart Russell, se sont joints à cet appel. Leur expertise et leur vision de l’IA les amènent à s’inquiéter de ses potentielles dérives.

  • Geoffrey Hinton
  • Yoshua Bengio
  • Stuart Russell
  • Les physiciens lauréats du Prix Nobel Frank Wilczek et John C. Mather
  • Les lauréates du Prix Nobel Beatrice Fihn et Daron Acemoğlu
  • Ancienne conseillère à la sécurité nationale des États-Unis, Susan Rice

Ceux-ci affirment que l’intelligence générale artificielle (AGI) pourrait représenter une menace aussi grande que celle des pandémies ou des guerres nucléaires. Ces comparaisons fortes révèlent l’urgence de la situation et la nécessité d’une réflexion collective sur l’avenir de l’IA.

Au fur et à mesure que nous avançons dans cette ère d’innovations rapides, le dialogue sur les avantages et les dangers de l’IA superintelligente devient plus crucial que jamais. La question qui se pose maintenant est de savoir comment équilibrer l’innovation tout en assurant la sécurité et le bien-être de l’humanité.