Le gouvernement américain intensifie sa vigilance face à l’intelligence artificielle, à travers des initiatives comme la création d’un consortium dédié à la sécurité. Une loi polémique sur les deepfakes est également en cours, tandis qu’un contrôle prioritaire de la prochaine version de ChatGPT est prévu. Découvrez les enjeux de ces développements cruciaux.
Le gouvernement américain prend plus au sérieux les dangers potentiels de l’IA, suite à sa décision de créer un consortium d’instituts de sécurité de l’intelligence artificielle (AISIC) plus tôt cette année, dont Apple est membre.
Une nouvelle loi proposée interdirait l’utilisation de deepfakes, et un organisme gouvernemental effectuera des contrôles de sécurité sur la prochaine version de ChatGPT avant sa publication au public…
Des directives de sécurité pour l’IA sont déjà en place
L’administration Biden a proposé un ensemble de directives de sécurité pour les nouveaux produits et services d’IA plus tôt cette année, après leur annonce par la vice-présidente Kamala Harris.
Bien que le respect de ces directives soit (pour l’instant) volontaire, tous les géants technologiques impliqués dans le développement de l’IA ont accepté de le faire. Cela inclut Apple, Amazon, Google, Meta, OpenAI et Microsoft.
La loi NO FAKES rendrait les deepfakes illégaux
L’une des plus grandes préoccupations concernant l’IA est la facilité avec laquelle les deepfakes peuvent être créés. Il s’agit de photos, d’enregistrements audio et vidéo convaincants de personnes réelles, conçus pour donner l’impression qu’elles font ou disent des choses complètement fausses.
Les deepfakes ont été utilisés pour créer de fausses photos dénudées non consensuelles de tout le monde, des célébrités aux écolières, et pour créer de fausses vidéos préjudiciables de politiciens. Un exemple récent est une fausse publicité dans laquelle Kamala Harris semblait dire qu’elle était une employée de la diversité et une « marionnette de l’État profond ».
Un groupe bipartisan de sénateurs a présenté hier le NO FAKES Act, qui rendrait illégale la création de deepfakes de personnes réelles sans leur consentement.
La loi NO FAKES Act rendrait les particuliers ou les entreprises responsables des dommages causés par la production, l’hébergement ou le partage d’une réplique numérique d’une personne agissant dans une œuvre audiovisuelle, une image ou un enregistrement sonore dans lequel la personne n’est jamais apparue ou n’a pas approuvé – y compris les répliques numériques créées par l’intelligence artificielle générative (IA). Un service en ligne hébergeant la réplique non autorisée serait tenu de la retirer sur avis du titulaire des droits.
Cela n’éliminerait pas nécessairement entièrement le problème en ce qui concerne les politiciens, car il y aurait une exclusion du premier amendement pour les parodies, mais cela devrait réduire considérablement le problème si cette loi était adoptée.
Le gouvernement examinera la prochaine version de ChatGPT
Le PDG d’OpenAI, Sam Altman, a tweeté que la société avait accepté de donner à AISIC un accès anticipé au prochain modèle ChatGPT, afin qu’il puisse être examiné pour des problèmes de sécurité avant une publication publique.
Notre équipe a travaillé avec l’Institut américain de sécurité de l’IA sur un accord qui nous permettrait d’offrir un accès anticipé à notre prochain modèle de base afin que nous puissions travailler ensemble pour faire progresser la science des évaluations de l’IA. Nous sommes ravis de cela !
Photo de BoliviaInteligente sur Unsplash
