La Californie adopte un projet de loi controversé réglementant la formation des modèles d’IA

WWDC : Deux des plus gros problèmes de relations publiques de l'IA sont sur le point de devenir les points forts d'Apple

La récente adoption d’un projet de loi en Californie marque une étape significative dans la régulation de l’intelligence artificielle aux États-Unis. Ce texte impose aux entreprises du secteur des exigences cruciales en matière de sécurité. Les implications de cette législation suscitent déjà des débats passionnés parmi les acteurs de la technologie.

Alors que le monde débat de ce qui est bien et de ce qui est mal dans l’IA générative, l’Assemblée et le Sénat de l’État de Californie viennent d’adopter le projet de loi Safe and Secure Innovation for Frontier Artificial Intelligence Models Act (SB 1047), qui est l’une des premières réglementations importantes pour l’IA aux États-Unis.

La Californie veut réglementer l’IA avec un nouveau projet de loi

Le projet de loi, qui a été voté jeudi (via The Verge), a fait l’objet d’un débat dans la Silicon Valley car il impose essentiellement aux entreprises d’IA opérant en Californie de mettre en œuvre une série de précautions avant de former un « modèle de fondation sophistiqué ».

Avec la nouvelle loi, les développeurs devront s’assurer qu’ils peuvent rapidement et complètement fermer un modèle d’IA s’il est jugé dangereux. Les modèles linguistiques devront également être protégés contre les « modifications dangereuses après la formation » ou tout ce qui pourrait causer un « préjudice critique ». Les sénateurs décrivent le projet de loi comme des « garanties pour protéger la société » contre l’utilisation abusive de l’IA.

Le professeur Hinton, ancien responsable de l’IA chez Google, a salué le projet de loi qui tient compte du fait que les risques liés aux puissants systèmes d’IA sont « très réels et doivent être pris très au sérieux ».

Cependant, des entreprises comme OpenAI et même de petits développeurs ont critiqué le projet de loi sur la sécurité de l’IA, car il prévoit des sanctions pénales potentielles pour ceux qui ne s’y conforment pas. Certains affirment que le projet de loi portera préjudice aux développeurs indépendants, qui devront engager des avocats et faire face à la bureaucratie lorsqu’ils travailleront avec des modèles d’IA.

Le gouverneur Gavin Newsom a désormais jusqu’à la fin du mois de septembre pour décider d’approuver ou d’opposer son veto au projet de loi.

Apple et d’autres entreprises s’engagent à respecter les règles de sécurité de l’IA

Apple Intelligence | OpenAI ChatGPT | Google Gemini | IA

Plus tôt cette année, Apple et d’autres entreprises technologiques telles qu’Amazon, Google, Meta et OpenAI ont accepté un ensemble de règles de sécurité volontaires en matière d’IA établies par l’administration Biden. Ces règles de sécurité définissent les engagements à tester le comportement des systèmes d’IA, en s’assurant qu’ils ne présentent pas de tendances discriminatoires ou de problèmes de sécurité.

Les résultats des tests effectués doivent être partagés avec les gouvernements et les universités pour examen par les pairs. Pour l’instant du moins, les directives de la Maison Blanche en matière d’IA ne sont pas exécutoires.

Apple, bien sûr, s’intéresse vivement à ces réglementations, car la société travaille sur les fonctionnalités d’Apple Intelligence, qui seront rendues publiques plus tard cette année avec iOS 18.1 et macOS Sequoia 15.1.

Il est important de souligner que les fonctionnalités d’Apple Intelligence nécessitent un iPhone 15 Pro ou version ultérieure, ou des iPad et des Mac équipés de la puce M1 ou version ultérieure.