Apple dément un rapport sur les changements de lignes directrices en IA concernant DEI, vaccins et Trump

Google’s Gemini smart home plans are about to make Siri look even dumber

La technologie avance à pas de géant, et l’intelligence artificielle (IA) ne fait pas exception. Les changements opérés par les grandes entreprises comme Apple sur leur approche de l’IA soulèvent toutefois des questions essentielles sur la manière dont les données sont traitées et comment les entreprises répondent à des enjeux sociétaux. Un article de Politico met en lumière les modifications apportées par Apple concernant ses pratiques en matière d’annotation des données après l’élection de Trump, dévoilant des détails révélateurs.

Annotation des données

Les grandes sociétés technologiques s’appuient couramment sur des sous-traitants pour l’annotation et le traitement des données destinées à leurs modèles d’IA. Selon le comuniqué de Politico, Apple collabore avec Transperfect, une entreprise spécialisée dans les services de traduction et d’annotation de données.

Ce processus d’annotation est crucial, car il permet de structurer les données brutes grâce à des étiquettes et des catégories précises. Les annotateurs émettent également des retours sur les résultats générés par l’IA, en mettant en évidence des problèmes tels que des biais ou des risques pour la sécurité. Ce travail est fondamental pour l’amélioration continue des modèles d’IA.

À Barcelone, environ 200 personnes se consacrent à l’annotation des données pour les modèles d’IA d’Apple. Leurs contributions sont d’une importance capitale pour garantir que les technologies développées soient à la fois efficaces et éthiques.

Les découvertes de Politico

Dans son enquête, Politico met en avant le test de deux séries de documents qui ont guidé le travail des annotateurs. Le premier, utilisé entre 2024 et début 2025, et un second document daté de mars, qui a introduit de nouvelles lignes directrices.

« Le document de mars a modifié la façon dont l’IA aborde les politiques de diversité, d’équité et d’inclusion, un sujet sensible dans de nombreuses entreprises, y compris chez Apple. »

Les ajustements incluent une vigilance accrue sur des thèmes délicats comme les élections, les vaccins et les partisans de Trump. En revanche, des sections sur des enjeux comme l’intolérance et le racisme systémique ont été retirées, tandis que de nouveaux sujets « sensibles » ont été intégrés, incluant les droits LGBTQ+, le contrôle des armes et diverses questions géopolitiques.

Malgré ces changements, le rapport indique que l’approche concernant le comportement des modèles vis-à-vis de Trump n’a pas été modifiée. Les directives ont évolué, mais la question de l’impartialité et de la gestion des sujets polarisants demeure complexe.

Apple et Transperfect nient le rapport, en partie

Lors d’une déclaration à Politico, un porte-parole d’Apple a affirmé que la société n’avait pas modifié sa politique générale concernant l’IA, tout en évitant de démentir les ajustements spécifiques mentionnés dans l’article.

« Les principes de notre IA responsable guident chaque étape, de l’entraînement à l’évaluation. Les affirmations selon lesquelles nous avons modifié cette approche sont complètement fausses. »

Transperfect a également réagi par la voix de son co-PDG, affirmant que les accusations étaient infondées et qu’aucune politique n’avait été modifiée au cours des 70 mises à jour apportées ce dernier an.

Ce débat met en lumière des préoccupations plus larges sur la manière dont les entreprises technologiques naviguent dans un paysage sociopolitique de plus en plus controversé. Les entreprises doivent rester vigilantes pour garantir que leurs technologies répondent de manière utile et éthique aux besoins de leurs utilisateurs.