L’analyse CSAM serait abusive, déclare Apple – en utilisant un argument qu’il avait initialement rejeté

L'analyse CSAM serait abusive, déclare Apple – en utilisant un argument qu'il avait initialement rejeté

Lorsque Apple a annoncé sa propre approche en matière d’analyse CSAM, beaucoup d’entre nous ont averti que le processus utilisé pour vérifier les matériels d’abus sexuels sur des enfants serait finalement utilisé de manière abusive par les gouvernements répressifs pour rechercher des éléments tels que des plans de protestation politique.

La société de Cupertino avait alors rejeté ce raisonnement, mais, ironiquement, elle utilise désormais précisément cet argument en réponse au gouvernement australien…

Plans d’analyse CSAM originaux d’Apple

Apple avait initialement prévu d’effectuer une analyse sur l’appareil pour détecter les CSAM, en utilisant une technique d’empreintes digitales numériques.

Ces empreintes digitales sont un moyen de faire correspondre des images particulières sans que quiconque ait à les visualiser, et sont conçues pour être suffisamment floues pour continuer à correspondre à des images qui ont été recadrées ou autrement modifiées, tout en générant très peu de faux positifs.

Pour être clair, la proposition d’Apple était une approche respectueuse de la vie privée, car la numérisation serait effectuée par nos propres appareils et personne ne regarderait jamais nos photos à moins que plusieurs correspondances ne soient signalées.

Le problème du gouvernement répressif

Le problème, comme beaucoup d’entre nous l’ont observé, était le risque d’abus de la part de gouvernements répressifs.

Une empreinte numérique peut être créée pour tout type de matériel, pas seulement CSAM. Rien n’empêche un gouvernement autoritaire d’ajouter à la base de données des images d’affiches de campagne politique ou similaires.

Un outil conçu pour cibler les grands criminels pourrait être adapté de manière triviale pour détecter ceux qui s’opposent à un gouvernement ou à une ou plusieurs de ses politiques. Apple – qui recevrait la base de données d’empreintes digitales des gouvernements – se retrouverait involontairement à aider la répression ou, pire encore, les militants politiques.

Apple a affirmé qu’elle n’aurait jamais permis cela, mais la promesse reposait sur la liberté légale d’Apple de refuser, ce qui ne serait tout simplement pas le cas. En Chine, par exemple, Apple a été légalement tenu de supprimer les VPN, les actualités et autres applications, et de stocker les données iCloud des citoyens chinois sur un serveur appartenant à une entreprise contrôlée par le gouvernement.

Il n’existait aucun moyen réaliste pour Apple de promettre qu’il ne se conformerait pas aux exigences futures concernant le traitement des bases de données d’« images CSAM » fournies par le gouvernement, qui incluent également des correspondances avec les documents utilisés par les critiques et les manifestants. Comme l’entreprise l’a souvent dit pour défendre ses actions dans des pays comme la Chine, Apple respecte la loi de chacun des pays dans lesquels elle opère.

Le demi-tour en trois étapes d’Apple

Apple a initialement rejeté cet argument, mais a déclaré qu’en réponse aux inquiétudes généralisées à ce sujet, il avait quand même décidé d’abandonner ses projets.

L’entreprise a ensuite changé de position et a admis que le problème existait.

Erik Neuenschwander, directeur de la confidentialité des utilisateurs et de la sécurité des enfants chez Apple, a écrit : « Cela […] cela risque d’engendrer une pente glissante avec des conséquences imprévues. La recherche d’un type de contenu, par exemple, ouvre la porte à une surveillance massive et pourrait susciter le désir de rechercher d’autres systèmes de messagerie cryptés sur différents types de contenu.

Nous avons désormais atteint la troisième étape : Apple lui-même utilise l’argument qu’il avait initialement rejeté.

Apple utilise un argument contre le gouvernement australien

Le gouvernement australien propose de forcer les entreprises technologiques à rechercher des CSAM, et The Guardian rapporte qu’Apple utilise désormais l’argument de la pente glissante pour lutter contre ce plan.

Apple a mis en garde contre une proposition australienne visant à forcer les entreprises technologiques à analyser les services cloud et de messagerie à la recherche de contenus pédopornographiques, ce qui risque de « porter atteinte aux protections fondamentales de la vie privée et de la sécurité » et pourrait conduire à une surveillance de masse avec des répercussions mondiales. […]

« La recherche de contenus particuliers ouvre la porte à une surveillance massive des systèmes de communication et de stockage qui contiennent des données relatives aux affaires les plus privées de nombreux Australiens », a déclaré Apple.

« De telles capacités, comme le montre l’histoire, s’étendront inévitablement à d’autres types de contenu (tels que des images, des vidéos, du texte ou de l’audio) et des catégories de contenu. »

Apple a déclaré que ces outils de surveillance pourraient être reconfigurés pour rechercher d’autres contenus, tels que les activités politiques, religieuses, sanitaires, sexuelles ou reproductives d’une personne.

Le gouvernement affirme qu’il a écouté « beaucoup de bons retours » d’Apple et d’autres, et qu’il « intégrera ce que nous pouvons » dans une version révisée du plan.

Photo de FlyD sur Unsplash

Envie de vous détendre un peu ? Voici un reportage très intéressant sur l’intelligence artificielle :

YouTube video