La controverse sur les images CSAM d’Apple continue : une association caritative dénonce une sous-déclaration de la part de l’entreprise

La controverse sur les images CSAM d'Apple continue : une association caritative dénonce une sous-déclaration de la part de l'entreprise

Une association britannique, la NSPCC, accuse Apple de sous-déclarer les cas de contenus pédopornographiques sur ses plateformes. En 2023, Apple n’a signalé que 267 incidents, tandis que des entreprises comme Google et Meta en ont rapporté des millions. La NSPCC souligne également plus de condamnations en Angleterre et au Pays de Galles que les signalements d’Apple à l’international.

La controverse sur les contenus CSAM d’Apple ne semble pas prête de s’arrêter, car une association caritative britannique pour enfants a accusé l’entreprise de sous-déclarer les incidents sur ses plateformes.

Cependant, le rapport semble se fonder au moins en partie sur une incapacité à comprendre comment fonctionne le chiffrement de bout en bout…

La Société nationale pour la prévention de la cruauté envers les enfants (NSPCC) du Royaume-Unis a souligné deux divergences apparentes dans les rapports d’Apple sur les contenus suspectés d’abus sexuel sur mineur (CSAM),

Le premier est l’énorme fossé entre le nombre de cas signalés par Apple et ceux des autres géants de la technologie, comme le note The Guardian.

En 2023, Apple n’a signalé que 267 cas présumés de CSAM sur ses plateformes dans le monde au National Center for Missing & Exploited Children (NCMEC), ce qui contraste fortement avec ses pairs des grandes technologies, Google signalant plus de 1,47 million et Meta signalant plus de 30,6 millions, selon le comuniqué annuel du NCMEC.

La deuxième est qu’il y a eu en réalité plus de condamnations pour CSAM impliquant les services Apple en Angleterre et au Pays de Galles que ce que l’entreprise a rapporté dans le monde entier.

Grâce aux données recueillies via des demandes d’accès à l’information et partagées exclusivement avec le Guardian, l’association caritative pour les enfants a découvert qu’Apple était impliqué dans 337 délits enregistrés d’images d’abus d’enfants entre avril 2022 et mars 2023 en Angleterre et au Pays de Galles. […]

« Il existe un écart inquiétant entre le nombre de délits pédopornographiques commis sur les services d’Apple au Royaume-Unis et le nombre presque négligeable de signalements de contenus pédopornographiques aux autorités dans le monde », a déclaré Richard Collard, responsable de la politique de sécurité des enfants en ligne à la NSPCC. « Apple est clairement en retard sur bon nombre de ses pairs dans la lutte contre les abus sexuels sur mineurs, alors que toutes les entreprises technologiques devraient investir dans la sécurité et se préparer au déploiement de l’Online Safety Act au Royaume-Unis. »

L’avis de Netcost-security.fr

Certaines des affaires judiciaires citées par la NSPCC concernent des cas de matériel CSAM envoyé via iMessage ou FaceTime. Ces deux services sont cryptés de bout en bout, ce qui signifie qu’Apple n’a aucun moyen de voir le contenu des messages, et donc aucun moyen de les signaler. Ces affaires ont été portées devant les tribunaux après que les contrevenants ont été arrêtés par d’autres moyens, puis obligés de donner accès à leurs appareils.

Cependant, l’autre problème ici est iCloud. Presque tous les services cloud recherchent systématiquement les empreintes digitales des contenus CSAM connus dans les téléchargements des clients, mais Apple ne le fait pas.

L’entreprise invoque la confidentialité comme raison de cette décision et a annoncé en 2021 son intention de mettre en place un système de numérisation des appareils respectueux de la vie privée. Cependant, ces informations ont fuité à l’avance et les retombées sur les abus potentiels de gouvernements répressifs – qui pourraient forcer Apple à rechercher les signatures d’autres images, comme des affiches de manifestations politiques – ont conduit l’entreprise à reporter puis à abandonner ses projets dans ce domaine. L’entreprise a même fini par utiliser plus tard les mêmes arguments que beaucoup avaient avancés contre ses propositions initiales.

Comme nous l’avons déjà souligné, la tentative de trouver un équilibre entre vie privée et responsabilité publique s’est avérée être un échec cuisant. Si Apple avait simplement procédé à la même analyse systématique des téléchargements que d’autres entreprises, il n’y aurait probablement pas eu de problème. Mais si elle le faisait maintenant, le problème ferait à nouveau la une des journaux. L’entreprise est vraiment coincée dans une situation sans issue.

Photo : Priscilla Du Preez/Unsplash

Envie de vous détendre un peu ? Voici un reportage très intéressant sur l’intelligence artificielle :

YouTube video