Des victimes de CSAM poursuivent Apple pour 1,2 milliard de dollars après l’abandon d’un outil

CSAM victims sue Apple for $1.2B for dropping planned scanning tool

Les répercussions de la politique d’Apple sur la détection des contenus de violence sexuelle envers les enfants (CSAM) commencent à se faire sentir alors que des milliers de victimes portent plainte contre la société. Bien que l’entreprise ait abandonné ses projets descanner les appareils, cela n’a pas suffi à apaiser les préoccupations autour de la sécurité des enfants.

Une situation engageante

De nombreux services de cloud computing effectuent régulièrement des vérifications de compte pour détecter les CSAM, en utilisant des méthodes de **digital fingerprinting**. Ces empreintes numériques permettent d’identifier les images connues de manière discrète, sans qu’il soit nécessaire de les visionner. Cette technique est conçue pour minimiser les faux positifs tout en restant assez précise même sur les images modifiées.

Contrairement à d’autres, iCloud n’applique pas ce type de vérification, Apple justifiant cela par des raisons de vie privée. En essayant d’établir un système de détection respectueux de la vie privée, l’entreprise proposait d’utiliser un outil de **fingerprinting** pour analyser les données sur les appareils eux-mêmes.

Le concept semble bon sur le papier, mais la mise en pratique a soulevé des inquiétudes croissantes sur la possibilité d’abus par des gouvernements autoritaires, qui pourraient élargir le spectre de ces technologies à des images sans rapport avec les abus sexuels. Une telle dérive ouvrirait la voie à des violations des droits fondamentaux.

Les empreintes numériques pourraient être adaptées pour cibler ceux qui critiquent un gouvernement, utilisant ainsi un outil de détection conçu pour les criminels dans un contexte répressif.

Les victimes contre Apple

Des milliers de victimes de ces abus poursuivent désormais Apple pour négligence après l’abandon des scans. Selon des rapports, l’entreprise pourrait faire face à des amendes dépassant 1,2 milliard d’euros si elle est jugée coupable.

Les plaignants affirment qu’Apple a ignoré ses responsabilités en matière de signalement des CSAM, ce qui lui permet de bénéficier d’un environnement où ces contenus peuvent proliférer.

Les accusations de la part des survivants soulignent qu’Apple a profité d’une politique laxiste, permettant aux prédateurs de stocker des contenus abusifs sans crainte d’être signalés. Alors que d’autres géants technologiques rapportent des millions d’incidents, Apple ne comptait qu’une petite poignée de rapports.

Les survivants craignent que la situation ne s’aggrave, surtout avec l’usage croissant de l’IA qui pourrait cacher encore plus de CSAM non signalés.

En réponse aux accusations, Apple soutient qu’elle prend des mesures proactives pour contrer ces abus. La firme évoque ses efforts pour créer des fonctionnalités visant à protéger les enfants, considérant ce sujet comme une priorité. Cependant, ces affirmations sont perçues avec scepticisme par ceux qui plaident pour une action plus affirmée.

La position des analystes

Les analystes s’accordent à dire qu’Apple se trouve dans une situation épineuse. D’un côté, il y a l’urgence d’identifier les contenus illégaux, de l’autre, la menace d’une exploitation par des gouvernements.

Un choix pragmatique pourrait être de permettre aux tribunaux de trancher cette question, mettant ainsi fin aux interrogations publiques. Si Apple se voit contrainte d’implémenter des scans, elle pourra s’abriter derrière ce jugement pour justifier toute potentielle dérive future.

À l’opposé, si les plaignants obtiennent gain de cause, cela pourrait poser des principes légaux qui obligeraient les entreprises technologiques à revoir leurs politiques de détection. L’issue de ce conflit reste incertaine, mais les enjeux pour la sécurité des enfants, ainsi que la protection des droits individuels, sont cruciaux.