Informatique

Face aux critiques, Apple défend son système de signalement d’images pédopornographiques


Face aux critiques, Apple défend son système de signalement d'images pédopornographiques

Apple a produit une FAQ en réponse aux critiques qui lui ont été adressées après avoir annoncé son intention pour s’attaquer au problème de la maltraitance des enfants sur ses
systèmes d’exploitation aux États-Unis via des mises à jour d’iOS 15,
iPadOS 15, watchOS 8 et macOS Monterey.

Le système de détection de matériel d’abus sexuel sur enfant (CSAM) fera en sorte que les appareils fonctionnant sous iOS 15, iPadOS 15, watchOS 8 et macOS Monterey comparent les images présentes sur l’appareil à une liste de hachages d’images CSAM connues fournie par le Centre national américain pour les enfants disparus et exploités (NCMEC) et d’autres organisations de sécurité des enfants avant qu’une image ne soit stockée dans iCloud.

Si une correspondance de hachage est établie, des métadonnées qu’Apple appelle des « justificatifs de sécurité » seront téléchargées avec l’image. Une fois qu’un seuil anonyme sera atteint, Apple inspectera manuellement les métadonnées et, si elle les considère comme du CSAM, le compte sera désactivé et un rapport sera envoyé au NCMEC.

Un système sous vigilance humaine

Une grande partie de la critique a tourné autour de l’idée que, même si Apple était bien intentionnée et que son champ d’action est actuellement limité, le système pourrait être étendu par Apple seule, ou suite à une décision de justice, elle pourrait faire la chasse à d’autres types de contenus.

Apple a déclaré que ses processus étaient conçus pour empêcher que cela ne se produise. « La détection de CSAM pour iCloud Photos est construite de manière à ce que le système ne fonctionne qu’avec les hachages d’images CSAM fournis par le NCMEC et d’autres organisations de protection de l’enfance », a déclaré Apple.

« Il n’y a pas de rapport automatisé aux forces de l’ordre, et Apple procède à un examen humain avant de faire un rapport au NCMEC. Par conséquent, le système est uniquement conçu pour signaler les photos dont on sait qu’elles sont CSAM dans iCloud Photos. »

« Dans la plupart des pays, y compris les États-Unis, le simple fait de posséder ces images est un crime et Apple est tenu de signaler tous les cas dont nous avons connaissance aux autorités compétentes. »

Cupertino dit qu’elle n’accédera à « aucune demande gouvernementale »

Sur la perspective d’être contraint d’ajouter d’autres hachages à son ensemble de données, Apple a évoqué ses refus antérieurs pour aider les forces de l’ordre américaines. « Apple refusera toute demande de ce type », a-t-elle déclaré. « Nous avons déjà été confrontés à des demandes de construction et de déploiement de changements mandatés par le gouvernement qui dégradent la vie privée des utilisateurs, et nous avons fermement refusé ces demandes. Nous continuerons à les refuser à l’avenir. »

« Soyons clairs, cette technologie est limitée à la détection des CSMA stockés dans iCloud et nous n’accéderons à aucune demande gouvernementale visant à l’étendre. En outre, Apple procède à un examen humain avant de faire un rapport au NCMEC. Dans le cas où le système signalerait des photos qui ne correspondent pas à des images connues de CSAM, le compte ne serait pas désactivé et aucun rapport ne serait déposé au NCMEC. »

Apple a affirmé que son système empêcherait les images non CSAM d’être signalées puisque la société n’ajoute pas l’ensemble des hachages utilisés pour la correspondance, et que des humains sont impliqués dans le processus de vérification. « Le même ensemble de hachages est stocké dans le système d’exploitation de chaque utilisateur d’iPhone et d’iPad, de sorte que les attaques ciblées contre seulement des individus spécifiques ne sont pas possibles dans le cadre de notre conception », a déclaré Apple.

« Par conséquent, les erreurs ou les attaques du système n’entraîneront pas le signalement de personnes innocentes au NCMEC. »

Vie privée

Le fabricant de l’iPhone a réitéré ses affirmations selon lesquelles la solution présentait des avantages en matière de protection de la vie privée par rapport à la possibilité de scanner les images téléchargées sur l’appareil. « Les techniques existantes, telles que mises en œuvre par d’autres entreprises, scannent toutes les photos des utilisateurs stockées dans le cloud », a-t-il déclaré.

« Cela crée un risque pour la vie privée de tous les utilisateurs. La détection de CSAM dans iCloud Photos offre des avantages significatifs en matière de confidentialité par rapport à ces techniques en empêchant Apple d’en savoir plus sur les photos, à moins qu’elles ne correspondent à des images CSAM connues et qu’elles soient incluses dans un compte iCloud Photos qui comprend une collection de CSAM connus. »

Apple a également précisé que la fonctionnalité ne fonctionnerait pas si les utilisateurs ont désactivé iCloud Photos et ne fonctionnerait pas sur la « photothèque privée de l’iPhone sur l’appareil ».

Source : ZDNet.com





Source link

Quelle est votre réaction ?

Excité
0
Heureux
0
J'adore
0
Pas certain
0
ridicule
0

Vous aimerez aussi

Laisser une réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Plus dans:Informatique