
[ad_1]
Une patate chaude : L’analyse controversée CSAM (matériel d’abus sexuel d’enfants) d’Apple semble avoir été conservée. La société a discrètement nettoyé ses pages d’assistance sur la sécurité des enfants de toute mention de l’ancienne fonctionnalité iOS à venir. La fonctionnalité était déjà en attente indéfinie, donc la suppression du contenu pourrait signifier qu’elle a complètement annulé le projet. Apple n’a pas commenté la situation.
Pomme d’abord annoncé la numérisation CSAM début août, et il a immédiatement remué critiques des défenseurs de la vie privée. Les ingénieurs de Cupertino concevaient le système pour analyser de manière anonyme les appareils à la recherche d’images contenant de la maltraitance d’enfants à l’aide d’un système de hachage. Si les algorithmes trouvaient suffisamment de hachages, les images seraient transmises à un examen humain et potentiellement aux forces de l’ordre.
Les problèmes inhérents au système étaient évidents. Ceux qui se sont avérés avoir des CSAM seraient poursuivis sur la base de preuves recueillies en vertu d’une violation flagrante de leurs droits au quatrième amendement. De plus, les promoteurs craignaient qu’un tel système ne produise de faux positifs, du moins au niveau de la machine. Des utilisateurs innocents pourraient voir leurs photos par un autre humain sans leur permission si l’analyse renvoyait suffisamment de hachages. Il y avait aussi un malaise quant à la possibilité que des gouvernements oppressifs puissent ordonner l’analyse des dissidents.
Nous gagnons.
Apple a annoncé des retards dans ses outils d’analyse téléphonique prévus pendant qu’il mène plus de recherches. Mais l’entreprise doit aller plus loin et abandonner complètement ses plans pour mettre une porte dérobée dans son cryptage. https://t.co/d0N1XDnRl3
– EFF (@EFF) 3 septembre 2021
Apple a fait valoir à l’époque que les gens interprétaient mal le fonctionnement de l’analyse et a promis qu’il ne céderait jamais aux demandes du gouvernement concernant l’utilisation abusive du système. Dans une tentative malavisée de remédier au contrecoup, Apple mentionné qu’il utilisait déjà les algorithmes CSAM sur les e-mails dans iCloud depuis trois ans.
Au lieu de dissiper les inquiétudes, l’admission par analyse des e-mails a contribué à remuer encore plus le pot. La pression a augmenté au point qu’Apple indéfiniment retardé le déploiement de l’analyse CSAM, déclarant qu’il souhaitait apporter des améliorations basées sur « les commentaires des clients, des groupes de défense des droits, des chercheurs et autres ».
L’Electronic Frontier Foundation a applaudi le report, mais a déclaré que l’abandon complet du projet suffisait (ci-dessus). En attendant, les pages d’assistance contenaient encore des explications complètes sur le fonctionnement du système jusqu’à récemment.
Mercredi, MacRumors a constaté que le contenu concernant CSAM était manquant du site Internet. Cupertino n’a pas encore commenté la suppression. Vraisemblablement, Apple a mis le projet en veilleuse jusqu’à ce qu’il trouve comment le mettre en œuvre sans soulever de problèmes d’utilisateurs ou l’annule complètement.
[ad_2]
Source link