High-Tech News

Des groupes de politiques demandent à Apple d’abandonner son projet d’analyser les appareils à la recherche d’images d’abus d’enfants


Une coalition internationale de groupes politiques et de défense des droits civiques a publié jeudi une lettre ouverte demandant à Apple « d’abandonner ses plans récemment annoncés pour intégrer des capacités de surveillance aux iPhones, iPads et autres produits Apple ». Les groupes comprennent l’American Civil Liberties Union, l’Electronic Frontier Foundation, Access Now, Privacy International et le projet Tor.

Plus tôt ce mois-ci, Apple a annoncé ses plans utiliser les nouvelles technologies d’iOS pour détecter les images d’abus pédosexuels potentiels dans le but de limiter la diffusion de matériel pédopornographique (CSAM) en ligne. Apple a également annoncé une nouvelle fonctionnalité de « sécurité des communications », qui utilisera l’apprentissage automatique sur l’appareil pour identifier et brouiller les images sexuellement explicites reçues par les enfants dans son application Messages. Les parents d’enfants de 12 ans et moins peuvent être avertis si l’enfant voit ou envoie une telle image.

« Bien que ces capacités soient destinées à protéger les enfants et à réduire la propagation de matériel pédopornographique, nous craignons qu’elles ne soient utilisées pour censurer des discours protégés, menacent la vie privée et la sécurité des personnes dans le monde et aient des conséquences désastreuses pour de nombreuses personnes. enfants », ont écrit les groupes dans la lettre.

Pommes nouvelle page « Sécurité des enfants » détaille les plans, qui nécessitent une analyse sur l’appareil avant qu’une image ne soit sauvegardée dans iCloud. L’analyse ne se produit pas tant qu’un fichier n’est pas sauvegardé sur iCloud, et Apple dit qu’il ne reçoit des données sur une correspondance que si les bons cryptographiques (téléchargés sur iCloud avec l’image) pour un compte atteignent un seuil de correspondance CSAM connu. Apple et d’autres fournisseurs de messagerie cloud ont utilisé des systèmes de hachage pour rechercher les CSAM envoyés par courrier électronique, mais le nouveau programme appliquerait les mêmes analyses aux images stockées dans iCloud, même si l’utilisateur ne les partage ou ne les envoie jamais à quelqu’un d’autre.

En réponse aux préoccupations concernant la façon dont la technologie pourrait être utilisée à mauvais escient, Apple a poursuivi en disant cela limiterait son utilisation à la détection de CSAM « et nous n’accéderons à aucune demande d’un gouvernement pour l’étendre », a déclaré la société.

Une grande partie de la réticence contre les nouvelles mesures s’est concentrée sur la fonction d’analyse des appareils, mais les groupes de défense des droits civiques et de la protection de la vie privée ont déclaré que le plan visant à brouiller la nudité dans les iMessages des enfants pourrait potentiellement mettre les enfants en danger et briserait le cryptage de bout en bout d’iMessage. .

« Une fois cette fonctionnalité de porte dérobée intégrée, les gouvernements pourraient obliger Apple à étendre la notification à d’autres comptes et à détecter les images répréhensibles pour des raisons autres que sexuellement explicites », indique la lettre.



Source link

Quelle est votre réaction ?

Excité
0
Heureux
0
J'adore
0
Pas certain
0
ridicule
0

Vous aimerez aussi

Laisser une réponse

Votre adresse e-mail ne sera pas publiée.

Plus dans:High-Tech News