Apple News

Apple dit qu’il n’étendra pas la technologie controversée CSAM


Apple a tenté de détourner les critiques de ses système de protection CSAM controversé, mais ce faisant, a simplement illustré ce qui est en jeu.

La grande conversation

Apple a annoncé la semaine dernière qu’il introduire un ensemble de mesures de protection de l’enfance dans iOS 15, iPad OS 15 et macOS Monterey lorsque les systèmes d’exploitation seront disponibles cet automne.

Entre autres protections, le système sur l’appareil analyse votre bibliothèque de photos iCloud à la recherche de preuves de collections illégales de matériel pédopornographique (CSAM). Il est bien sûr tout à fait approprié de protéger les enfants, mais les défenseurs de la vie privée restent préoccupés par le potentiel du système d’Apple à devenir une surveillance à part entière.

Pour tenter d’atténuer les critiques, Apple a nouvelles informations publiées dans lequel il essaie d’expliquer un peu plus le fonctionnement de la technologie. Comme expliqué dans ce Livre blanc pomme, la technologie transforme les images de votre appareil en un hachage numérique qui peut être comparé à une base de données d’images CSAM connues lorsque vous les téléchargez sur iCloud Photos.

En faire un hachage

Bien que l’analyse de l’image ait lieu sur l’appareil à l’aide de la technologie de hachage d’Apple, toutes les images ne sont pas signalées ou numérisées – seules celles identifiées comme CSAM. Apple soutient qu’il s’agit en fait d’une amélioration dans la mesure où la société ne scanne à aucun moment l’intégralité de la bibliothèque.

« Les techniques existantes mises en œuvre par d’autres sociétés analysent toutes les photos d’utilisateurs stockées dans le cloud. Cela crée un risque pour la vie privée de tous les utilisateurs », indique la nouvelle FAQ de l’entreprise. « La détection CSAM dans iCloud Photos offre des avantages significatifs en matière de confidentialité par rapport à ces techniques en empêchant Apple de se renseigner sur les photos à moins qu’elles ne correspondent toutes les deux à des images CSAM connues et soient incluses dans un compte iCloud Photos qui inclut une collection de CSAM connus. »

Malgré ces assurances, d’énormes inquiétudes subsistent quant à la mesure dans laquelle le système peut être étendu à la surveillance d’autres formes de contenu. Après tout, si vous pouvez transformer une collection d’images CSAM en données identifiables, vous pouvez transformer n’importe quoi dans les données, les informations personnelles peuvent être analysées. Défenseur de la vie privée Edward Snowden met en garde, « Ne vous y trompez pas : s’ils peuvent rechercher du porno pour enfants aujourd’hui, ils peuvent rechercher n’importe quoi demain. »

Le prendre en confiance ?

Apple dit qu’il n’a pas l’intention de pousser son système dans d’autres domaines. Dans sa FAQ, il écrit :

«Nous avons déjà été confrontés à des demandes de création et de déploiement de changements mandatés par le gouvernement qui dégradent la confidentialité des utilisateurs et nous avons fermement refusé ces demandes. Nous continuerons à les refuser à l’avenir. Soyons clairs, cette technologie se limite à détecter le CSAM stocké dans iCloud et nous n’accéderons à aucune demande d’un gouvernement pour l’étendre.

À première vue, cela semble rassurant. Mais il va de soi que maintenant que cette technologie existe, les pays qui voudront peut-être forcer Apple à étendre la surveillance sur les appareils pour des questions au-delà du CSAM utiliseront toutes les armes dont ils disposent pour forcer le problème.

« Tout ce qu’il faudrait pour élargir la porte dérobée étroite qu’Apple construit, c’est une extension des paramètres d’apprentissage automatique pour rechercher des types de contenu supplémentaires », a averti Fondation de la frontière électronique.

Empêcher cela sera un combat. Ce qui signifie qu’Apple a un combat à venir.

La guerre de la vie privée a commencé

C’est peut-être un combat qu’Apple veut mener. Après tout, nous savons qu’il a pris de nombreuses mesures importantes pour protéger la confidentialité des utilisateurs dans ses écosystèmes et nous savoir qu’il appuie les modifications de la loi pour protéger la vie privée en ligne.

« Il est certainement temps, non seulement pour une loi complète sur la confidentialité ici aux États-Unis, mais aussi pour des lois mondiales et de nouveaux accords internationaux qui consacrent les principes de minimisation des données, de connaissance des utilisateurs, d’accès des utilisateurs et de sécurité des données à travers le monde. Le PDG Tim Cook a déclaré cette année.

Vous pourriez soutenir que l’introduction très médiatisée des mesures de protection de l’enfance d’Apple a suscité une conversation plus large concernant les droits et la confidentialité dans un monde en ligne et connecté. La seule façon d’empêcher le système d’être étendu au-delà de CSAM est de soutenir Apple pour résister à la pression de le faire.

En l’absence d’un tel soutien, il est peu probable qu’Apple l’emporte contre chaque gouvernement seul. Dans le cas où l’entreprise n’est pas soutenue, la question est lorsque, ne pas si, il sera obligé de concéder. Et pourtant, les gouvernements peuvent encore parvenir à un accord sur la confidentialité en ligne.

Les enjeux sont élevés. Le risque est que le briques le long du chemin ensoleillé de la justice Cook a longtemps cherché à placer des briques dans le mur pour empêcher qu’un tel voyage n’ait lieu.

L’avantage est qu’un effort déterminé peut permettre la création de cadres qui permettent la fin de ce chemin.

La controverse reflète à quel point cette route semble être devenue cahoteuse.

Merci de me suivre sur Twitter, ou rejoignez-moi dans le Bar & grill AppleHolic et Discussions Apple groupes sur MeWe.

Copyright © 2021 IDG Communications, Inc.





Source link

Quelle est votre réaction ?

Excité
0
Heureux
0
J'adore
0
Pas certain
0
ridicule
0

Vous aimerez aussi

Laisser une réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Plus dans:Apple News