High-Tech

Apple envisage de scanner les iPhones américains à la recherche d’images d’abus d’enfants


Cinq iPhones sur une table
Agrandir / La gamme iPhone 2020. De gauche à droite : iPhone 12 Pro Max, iPhone 12 Pro, iPhone 12, iPhone SE et iPhone 12 mini.

Apple a l’intention d’installer un logiciel sur les iPhones américains pour rechercher des images d’abus d’enfants, selon des personnes informées de ses plans, alarmant les chercheurs en sécurité qui avertissent que cela pourrait ouvrir la porte à la surveillance d’appareils personnels de millions de personnes.

Apple a détaillé son système proposé – connu sous le nom de « neuralMatch » – à certains universitaires américains plus tôt cette semaine, selon deux chercheurs en sécurité informés de la réunion virtuelle. Les plans pourraient être rendus publics plus largement dès cette semaine, ont-ils déclaré.

Le système automatisé alerterait de manière proactive une équipe d’examinateurs humains s’il pense que des images illégales sont détectées, qui contacteraient ensuite les forces de l’ordre si le matériel peut être vérifié. Le programme ne sera initialement déployé qu’aux États-Unis.

Apple a refusé de commenter.

Les propositions sont la tentative d’Apple de trouver un compromis entre sa propre promesse de protéger la vie privée des clients et les demandes continues des gouvernements, des forces de l’ordre et des militants de la sécurité des enfants pour plus d’aide dans les enquêtes criminelles, y compris le terrorisme et la pornographie enfantine.

La tension entre les entreprises technologiques telles qu’Apple et Facebook, qui ont défendu leur utilisation croissante du cryptage dans leurs produits et services, et les forces de l’ordre ne s’est intensifiée que depuis que le fabricant de l’iPhone est allé en justice avec le FBI en 2016 pour l’accès à l’iPhone d’un suspect terroriste. suite à une fusillade à San Bernardino, en Californie.

Les chercheurs en sécurité, tout en soutenant les efforts de lutte contre la maltraitance des enfants, craignent qu’Apple ne permette aux gouvernements du monde entier de demander l’accès aux données personnelles de leurs citoyens, potentiellement bien au-delà de son intention initiale.

« C’est une idée absolument épouvantable, car elle va conduire à une surveillance en masse distribuée des fichiers . . . nos téléphones et ordinateurs portables », a déclaré Ross Anderson, professeur d’ingénierie de la sécurité à l’Université de Cambridge.

Bien que le système soit actuellement formé pour détecter les abus sexuels sur enfants, il pourrait être adapté pour rechercher d’autres images et textes ciblés, par exemple, des décapitations terroristes ou des signes anti-gouvernementaux lors de manifestations, selon les chercheurs. Le précédent d’Apple pourrait également augmenter la pression sur d’autres entreprises technologiques pour qu’elles utilisent des techniques similaires.

« Cela brisera le barrage – les gouvernements l’exigeront de tout le monde », a déclaré Matthew Green, professeur de sécurité à l’Université Johns Hopkins, qui serait le premier chercheur à publier un tweet sur la question.

Alec Muffett, chercheur en sécurité et militant pour la protection de la vie privée qui travaillait auparavant chez Facebook et Deliveroo, a déclaré que la décision d’Apple était « tectonique » et « un pas énorme et régressif pour la vie privée des individus ».

« Apple revient sur la confidentialité pour permettre 1984, » il a dit.

Les systèmes de stockage de photos basés sur le cloud et les sites de réseaux sociaux recherchent déjà des images d’abus d’enfants, mais ce processus devient plus complexe lorsque vous essayez d’accéder aux données stockées sur un appareil personnel.

Le système d’Apple est moins invasif dans la mesure où le filtrage est effectué par téléphone et « seulement s’il y a une correspondance, une notification est renvoyée à ceux qui recherchent », a déclaré Alan Woodward, professeur de sécurité informatique à l’Université de Surrey. « Cette approche décentralisée concerne la meilleure approche que vous puissiez adopter si vous suivez cette voie. »

L’algorithme neuralMatch d’Apple numérisera en continu les photos stockées sur l’iPhone d’un utilisateur américain et qui ont également été téléchargées sur son système de sauvegarde iCloud. Les photos des utilisateurs, converties en une chaîne de chiffres par un processus connu sous le nom de « hachage », seront comparées à celles d’une base de données d’images connues d’abus sexuels sur des enfants.

Le système a été formé sur 200 000 images d’abus sexuels collectées par le National Center for Missing and Exploited Children des États-Unis.

Selon les personnes informées des plans, chaque photo téléchargée sur iCloud aux États-Unis recevra un « bon de sécurité » indiquant si elle est suspecte ou non. Une fois qu’un certain nombre de photos sont marquées comme suspectes, Apple permettra de décrypter toutes les photos suspectes et, si apparemment illégales, de les transmettre aux autorités compétentes.

© 2021 The Financial Times Ltd. Tous les droits sont réservés Ne doit pas être redistribué, copié ou modifié de quelque manière que ce soit.





Source link

Quelle est votre réaction ?

Excité
0
Heureux
0
J'adore
0
Pas certain
0
ridicule
0

Vous aimerez aussi

Laisser une réponse

Votre adresse e-mail ne sera pas publiée.

Plus dans:High-Tech