PC & Périphériques

Apple va scanner tous les iPhones et comptes iCloud pour les images d’abus d’enfants


Une patate chaude : Apple a révélé son intention d’analyser tous les iPhones et comptes iCloud aux États-Unis à la recherche de matériel pédopornographique (CSAM). Bien que le système puisse bénéficier aux enquêtes criminelles et ait été salué par les groupes de protection de l’enfance, des inquiétudes subsistent quant aux implications potentielles en matière de sécurité et de confidentialité.

Le système neuralMatch numérisera chaque image avant il est téléchargé sur iCloud aux États-Unis à l’aide d’un processus de correspondance sur l’appareil. S’il pense que des images illégales sont détectées, une équipe d’examinateurs humains sera alertée. Si la maltraitance des enfants est confirmée, le compte de l’utilisateur sera désactivé et le Centre national américain pour les enfants disparus et exploités en sera informé.

NeuralMatch a été formé à l’aide de 200 000 images du National Center for Missing & Exploited Children. Il ne signalera que les images avec des hachages qui correspondent à ceux de la base de données, ce qui signifie qu’il ne devrait pas identifier de matériel innocent.

« La méthode d’Apple pour détecter les CSAM connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser les images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournie par le NCMEC et d’autres organisations de sécurité des enfants. Apple transforme davantage cette base de données en un ensemble illisible de hachages qui est stocké en toute sécurité sur les appareils des utilisateurs », lit-on dans le site Internet. Il note que les utilisateurs peuvent faire appel pour que leur compte soit rétabli s’ils estiment qu’il a été signalé par erreur.

Apple vérifie déjà les fichiers iCloud par rapport aux images d’abus d’enfants connues, mais l’étendre au stockage local a des implications inquiétantes. Matthew Green, chercheur en cryptographie à l’Université Johns Hopkins, prévient que le système pourrait être utilisé pour rechercher d’autres fichiers, tels que ceux qui identifient les dissidents du gouvernement. « Que se passe-t-il lorsque le gouvernement chinois dit : ‘Voici une liste de fichiers que nous voulons que vous numérisiez' », a-t-il demandé. « Est-ce qu’Apple dit non ? J’espère qu’ils disent non, mais leur technologie ne dira pas non. »

De plus, Apple prévoit d’analyser les messages cryptés des utilisateurs à la recherche de contenu sexuellement explicite en tant que mesure de sécurité pour les enfants. L’application Messages ajoutera de nouveaux outils pour avertir les enfants et leurs parents lors de la réception ou de l’envoi de photos sexuellement explicites. Mais Green a également déclaré que quelqu’un pourrait tromper le système en lui faisant croire qu’une image inoffensive est CSAM. « Les chercheurs ont pu le faire assez facilement », a-t-il déclaré. Cela pourrait permettre à un acteur malveillant de piéger quelqu’un en envoyant une image apparemment normale qui déclenche le système d’Apple.

« Quels que soient les plans à long terme d’Apple, ils ont envoyé un signal très clair. À leur avis (très influent), il est prudent de créer des systèmes qui analysent les téléphones des utilisateurs à la recherche de contenu interdit », a ajouté Green. « Qu’ils aient raison ou tort sur ce point importe peu. Cela brisera le barrage – les gouvernements l’exigeront de tout le monde.

Les nouvelles fonctionnalités arrivent sur iOS 15, iPadOS 15, MacOS Monterey et WatchOS 8, qui seront tous lancés cet automne.

Crédit Masthead : Russ de New York



Source link

Quelle est votre réaction ?

Excité
0
Heureux
0
J'adore
0
Pas certain
0
ridicule
0

Vous aimerez aussi

Laisser une réponse

Votre adresse e-mail ne sera pas publiée.