PC & Périphériques News

Des rapports soulèvent des inquiétudes concernant les failles de la technologie d’analyse de la maltraitance des enfants sur iPhone


Comment utiliser les widgets sur l'écran d'accueil de votre iPhoneSource : Joseph Keller / iMore

Les rapports indiquent que la technologie CSAM d’Apple peut être défectueuse, après que le code du système aurait été trouvé dans iOS 14.

Le bord rapports:

Les chercheurs ont découvert une faille dans la fonction de hachage intégrée d’iOS, soulevant de nouvelles inquiétudes quant à l’intégrité du système d’analyse CSAM d’Apple. La faille affecte le système de hachage, appelé NeuralHash, qui permet à Apple de vérifier les correspondances exactes des images connues d’abus d’enfants sans posséder aucune des images ni glaner aucune information sur les images non correspondantes.

Un utilisateur de Reddit a posté coge de rétro-ingénierie prétendument pour le nouveau système CSAM déclarant « Croyez-le ou non, cet algorithme existe déjà dès iOS 14.3, caché sous des noms de classe obscurcis. Après quelques recherches et rétro-ingénierie sur les API cachées, j’ai réussi à exporter son modèle (qui est MobileNetV3) vers ONNX et à reconstruire le tout l’algorithme NeuralHash en Python. Vous pouvez maintenant essayer NeuralHash même sous Linux ! »

Selon Asuhariet Ygvar, les tests indiquent que la technologie CSAM « peut tolérer le redimensionnement et la compression des images, mais pas le recadrage ou les rotations ». C’est étrange en raison des évaluations techniques fournies par Apple qui indiquent :

Apple a développé une technologie capable de calculer les empreintes digitales à partir d’images. ces empreintes digitales sont très petites par rapport aux images. Lorsque deux empreintes digitales correspondent, il est très probable que les images correspondent. Des opérations simples comme le redimensionnement, le recadrage ou la compression d’une image ne changeront pas son empreinte digitale

Une autre préoccupation soulevée à propos de la technologie concerne les collisions, où deux images différentes génèrent le même hachage, ce qui pourrait, en théorie, être utilisé pour tromper le système pour qu’il détecte des images qui ne contiennent pas réellement de CSAM, mais comme l’explique The Verge, cela nécessiterait  » efforts extraordinaires à exploiter » et ne dépasseraient pas le processus de révision manuelle d’Apple :

Généralement, les attaques par collision permettent aux chercheurs de trouver des entrées identiques qui produisent le même hachage. Dans le système d’Apple, cela signifierait générer une image qui déclenche les alertes CSAM même s’il ne s’agit pas d’une image CSAM car elle produit le même hachage qu’une image dans la base de données. Mais la génération de cette alerte nécessiterait un accès à la base de données de hachage NCMEC, générant plus de 30 images en collision, puis toutes en contrebande sur le téléphone de la cible. Même dans ce cas, cela ne ferait que générer une alerte à Apple et au NCMEC, qui identifierait facilement les images comme de faux positifs.

Ygvar a déclaré qu’ils espéraient que le code source aiderait les chercheurs « à mieux comprendre l’algorithme NeuralHash et à connaître ses problèmes potentiels avant qu’il ne soit activé sur tous les appareils iOS ». iMore a contacté Apple pour commentaires. Étant donné que les conclusions ci-dessus sont tirées d’un code source prétendument trouvé dans une version antérieure d’iOS et qu’Apple n’a encore officiellement déployé aucune de ses technologies de sécurité pour les enfants, ces résultats doivent certainement être pris avec des pincettes.





Source link

Quelle est votre réaction ?

Excité
0
Heureux
0
J'adore
0
Pas certain
0
ridicule
0

Vous aimerez aussi

Laisser une réponse

Votre adresse e-mail ne sera pas publiée.