PC & Périphériques News

Apple partage un examen des menaces de sécurité pour sa nouvelle fonctionnalité de détection CSAM


Apple a publié aujourd’hui un nouveau document qui, espère-t-il, contribuera à apaiser les craintes concernant la sécurité de son nouveau Système de détection CSAM. Le document porte le titre noble de « Examen du modèle de menace pour la sécurité des fonctionnalités de sécurité des enfants d’Apple » et est disponible sur le site d’Apple.

Dans le document, Apple explique qu’il publiera un autre article de la base de connaissances qui contiendra le hachage racine de la base de données de hachage CSAM cryptée qui sera elle-même incluse dans toutes les versions d’iOS et d’iPadOS. La théorie est que les chercheurs en sécurité seront en mesure de comparer la base de données de leurs appareils avec celle des serveurs d’Apple, en s’assurant qu’elle n’a été manipulée d’aucune façon. Ce n’est qu’une des méthodes qu’Apple utilisera désormais pour s’assurer que la base de données CSAM en cours de vérification est légitime.

Apple publiera un article de la base de connaissances contenant un hachage racine de la base de données de hachage CSAM cryptée incluse avec chaque version de chaque système d’exploitation Apple prenant en charge cette fonctionnalité. De plus, les utilisateurs pourront inspecter le hachage racine de la base de données chiffrée présente sur leur appareil et le comparer au hachage racine attendu dans l’article de la base de connaissances. L’exactitude du calcul du hachage racine affiché à l’utilisateur dans les paramètres est soumise à une inspection du code par les chercheurs en sécurité, comme toutes les autres revendications de sécurité côté appareil iOS.

Apple dit également que l’approche permettra des audits techniques tiers de son système, y compris la base de données CSAM cryptée.

Cette approche permet des audits techniques tiers : un auditeur peut confirmer que pour tout hachage racine donné de la base de données CSAM cryptée dans l’article de la base de connaissances ou sur un appareil, la base de données a été générée uniquement à partir d’une intersection de hachages des organisations de sécurité des enfants participantes, sans ajouts, suppressions ou modifications. La facilitation de l’audit n’exige pas que l’organisation de sécurité des enfants fournisse des informations sensibles telles que les hachages bruts ou les images sources utilisées pour générer les hachages. Elle doit fournir uniquement une attestation non sensible de la base de données complète qu’elle a envoyée à Apple. Ensuite, dans un environnement sécurisé sur le campus, Apple peut fournir à l’auditeur la preuve technique que l’intersection et l’aveuglement ont été effectués correctement. Une organisation de sécurité de l’enfance participante peut également décider d’effectuer l’audit.

Dans une conférence de presse, Apple a en outre confirmé que le seuil CSAM auquel les photos seront signalées pour examen manuel est de 30. Cela signifie qu’un compte iCloud devra avoir 30 éléments de contenu CSAM découverts avant qu’un examen manuel n’ait lieu. Apple dit que le numéro n’a jamais été destiné à rester privé, car les chercheurs en sécurité auraient pu le découvrir de toute façon. On pense également que même si certains peuvent trouver le nombre 30 élevé, il est encore très probablement bien inférieur au nombre d’images susceptibles d’être trouvées dans la bibliothèque d’un délinquant.

Le document complet peut être lu sur Le site d’Apple et peut contribuer à rendre les gens plus à l’aise avec le nouveau système de détection CSAM. Apple a également tenu à souligner que le dialogue actuel entourant le système est quelque chose qui a été intégré à la chronologie de la fonctionnalité.

Nous pouvons gagner une commission pour les achats en utilisant nos liens. Apprendre encore plus.





Source link

Quelle est votre réaction ?

Excité
0
Heureux
0
J'adore
0
Pas certain
0
ridicule
0

Vous aimerez aussi

Laisser une réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *