High-Tech News

Craig Federighi clarifie les détails de l’analyse de la sécurité des enfants d’Apple


L’exécutif d’Apple Craig Federighi déclare que iCloud Photos’ prévoit de rechercher du matériel d’abus sexuel d’enfants (ou CSAM) comprendra « plusieurs niveaux d’auditabilité ». Dans un entretien avec Le journal de Wall Street, Federighi, vice-président senior de l’ingénierie logicielle d’Apple, a fourni de nouveaux détails sur ses mesures controversées de sécurité des enfants. Cela inclut une affirmation selon laquelle l’analyse au niveau de l’appareil de l’iPad et de l’iPhone aidera les experts en sécurité à vérifier qu’Apple utilise le système de manière responsable.

Comme de nombreuses entreprises proposant des services de stockage en nuage, Apple comparera les images iCloud Photos à une liste du National Center for Missing and Exploited Children (NCMEC), à la recherche de correspondances exactes avec des images CSAM connues. Mais contrairement à de nombreux services, il exécutera des recherches sur l’appareil, pas entièrement à distance. « Imaginez que quelqu’un numérise des images dans le cloud. Eh bien, qui sait ce qui est recherché ? » Federighi a déclaré, se référant aux analyses à distance. « Dans notre cas, la base de données est expédiée sur l’appareil. Les gens peuvent voir, et c’est une image unique dans tous les pays.

Federighi a légèrement expliqué comment cela pourrait donner confiance aux gens. Apple n’étend pas considérablement la base de données pour inclure du matériel en plus du CSAM illégal, en particulier dans les pays ayant des politiques de censure restrictives.

« Nous expédions le même logiciel en Chine avec la même base de données que nous expédions en Amérique, comme nous expédions en Europe. Si quelqu’un venait chez Apple [with a request to scan for data beyond CSAM], Apple dirait non. Mais disons que vous n’êtes pas confiant. Vous ne voulez pas simplement vous fier à Apple pour dire non. Vous voulez être sûr qu’Apple ne pourrait pas s’en tirer si nous disions oui », a-t-il déclaré au Journal. « Il existe plusieurs niveaux d’auditabilité, et nous veillons donc à ce que vous n’ayez à faire confiance à aucune entité, ni même à aucun pays, en ce qui concerne les images qui font partie de ce processus. »

Apple a précédemment déclaré qu’il ne déployait le système qu’aux États-Unis et qu’il envisager de lancer dans d’autres pays au cas par cas. La société a confirmé Le bord qu’Apple expédiera la base de données de hachage des CSAM connus sur le système d’exploitation dans tous les pays, mais qu’elle ne sera utilisée pour la numérisation qu’aux États-Unis. Le Journal précise en outre qu’il y aura un auditeur indépendant qui pourra vérifier les images concernées.

Federighi a également fourni plus de détails sur le moment où le système de numérisation informera un modérateur Apple d’un contenu illégal potentiel. Apple a déjà déclaré qu’un seul match ne déclencherait pas de drapeau rouge – une mesure destinée à empêcher les faux positifs. Au lieu de cela, le système génère des « bons de sécurité » pour chaque match et alerte Apple si le nombre atteint un certain seuil. Apple a refusé de publier le seuil exact, affirmant que cela pourrait permettre aux agresseurs d’échapper à la détection. Mais Federighi dit que c’est « de l’ordre de 30 images pédopornographiques connues ».

Certains experts en sécurité ont fait l’éloge du système d’Apple et ont reconnu l’importance de trouver CSAM en ligne. Mais beaucoup ont a critiqué le déploiement brutal d’Apple et un manque de clarté sur le fonctionnement du système. Dans son entretien avec le Journal, Federighi a reconnu la confusion. « Il est vraiment clair que beaucoup de messages se sont mélangés assez mal en termes de compréhension des choses », a-t-il déclaré.



Source link

Quelle est votre réaction ?

Excité
0
Heureux
0
J'adore
0
Pas certain
0
ridicule
0

Vous aimerez aussi

Laisser une réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Plus dans:High-Tech News