PC & Périphériques News

Les informaticiens qui ont construit un système CSAM avertissent Apple de ne pas utiliser la technologie


Test de l'iPhone 12 ProSource : Daniel Bader / iMore

Deux informaticiens qui ont construit un système de détection CSAM ont averti Apple que le système peut être facilement réutilisé pour la surveillance et la censure et qu’il ne devrait pas aller de l’avant avec ses plans.

Dans une fonctionnalité pour Le Washington Post Jonathan Mayer, professeur adjoint d’informatique et d’affaires publiques à l’Université de Princeton, et Anunay Kulshrestha, chercheur diplômé au Princeton University Center for Information Technology Policy, ont expliqué comment ils avaient créé leur propre système CSAM :

Nous avons écrit la seule publication évaluée par des pairs sur la façon de construire un système comme celui d’Apple – et nous avons conclu que la technologie était dangereuse. Nous ne sommes pas inquiets car nous comprenons mal comment fonctionne le système d’Apple. Le problème est que nous comprenons exactement comment cela fonctionne.

L’état de la paire :

Nous avons cherché à explorer un terrain d’entente possible, où les services en ligne pourraient identifier les contenus nuisibles tout en préservant le cryptage de bout en bout. Le concept était simple : si quelqu’un partageait du matériel qui correspondait à une base de données de contenu dangereux connu, le service serait alerté. Si une personne partageait du contenu innocent, le service n’apprendrait rien. Les gens ne pouvaient pas lire la base de données ou savoir si le contenu correspondait, car ces informations pourraient révéler des méthodes d’application de la loi et aider les criminels à échapper à la détection.

Cependant, ils disent avoir rencontré un « problème flagrant » en ce sens que le système « pourrait être facilement réutilisé pour la surveillance et la censure » car la conception n’est pas limitée à une catégorie spécifique de contenu et qu’un service « pourrait simplement échanger n’importe quel contenu- base de données correspondante. » L’article fait écho à d’autres préoccupations soulevées à propos de la technologie d’Apple, mais la paire va plus loin :

Nous étions tellement perturbés que nous avons pris une mesure que nous n’avions jamais vue auparavant dans la littérature informatique : nous avons mis en garde contre notre propre conception de système, en exhortant à poursuivre les recherches sur la façon d’atténuer les graves inconvénients. Nous avions prévu de discuter des voies à suivre lors d’une conférence universitaire ce mois-ci.

Apple a vivement protesté contre l’idée que son système puisse être réutilisé. Dans sa FAQ, Apple indique que son système est conçu uniquement pour détecter les images CSAM :

Apple refuserait de telles demandes et notre système a été conçu pour empêcher que cela ne se produise. La capacité de détection CSAM d’Apple est conçue uniquement pour détecter les images CSAM connues stockées dans iCloud Photos qui ont été identifiées par des experts du NCMEC et d’autres groupes de sécurité des enfants. L’ensemble de hachages d’images utilisé pour la correspondance provient d’images connues et existantes de CSAM et ne contient que des entrées qui ont été soumises indépendamment par deux ou plusieurs organisations de sécurité de l’enfant opérant dans des juridictions souveraines distinctes. Apple n’ajoute pas à l’ensemble des hachages d’images CSAM connus et le système est conçu pour être auditable. Le même ensemble de hachages est stocké dans le système d’exploitation de chaque utilisateur d’iPhone et d’iPad, de sorte que les attaques ciblées contre des individus spécifiques ne sont pas possibles avec cette conception. De plus, Apple procède à un examen humain avant de faire un rapport au NCMEC. Dans le cas où le système identifierait des photos qui ne correspondent pas aux images CSAM connues, le compte ne serait pas désactivé et aucun rapport ne serait déposé au NCMEC. Nous avons déjà été confrontés à des demandes de création et de déploiement de changements mandatés par le gouvernement qui dégradent la confidentialité des utilisateurs, et nous avons fermement refusé ces demandes. Nous continuerons à les refuser à l’avenir. Soyons clairs, cette technologie se limite à détecter le CSAM stocké dans iCloud et nous n’accéderons à aucune demande d’un gouvernement pour l’étendre.

Les affirmations d’Apple selon lesquelles elle refuserait les demandes d’extension de la technologie ont conduit certains commentateurs à noter qu’il s’agit d’une décision politique plutôt que d’une limite technologique.





Source link

Quelle est votre réaction ?

Excité
0
Heureux
0
J'adore
0
Pas certain
0
ridicule
0

Vous aimerez aussi

Laisser une réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *