PC & Périphériques

La fonctionnalité Apple conçue pour protéger les enfants en numérisant des images suscite la controverse


Une patate chaude : Lors de la WWDC 2021 en juin, Apple a dévoilé ses prochains systèmes d’exploitation pour appareils. Il a fait une offre sur les fonctionnalités de confidentialité étendues d’iOS, iPadOS et macOS Monterey. Ce qu’il n’a pas précisé, ce sont ses protections élargies pour les enfants, et pour une bonne raison. À première vue, les protections d’Apple pour les enfants vont à l’encontre de sa position ferme sur la confidentialité des utilisateurs.

Dans le plus récent iOS 15 Aperçu, Apple a déployé certaines fonctionnalités qui ont de nombreux défenseurs de la vie privée, y compris l’Electronic Frontier Foundation (EFF) criant « backdoor ». Les fonctionnalités font partie des efforts d’Apple pour sévir contre le matériel d’abus sexuel d’enfants (CSAM).

La première caractéristique les usages apprentissage automatique pour rechercher des images potentiellement sensibles dans l’application Messages d’enfants de moins de 12 ans. Si du matériel inapproprié est reçu, l’image est floue et une notification leur indique qu’il est acceptable de ne pas voir la photo avec des liens vers des « ressources utiles ». L’enfant est également informé que s’il ouvre l’image, ses parents en seront informés. Cela fonctionne également si l’enfant tente d’envoyer une photo explicite. Ils recevront un avertissement indiquant que s’ils envoient l’image, leurs parents recevront une notification.

Apple dit que tout le traitement de l’IA est effectué sur l’appareil pour protéger la confidentialité des utilisateurs et que rien n’est jamais téléchargé sur les serveurs Apple. Il fonctionnera sur tous les systèmes d’exploitation des appareils Apple.

La seconde est appelée détection CSAM. Le CSAM fait référence au contenu qui décrit des activités sexuellement explicites impliquant un enfant. Une base de données d’images connues du National Center for Missing and Exploited Children (NCMEC) est téléchargée et stockée sur l’appareil sous forme de valeurs de hachage. Avant qu’un utilisateur télécharge une photo iCloud, l’IA comparera les valeurs de hachage. Si l’image a suffisamment de hits, le contenu sera validé manuellement puis envoyé au NCMEC, qui gère les éventuelles actions en justice.

Bien que personne ne conteste la protection des enfants, il semble que l’approche d’Apple suscite des inquiétudes. L’EFF estime que les nouvelles fonctionnalités présenter l’occasion pour les pays de faire pression sur Apple pour rechercher d’autres contenus jugés illégaux.

« Si ces fonctionnalités fonctionnent comme décrit et uniquement comme décrit, il n’y a presque aucune raison de s’inquiéter. Mais le ‘si’ est le hic. »—John Gruber

« Ce n’est pas une pente glissante; c’est un système entièrement construit qui n’attend que la pression extérieure pour apporter le moindre changement », a déclaré l’EFF. « En fin de compte, même une porte dérobée soigneusement documentée, soigneusement pensée et à portée étroite est toujours une porte dérobée. »

D’autres ont des opinions contraires en disant que cela pourrait être mieux pour la sécurité. Le blogueur technologique John Gruber, l’inventeur du langage de balisage Markdown, a écrit dans Daring Fireball :

« En bref, si ces fonctionnalités fonctionnent comme décrit et uniquement comme décrit, il n’y a presque aucune raison de s’inquiéter. Mais le ‘si’ dans ‘si ces fonctionnalités fonctionnent comme décrit et uniquement comme décrit’ est le hic. Si vous rejetez l’alarmisme des critiques de cette initiative qui ne comprennent clairement pas comment les fonctionnalités fonctionnent, vous vous retrouvez toujours avec des inquiétudes tout à fait légitimes de la part d’experts dignes de confiance sur la façon dont les fonctionnalités pourraient être abusées ou mal utilisées à l’avenir. « 

Gruber spécule qu’Apple peut voir cela comme une première étape dans la mise en œuvre du chiffrement de bout en bout dans iCloud.

Il soulève également des questions relatives au quatrième amendement. L’analyse d’un appareil, quel que soit son degré de sécurité, viole-t-elle les dispositions du quatrième amendement ? protections contre les perquisitions et saisies sans mandat? Il semblerait que la technologie et la façon dont elle est mise en œuvre ressemblent à une porte dérobée par procuration permettant aux forces de l’ordre de rechercher un téléphone sans cause probable.

Les critiques d’Apple ne manqueront pas de fustiger l’entreprise et sa plate-forme pour cette décision, tandis que de nombreux fans considéreront que c’est le bienvenu car ils n’ont de toute façon pas de CSAM sur leurs appareils et aimeraient voir leurs enfants protégés.

Indépendamment de la façon dont vous le regardez, il s’agit sans aucun doute d’une question controversée que la communauté débattra avec véhémence dans les semaines précédant la sortie à l’automne de ses systèmes d’exploitation. Avant de sauter d’un côté ou de l’autre de la barrière, vous devriez lire les explications d’Apple ainsi que les nombreuses FAQ et documents techniques pertinents. posté à son site Web.





Source link

Quelle est votre réaction ?

Excité
0
Heureux
0
J'adore
0
Pas certain
0
ridicule
0

Vous aimerez aussi

Laisser une réponse

Votre adresse e-mail ne sera pas publiée.