Apple News

Apple publie une FAQ sur la sécurité des enfants pour répondre aux problèmes de numérisation CSAM et plus encore


Apple a publié une nouvelle FAQ pour répondre à certaines des questions et préoccupations soulevées concernant son nouveau La sécurité des enfants mesures annoncées la semaine dernière.

La nouvelle FAQ accompagne une série d’explications techniques sur la technologie récemment annoncée qui peut détecter le matériel d’abus sexuel d’enfants téléchargé sur iCloud Photos, ainsi qu’une nouvelle fonctionnalité qui peut utiliser l’apprentissage automatique pour identifier si un enfant envoie ou reçoit des images sexuellement explicites. Dans la nouvelle FAQ, Apple semble particulièrement soucieux d’établir la différence entre ces deux nouvelles fonctionnalités, un extrait :

La sécurité de la communication dans Messages est conçue pour donner aux parents et aux enfants des outils supplémentaires pour aider à protéger leurs enfants contre l’envoi et la réception d’images sexuellement explicites dans l’application Messages. Cela ne fonctionne que sur les images envoyées ou reçues dans l’application Messages pour les comptes enfants configurés dans le partage familial. Il analyse les images sur l’appareil et ne modifie donc pas les garanties de confidentialité des messages. Lorsqu’un compte enfant envoie ou reçoit des images sexuellement explicites, la photo sera floue et l’enfant sera averti, présenté des ressources utiles et rassuré qu’il n’y a pas de problème s’il ne veut pas voir ou envoyer la photo. Par mesure de précaution supplémentaire, les jeunes enfants peuvent également être informés que, pour s’assurer qu’ils sont en sécurité, leurs parents recevront un message s’ils le voient. La deuxième fonctionnalité, la détection CSAM dans iCloud Photos, est conçue pour empêcher CSAM d’accéder aux photos iCloud sans fournir d’informations à Apple sur des photos autres que celles qui correspondent aux images CSAM connues. Les images CSAM sont illégales à posséder dans la plupart des pays, y compris les États-Unis. Cette fonctionnalité n’affecte que les utilisateurs qui ont choisi d’utiliser iCloud Photos pour stocker leurs photos. Cela n’affecte pas les utilisateurs qui n’ont pas choisi d’utiliser iCloud Photos. Il n’y a aucun impact sur les autres données sur l’appareil. Cette fonctionnalité ne s’applique pas aux messages

Les questions couvrent également les préoccupations concernant les messages partagés avec les forces de l’ordre, si Apple brise le cryptage de bout en bout, les images CSAM, la numérisation de photos, etc. Il indique également si la détection CSAM pourrait être utilisée pour détecter autre chose (non) et si Apple ajouterait des images non CSAM à la technologie à la demande d’un gouvernement :

Apple refusera de telles demandes. La capacité de détection CSAM d’Apple est conçue uniquement pour détecter les images CSAM connues stockées dans des photos iCloud qui ont été identifiées par des experts du NCMEC et d’autres groupes de sécurité des enfants. Nous avons déjà été confrontés à des demandes de création et de déploiement de changements mandatés par le gouvernement qui dégradent la confidentialité des utilisateurs, et nous avons fermement refusé ces demandes. Nous continuerons à les refuser à l’avenir. Soyons clairs, cette technologie se limite à détecter le CSAM stocké dans iCloud et nous n’accéderons à aucune demande d’un gouvernement pour l’étendre. De plus, Apple procède à un examen humain avant de faire un rapport au NCMEC. Dans le cas où le système signale les photos qui ne correspondent pas aux images CSAM connues, le compte ne serait pas désactivé et aucun rapport ne serait déposé au NCMEC

Les plans d’Apple ont suscité des inquiétudes au sein de la communauté de la sécurité et ont suscité un tollé général de la part de personnalités telles que le lanceur d’alerte de la NSA Edward Snowden.

Nous pouvons gagner une commission pour les achats en utilisant nos liens. Apprendre encore plus.





Source link

Quelle est votre réaction ?

Excité
0
Heureux
0
J'adore
0
Pas certain
0
ridicule
0

Vous aimerez aussi

Laisser une réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Plus dans:Apple News