Macbook

Apples présente de nouvelles protections pour la sécurité des enfants pour aider à détecter le CSAM et plus encore


C’est une partie laide du monde dans lequel nous vivons, mais les enfants sont souvent la cible d’abus et d’exploitation en ligne et par le biais de la technologie. Aujourd’hui, Apple a annoncé plusieurs nouvelles protections à venir sur ses plateformes — iOS 15, iPadOS 15 et macOS Monterey — pour aider à protéger les enfants et limiter la propagation du CSAM.

L’application Messages disposera de nouveaux outils pour avertir les enfants et leurs parents lorsqu’ils reçoivent ou envoient des photos sexuellement explicites. Si une photo explicite est envoyée, l’image sera floue, et l’enfant sera prévenu. En plus d’avoir été prévenus du contact, ils recevront également des ressources et des assurances qu’il est acceptable de ne pas voir la photo. Apple déclare également que les parents pourront être informés que leur enfant mai ne pas être d’accord.

 » Par mesure de précaution supplémentaire, l’enfant peut également être informé que, pour s’assurer qu’il est en sécurité, ses parents recevront un message s’ils le visionnent. Des protections similaires sont disponibles si un enfant tente d’envoyer des photos sexuellement explicites. être prévenus avant l’envoi de la photo, et les parents peuvent recevoir un message si l’enfant choisit de l’envoyer. »

Apple rassure également que ces nouveaux outils dans Messages utilisent l’apprentissage automatique sur l’appareil pour identifier les images d’une manière qui ne permet pas à l’entreprise d’accéder aux messages.

Offres VPN : licence à vie pour 16 $, forfaits mensuels à 1 $ et plus

Détection CSAM

Une autre grande préoccupation à laquelle Apple s’attaque est la propagation du CSAM. Nouvelle technologie dans iOS 15 et iPad OS 15 permettra à Apple de détecter les images CSAM connues stockées dans iCloud Photos et de signaler ces images au National Center for Missing and Exploited Children.

 » La méthode d’Apple pour détecter les CSAM connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser les images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournie par le NCMEC et d’autres organisations de sécurité des enfants. Apple transforme davantage cette base de données en un ensemble illisible de hachages qui est stocké en toute sécurité sur les appareils des utilisateurs. »

Les processus exacts peuvent être compliqués, mais Appel assure que la méthode a extrêmement peu de chances de signaler le contenu de manière incorrecte.

« En utilisant une autre technologie appelée partage de secret de seuil, le système garantit que le contenu des bons de sécurité ne peut pas être interprété par Apple à moins que le compte iCloud Photos ne dépasse un seuil de contenu CSAM connu. Le seuil est défini pour fournir un niveau de précision extrêmement élevé et garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné. »

Siri et mises à jour de recherche

Enfin, Apple a également annoncé que Siri et Search fourniraient des ressources supplémentaires pour aider les enfants et les parents à rester en sécurité en ligne et à obtenir de l’aide s’ils se trouvent dans des situations dangereuses. Et en plus de cela, Apple dit qu’il s’agira de protections lorsque quelqu’un recherchera des requêtes liées à CSAM.

« En utilisant une autre technologie appelée partage de secret de seuil, le système garantit que le contenu des bons de sécurité ne peut pas être interprété par Apple à moins que le compte iCloud Photos ne dépasse un seuil de contenu CSAM connu. Le seuil est défini pour fournir un niveau de précision extrêmement élevé et garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné. »

Ces mises à jour sont attendues dans iOS 15, iPadOS 15, watchOS 8 et macOS Monterey plus tard cette année.

Nous pouvons gagner une commission pour les achats en utilisant nos liens. Apprendre encore plus.





Source link

Quelle est votre réaction ?

Excité
0
Heureux
0
J'adore
0
Pas certain
0
ridicule
0

Vous aimerez aussi

Laisser une réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Plus dans:Macbook