
[ad_1]
Apple semble avoir pris du recul sur son innovation la moins populaire depuis le clavier Butterfly, coupant furtivement les mentions de sa technologie controversée de numérisation/surveillance CSAM sur son site Web à la suite de critique généralisée de l’idée.
Outils de protection de l’enfance
L’entreprise en août a annoncé son intention d’introduire la «surveillance en tant que service» sur iPhone.
À cette époque, il révélait de nouvelles fonctionnalités de sécurité des communications désormais disponibles dans iOS 15.2 et un autre outil, notamment la capacité d’analyser les appareils d’un utilisateur par rapport à un ensemble de données pour identifier le matériel pédopornographique (CSAM). Si un tel matériel était découvert, le système signalait cet utilisateur pour enquête.
La réponse a été immédiate. Défenseurs de la vie privée à travers la planète vite compris que si votre iPhone pouvait analyser votre système pour une chose, cela pourrait facilement être demandé de rechercher un autre. Ils ont prévenu qu’une telle technologie deviendrait une boîte de Pandore, ouvert aux abus de la part de gouvernements autoritaires. Les chercheurs ont également averti que la technologie peut ne pas fonctionner particulièrement bien et pourrait être abusé ou manipulé pour impliquer des innocents.
Pomme tenté une offensive de charme, mais il a échoué. Alors que certains observateurs de l’industrie ont tenté de normaliser le système en partant du principe que tout ce qui se passe sur Internet peut déjà être suivi, la plupart des gens sont restés totalement sceptiques.
UNE un consensus s’est dégagé qu’en introduisant un tel système, Apple inaugurait délibérément ou accidentellement une nouvelle ère de surveillance universelle sans mandat sur l’appareil qui se situait mal à côté de son promesse de confidentialité.
Tufts University professeur de cybersécurité et politique Susan Landau, a déclaré : « C’est extraordinairement dangereux. C’est dangereux pour les affaires, la sécurité nationale, la sécurité publique et la vie privée.
Alors que tous les critiques ont convenu que CSAM est un mal, la peur que de tels outils soient abusés contre l’ensemble de la population s’est avérée difficile à changer.
En septembre, Apple a reporté le plan, déclarant : « Sur la base des commentaires des clients, des groupes de défense des droits, des chercheurs et d’autres, nous avons décidé de prendre du temps supplémentaire au cours des prochains mois pour recueillir des commentaires et apporter des améliorations avant de publier ces fonctionnalités de sécurité des enfants d’une importance cruciale. »
MacRumeurs affirme que toutes les mentions de l’analyse CSAM ont maintenant été supprimées de Page de sécurité des enfants d’Apple, qui traite maintenant des outils de sécurité de la communication dans Messages et protections de recherche. Ces outils utilisent l’apprentissage automatique sur l’appareil pour identifier les images sexuellement explicites et bloquer ce type de contenu. Ils donnent également des conseils aux enfants s’ils recherchent de telles informations. Il y a eu un changement dans cet outil : il n’alerte plus les parents si leur enfant choisit de voir de tels éléments, en partie parce que les critiques avaient souligné que cela pouvait présenter des risques pour certains enfants.
C’est bien qu’Apple ait cherché à protéger les enfants contre un tel matériel, mais c’est aussi bien qu’il semble avoir abandonné ce composant, du moins pour l’instant.
Je ne pense pas que l’entreprise ait complètement abandonné l’idée. Il ne serait pas allé aussi loin s’il ne s’était pas pleinement engagé à trouver des moyens de protéger les enfants contre de tels contenus. J’imagine que ce qu’il recherche maintenant, c’est un système qui offre une protection efficace mais dont on ne peut abuser pour nuire à des innocents ou prolongé par des régimes autoritaires.
Le danger est qu’après avoir inventé une telle technologie en premier lieu, Apple subira probablement encore des pressions gouvernementales pour l’utiliser.
A court terme, il scanne déjà les images stockées dans iCloud pour un tel matériel, tout à fait conforme à ce que fait déjà le reste de l’industrie.
Bien entendu, compte tenu de la récente Attaques du groupe NSO, haut profil peur de la sécurité, la militarisation et la balkanisation de « tribus » axées sur le contenu sur les réseaux sociaux et le tsunami d’attaques de ransomwares affligeant les entreprises numériques, il est facile de penser que l’innovation technologique a atteint un zénith de conséquences inattendues et profondément négatives. Peut-être devrions-nous maintenant explorer dans quelle mesure la technologie porte atteinte aux libertés fondamentales les geeks du AccueilBrew Computer Club cherchait à l’origine à favoriser et à protéger?
Merci de me suivre sur Twitter, ou rejoignez-moi dans le Bar & grill AppleHolic et Discussions Apple groupes sur MeWe.
Copyright © 2021 IDG Communications, Inc.
[ad_2]
Source link