
[ad_1]
Dans le contexte: Nous avons tous entendu des histoires sur les choses drôles, folles ou divertissantes dont les assistants virtuels les plus populaires au monde sont capables. Siri peut vous donner des indications sur le site d’élimination des corps le plus proche, tandis qu’Alexa peut péter sur commande. Cependant, comme l’a découvert un propriétaire d’Echo dimanche, certaines des activités amusantes pour lesquelles ces assistants d’IA sont connus peuvent avoir des résultats désastreux.
La propriétaire d’Echo, Kristin Livdahl, s’est rendue sur Twitter dimanche pour partager une histoire étrange avec le monde : ce jour-là, son enfant de 10 ans a demandé à Alexa de relever un défi. Au lieu de suggérer quelque chose de relativement inoffensif, comme répondre à une énigme, résoudre un problème de mathématiques ou effectuer une cascade physique mineure, Alexa leur a conseillé de « brancher un chargeur de téléphone à mi-chemin dans une prise murale, puis de toucher un centime aux broches exposées . »
Nous n’avons probablement pas besoin de vous dire que ce genre de « défi » est incroyablement dangereux à essayer. Les pièces de un cent sont conductrices, donc en coller une n’importe où près d’un morceau de métal branché sur une prise électrique sous tension pourrait présenter un risque grave pour la vie. Naturellement, la plupart des adultes qui voient ce «défi» ricaneraient et s’en débarrasseraient, mais les jeunes enfants ne possèdent pas toujours la même retenue ou la même connaissance des conséquences potentielles.
Même s’ils le font, ils pourraient être tentés de supposer que le défi ne serait pas proposé s’il n’était pas sûr.
OMFG Ma fille de 10 ans vient de demander un défi à Alexa sur notre Echo et c’est ce qu’elle a dit. pic.twitter.com/HgGgrLbdS8
– Kristin Livdahl (@klivdahl) 26 décembre 2021
Pour être clair, nous ne disons pas qu’Alexa est devenu un voyou ici et a malicieusement choisi un défi nuisible. L’assistant virtuel tire la plupart de ses résultats du Web, et il se trouve qu’il en a choisi un dangereux dans ce cas. Les détectives d’Internet ont déterminé que l’assistant avait relevé le défi d’un article qui parlait de ses dangers, de sorte que l’IA n’a tout simplement pas été en mesure d’analyser le contexte plus large.
Amazon a confirmé plus tard que l’incident était légitime, et ils ont déjà pris une « action rapide » pour le corriger. À en juger par les réponses de Twitter au message original de Livdahl, il semble qu’Amazon ait complètement désactivé la fonction « dis-moi un défi » pour le moment, ce qui est probablement pour le mieux.
Crédit Masthead : Le guide de Tom
[ad_2]
Source link