جمع الباحثون قائمة بأكثر من 1000 كلمة تنشط كل من مساعدين جوجل وأليكسا وسيري عن غير قصد، بما في ذلك كلمات "التبغ" و "مونتانا" و "الانتخاب" و "المدينة"، وبمجرد تنشيطها، تسجل تسجيلات صوتية يتم نقلها لاحقًا إلى أصحاب الأنظمة الأساسية، حيث يمكن نسخها لأغراض ضمان الجودة أو تحليل آخر.
وفقا لما ذكرته صحيفة "ديلى ميل" البريطانية، فإن الفريق من Ruhr-Universität Bochum ومعهد Max Planck للأمن والخصوصية السيبرانيين في ألمانيا، أكدوا أن لذلك آثار مقلقة على خصوصية المستخدم، ويعني على الأرجح أن التسجيلات القصيرة للمحادثات الشخصية يمكن أن تنتهي دوريًا في أيدي موظفي أمازون وجوجل ومايكروسوفت وأبل.
اختبرت المجموعة هذه الكلمات المذكورة من المساعدين، بالإضافة إلى ثلاثة مساعدين افتراضيين حصريين للسوق الصيني.
كما أنهم خلال التجربة، تركوا كل مساعد افتراضي بمفرده في غرفة مزودة بتلفزيون عمل عشرات الساعات من الحلقات من Game of Thrones و Modern Family و House of Cards ، مع مسارات صوتية باللغة الإنجليزية والألمانية والصينية لكل منها.
وعند تنشيط الأجهزة، يتم تشغيل شاشة LED على كل جهاز، ويشير الفريق إلى الحوار الذي يتم التحدث به في كل مرة يلاحظ فيها تشغيل شاشة LED، ومن ذلك تم رصد أكثر من 1000 كلمة وعبارة ينتج عنها عمليات تنشيط غير مقصودة.
وفقًا للباحثة Dorothea Kolossa، من المحتمل أن مصممين المساعدين الافتراضيين اختاروا عن قصد جعلها أكثر حساسية لتجنب إحباط المستخدمين، مضيفة: "الأجهزة مبرمجة عمدا بطريقة مرنة للغاية، لأنه من المفترض أن تكون قادرة على فهم البشر".
كما أنه بمجرد تنشيطها، ستستخدم الأجهزة برنامج تحليل الكلام المحلي لتحديد ما إذا كان المقصود من الصوت أن يكون كلمة أو عبارة تنشيط.
وإذا كان الجهاز يعلق احتمالية عالية بأن الهدف من الصوت كان بمثابة مشغل، فسيرسل تسجيلًا صوتيًا لعدة ثوانٍ إلى الخوادم السحابية لتحليل إضافي.
تم أضافة تعليقك سوف يظهر بعد المراجعة