أثارت حادثة وقعت مؤخرا مخاوف بشأن أمن الأجهزة التي تعمل بالصوت. هذا الأسبوع ، قال زوجين متزوجان من بورتلاند بولاية أوريغون إن جهاز المنزل الذكي المدعوم من Alexa (AMIN) والذكاء الاصطناعي (AI) من Alexa ، سجل سرا محادثة خاصة وأرسلها إلى جهة اتصال عشوائية.
عند تلقي تسجيل لمحادثة من مساعد روبوت مباشر ، اتصل أحد معارفه بالزوجين على الفور ، ونصحهما "بإلغاء توصيل أجهزة Alexa الخاصة بك في الوقت الحالي. لقد تم الاختراق" ، وفقًا لما ذكرته بلومبرج. أكدت Amazon تقريرًا لمحطة تلفزيون محلية KIRO 7 في سياتل يوم الخميس ، وقالت إن جهاز Echo أسيء فهم أجزاء من المحادثة كأوامر ، مما تسبب في "الاستيقاظ" والتفكير في أنه تم توجيهه لإرسال رسالة. وقال متحدث باسم أمازون: "على الأرجح ، نظرًا لأن سلسلة الأحداث هذه ، فإننا نقوم بتقييم الخيارات لجعل هذه الحالة أقل احتمالًا".
شهدت أجهزة Amazon التي تعمل بأليكسا ، بما في ذلك جهاز Echo smart home الخاص بها ، ارتفاعًا كبيرًا في المبيعات بفضل الطلب المتزايد على مكبرات الصوت الذكية. أدى هذا الاعتماد السريع للأدوات التي تعمل بنظام AI إلى بيئة تنافسية بشكل متزايد حيث تتنافس Amazon مع جبابرة التكنولوجيا الآخرين في جيوبهم مثل Alphabet Inc. (GOOGL) مع Google Home و Apple Inc. (AAPL) مع HomePod. عندما ينطلق Internet of Things (IoT) ، ويربط مليارات الأجهزة مع بعضها البعض والسحابة ، يرى الكثيرون أن هذه الأجهزة تعمل تلقائيًا على مجموعة واسعة من المهام الشخصية ، وتؤدي أدوارًا مختلفة مثل الاتصال والرسائل ودفع مبالغ صغيرة مقابل الغاز ، صابون الغسيل وغيرها من اللوازم التي تراها بحاجة إلى تخزين.
الميكروفونات المتصلة بالإنترنت ليست آمنة بعد
بينما يزداد الطلب على هذه الأجهزة ، يلقي الحادث الأخير الضوء على المخاوف المتعلقة بمزيج من الميكروفونات المتصلة بالإنترنت والأتمتة التي تعمل بنظام الذكاء الاصطناعي ، سواء عن قصد أو من خلال سوء فهم مماثل.
اقترحت Amazon أن تقوم بإضافة إصلاح للأجهزة التي تعمل بنظام Alexa في أعقاب تقرير مفاده أن الجهاز بدأ يضحك دون سبب ، بسبب سوء فهم البرنامج لما سمع.
أشارت جين مونستر ، الشريك الإداري في شركة لوب فينتشرز كابيتال التي تركز على التكنولوجيا ، إلى أن "جانب الخصوصية لم يتجسد بشكل كامل مع المساعدين الرقميين" ، كما نقلت صحيفة وول ستريت جورنال. بينما ، "في النهاية سنكتشفها ،" قال إن التكنولوجيا تحتاج إلى مزيد من التدريب لتفسير الأوامر واللغة بشكل أكثر مثالية ، قبل أن يثق بها المستهلكون تمامًا.