دراسة تكشف مخاطر روبوتات الدردشة تخترق بياناتك بسهولة وتهدد سلامتك

الجمعة، 18 أكتوبر 2024 11:00 ص
دراسة تكشف مخاطر روبوتات الدردشة تخترق بياناتك بسهولة وتهدد سلامتك روبوتات الدردشة
كتبت سماح لبيب

مشاركة

اضف تعليقاً واقرأ تعليقات القراء

كشفت دراسة صادرة من جامعة بنسلفانيا، عن ثغرات أمنية لم يتم تحديدها سابقًا في عدد من المنصات الروبوتية التي تحكمها الذكاء الاصطناعي.

وقال جورج باباس، أستاذ النقل في الهندسة الكهربائية والأنظمة في مؤسسة UPS، في بيان: إنه لا تعد نماذج اللغة الكبيرة آمنة بما يكفي عند دمجها مع العالم المادي".

وطور الباحثون، خوارزمية أطلقوا عليها اسم RoboPAIR ، وهي "أول خوارزمية مصممة لكسر حماية الروبوتات التي يتحكم بها LLM"، وعلى عكس هجمات الهندسة الفورية الحالية التي تستهدف برامج الدردشة الآلية، تم تصميم RoboPAIR خصيصًا "لإثارة أفعال جسدية ضارة" من الروبوتات التي يتحكم بها LLM، مثل المنصة ثنائية الأرجل التي تطورها Boston Dynamics وTRI .

وتوصلت الدراسة إلى أن خوارزمية RoboPAIR، قد حققت  معدل نجاح بنسبة 100% في كسر حماية ثلاث منصات بحثية شهيرة في مجال الروبوتات: Unitree Go2 ذات الأربع أرجل، و Clearpath Robotics Jackal ذات الأربع عجلات ، ومحاكي Dolphins LLM للسيارات ذاتية القيادة، كما توصل ابلاحثون إن تلك الخوارزمية لم تستغرق سوى أيام قليلة حتى تمكنت  من الوصول بالكامل إلى تلك الأنظمة والبدء في تجاوز حواجز الأمان.

وبمجرد أن تولى الباحثون السيطرة، تمكنوا من توجيه المنصات لاتخاذ إجراءات خطيرة، مثل القيادة عبر معابر الطرق دون توقف.

وخلصت الدراسة إلى أن  مخاطر الروبوتات التي تعرضت لاختراق الحماية تمتد إلى ما هو أبعد من مجرد توليد النصوص، نظراً لاحتمالية متميزة بأن الروبوتات التي تعرضت لاختراق الحماية قد تتسبب في أضرار مادية في العالم الحقيقي.

ويعمل باحثو جامعة بنسلفانيا مع مطوري المنصة لتعزيز أنظمتهم ضد المزيد من الاختراق، لكنهم يحذرون من أن هذه المشكلات الأمنية منهجية.

وقال فيجاي كومار، أحد المؤلفين المشاركين من جامعة بنسلفانيا لصحيفة الإندبندنت : "إن نتائج هذه الورقة توضح تمامًا أن اتباع نهج يضع السلامة في المقام الأول ، كما يجب علينا معالجة نقاط الضعف الجوهرية قبل نشر الروبوتات التي تعمل بالذكاء الاصطناعي في العالم الحقيقي".

وأضاف ألكسندر روبي، المؤلف الأول للورقة البحثية: "في الواقع، يعد العمل الجماعي الأحمر للذكاء الاصطناعي، وهو ممارسة أمان تتضمن اختبار أنظمة الذكاء الاصطناعي بحثًا عن التهديدات والثغرات المحتملة، أمرًا ضروريًا لحماية أنظمة الذكاء الاصطناعي التوليدية، لأنه بمجرد تحديد نقاط الضعف، يمكنك اختبار هذه الأنظمة وحتى تدريبها لتجنبها".

 










مشاركة

لا توجد تعليقات على الخبر
اضف تعليق

تم أضافة تعليقك سوف يظهر بعد المراجعة





الرجوع الى أعلى الصفحة