حذر تقرير هو الأول من نوعه من إمكانية استغلال ChatGPT و أنظمة الذكاء الاصطناعي الأخرى لشن هجمات إلكترونية وإسقاط أنظمة كمبيوتر أخرى، حيث كشف باحثون من جامعة شيفيلد عن ثغرة أمنية في ستة أدوات تجارية للذكاء الاصطناعي من خلال مهاجمة كل واحدة منها بنجاح، وفقاً لصحيفة "مترو".
اكتشف الخبراء أن بإمكانهم إنتاج تعليمات برمجية ضارة إذا طرحوا أسئلة محددة على منصات مختلفة، بمجرد تنفيذ الكود، يمكن أن يؤدي إلى تسريب معلومات سرية ومقاطعة - أو حتى تدمير - الخدمات.
وقد تم بالفعل استخدام عمل الفريق لتعزيز منصات الذكاء الاصطناعي التجارية، على الرغم من أنهم يحذرون من أن الاستراتيجيات السيبرانية المحدثة قيد التطوير باستمرار.
هذه الدراسة، التي أجراها أكاديميون من قسم علوم الكمبيوتر في جامعة شيفيلد بالمملكة المتحدة، هي الأولى التي تظهر أن أنظمة تحويل النص إلى SQL - الذكاء الاصطناعي الذي يمكّن الأشخاص من البحث في قواعد البيانات عن طريق طرح الأسئلة بلغة بسيطة تُستخدم في مجموعة واسعة من الصناعات - يمكن أن تكون استغلالها لمهاجمة أنظمة الكمبيوتر في العالم الحقيقي.
وكشفت النتائج التي توصلوا إليها كيف يمكن اختراق أنظمة الذكاء الاصطناعي والتلاعب بها للمساعدة في سرقة المعلومات الحساسة، أو التلاعب بقواعد البيانات بأكملها أو تدميرها، أو حتى إسقاط الخدمات من خلال هجمات رفض الخدمة.
وقال شوتان بينج، طالب دكتوراه الذي شارك في قيادة البحث بجامعة شيفيلد: "في الواقع، العديد من الشركات ببساطة لا تدرك هذه الأنواع من التهديدات، ونظرًا لتعقيد روبوتات الدردشة، حتى داخل المجتمع، هناك أشياء غير مفهومة تمامًا".