كشف أحد المرشحين في جامعة إنديانا بلومنجتون عن مخاطر الخصوصية المحتملة المرتبطة بنموذج اللغة القوى الخاص بـOpenAI، GPT-3.5 Turbo، حيث تواصل الشهر الماضي، فريق من جامعة إنديانا بقيادة الباحث روي تشو مع أفراد، بما في ذلك موظفو صحيفة نيويورك تايمز، باستخدام عناوين البريد الإلكتروني التي تم الحصول عليها من النموذج.
واستغلت التجربة قدرة GPT-3.5 Turbo على استرجاع المعلومات الشخصية، متجاوزة ضمانات الخصوصية المعتادة، على الرغم من عدم اكتماله، إلا أن النموذج قدم بدقة عناوين العمل لـ80 بالمائة من موظفي التايمز الذين تم اختبارهم.
وهذا يثير مخاوف بشأن إمكانية قيام أدوات الذكاء الاصطناعي التوليدية، مثل ChatGPT بالكشف عن معلومات حساسة مع تعديلات طفيفة.
تم تصميم نماذج لغة OpenAI، بما في ذلك GPT-3.5 Turbo وGPT-4، للتعلم المستمر من البيانات الجديدة، واستخدم الباحثون واجهة الضبط الدقيق للنموذج، والمخصصة للمستخدمين لتوفير المزيد من المعرفة في مجالات محددة، لمعالجة دفاعات الأداة، كما تم قبول الطلبات التي يتم رفضها عادةً في الواجهة القياسية من خلال هذه الطريقة.
وتستخدم OpenAI وMeta وGoogle تقنيات مختلفة لمنع طلبات الحصول على معلومات شخصية، لكن الباحثين وجدوا طرقًا لتجاوز هذه الضمانات.
واستخدم تشو وزملاؤه واجهة برمجة التطبيقات الخاصة بالنموذج، بدلاً من الواجهة القياسية، وشاركوا في عملية تُعرف باسم الضبط الدقيق لتحقيق نتائجهم.
واستجابت شركة OpenAI للمخاوف، مؤكدة التزامها بالسلامة ورفض طلبات الحصول على معلومات خاصة، ومع ذلك يثير الخبراء الشكوك، ويسلطون الضوء على الافتقار إلى الشفافية فيما يتعلق ببيانات التدريب المحددة والمخاطر المحتملة المرتبطة بنماذج الذكاء الاصطناعي التي تحتوي على معلومات خاصة.
وتثير الثغرة الأمنية المكتشفة في GPT-3.5 Turbo مخاوف أوسع نطاقًا بشأن الخصوصية في نماذج اللغات الكبيرة.
ويرى الخبراء أن النماذج المتاحة تجاريًا تفتقر إلى دفاعات قوية لحماية الخصوصية، مما يشكل مخاطر كبيرة لأن هذه النماذج تتعلم باستمرار من مصادر البيانات المتنوعة.
وتضيف الطبيعة السرية لممارسات بيانات التدريب في OpenAI تعقيدًا إلى المشكلة، حيث يحث النقاد على زيادة الشفافية والتدابير لضمان حماية المعلومات الحساسة في نماذج الذكاء الاصطناعي.