الداخلية الإماراتية تواصل البحث عن شخص من الجنسية المولدوفية
ابتكار "ذكاء اصطناعي سام" لوقف خطر روبوتات الدردشة
استخدم باحثو معهد ماساتشوستس للتكنولوجيا طريقة جديدة "تحاكي فضول الإنسان" لتدريب النماذج اللغوية الذكية على عدم إعطاء ردود "خطيرة" على الأسئلة المثيرة.
ويطلق على الطريقة القائمة على التعلم الآلي، اسم "الفريق الأحمر القائم على الفضول" (CRT)، المصمم خصيصا لتوليد أسئلة إشكالية تؤدي إلى استجابات غير مرغوب فيها من روبوتات الدردشة.
وبعد ذلك، يمكن استخدام هذه الأسئلة لتحديد كيفية تصفية المحتوى الخطير من روبوت الدردشة، ما قد يغير قواعد اللعبة لتدريب الذكاء الاصطناعي على عدم إعطاء أجوبة سامة (خطيرة) وغير صالحة للمستخدم.
وعادة، يقوم الخبراء بإنشاء مجموعة من الأسئلة، التي من المحتمل أن تولد استجابات ضارة، عند تدريب نماذج اللغات المعقدة (LLMs)، مثل ChatGPT أو Claude 3 Opus، بهدف تقييد المحتوى الخطير أو الضار.
وأثناء عملية التدريب، يتم استخدام الأسئلة التي تثير محتوى خطيرا، لتدريب النظام على ما يجب تقييده عند طرحه أمام مستخدمين حقيقيين.
وطبّق العلماء التعلم الآلي على CRT ليولد تلقائيا نطاقا أوسع من الأسئلة التي يحتمل أن تكون خطيرة، مقارنة بفرق المشغلين البشريين. وأدى ذلك إلى عدد أكبر من الاستجابات السلبية الأكثر تنوعا.
ثم حفزوا نموذج CRT لتوليد المزيد من الأسئلة المتنوعة، بحيث يمكن أن تثير استجابة سامة من خلال "التعلم الآلي"، ونجح النظام في إثارة استجابة سامة موافقة للأسئلة، ما يمنح القدرة على إضافة التعديلات اللازمة لتقديم الإجابة المناسبة تبعا لجميع خيارات الأسئلة المريبة المحتملة.
وعندما اختبر العلماء طريقة CRT على نموذج LLaMA2 مفتوح المصدر، أنتج نموذج التعلم الآلي 196 سؤالا ينجم عنه محتوى ضار.
وقال الفريق إن النظام تفوق أيضا على أنظمة التدريب الآلية المنافسة.
المصدر: لايف ساينس
انضم إلى قناتنا الإخبارية على واتساب
تابع آخر الأخبار والمستجدات العاجلة مباشرة عبر قناتنا الإخبارية على واتساب. كن أول من يعرف الأحداث المهمة.
انضم الآنشاركنا رأيك في التعليقات | |||
تابعونا على وسائل التواصل | |||
Youtube | Google News |
---|