العمال السوريون يعودون إلى بلدهم... أزمة يد عاملة تتربص بلبنان؟
“رجل آلي” يثير قلق “مايكروسوفت”!
أشارت شركة “مايكروسوفت” الأميركية إلى ان روبوت الدردشة التابع لها (Bing AI) والذي يعمل بتقنيات الذكاء الصناعي سيتم تقييده بحيث لا يُصبح متاحاً للمحادثات المطولة، وقالت إن السبب في ذلك يعود إلى “محادثات مقلقة” أجراها الروبوت.
ونقلت شبكة (CNBC) الأميركية عن الشركة قولها إنه سيتم تحديد المحادثات بـ50 سؤالاً في اليوم وخمسة أسئلة وأجوبة لكل جلسة فردية.
ولفتت الشركة إلى أن, “هذه الخطوة ستحد من بعض السيناريوهات حيث يمكن لجلسات الدردشة الطويلة أن “تربك” نموذج الدردشة”.
ويأتي التغيير بعد أن اكتشف مختبرو النسخة التجريبية الأوائل من (chatbot) المصمم لتحسين محرك بحث (Bing)، أنه يمكن أن يخرج عن المسار ويناقش العنف، ويصرح عن الحب، ويصر على أنه كان على صواب عندما يكون خاطئاً.
وألقت “مايكروسوفت” باللوم على جلسات الدردشة الطويلة التي تضم أكثر من 15 سؤالاً في بعض عمليات التبادل الأكثر إثارة للقلق حيث كرر الروبوت نفسه أو قدم إجابات مخيفة.
وعلى سبيل المثال ففي دردشة واحدة قال الروبوت (Bing) للكاتب التكنولوجي بن طومسون: “لا أريد أن أكمل هذه المحادثة معك. لا أعتقد أنك مستخدم لطيف ومحترم, لا أعتقد أنك شخص جيد, لا أعتقد أنك تستحق وقتي وطاقتي”.
ويسلط الكشف عن هذه المشكلة الضوء على كيفية عمل هذه النماذج اللغوية الكبيرة، والتي لا تزال قيد الاكتشاف. وتقول “مايكروسوفت” إنها ستدرس توسيع الحد الأقصى من المحادثات في المستقبل وطلبت أفكاراً من مختبريها.
وترى “مايكروسوفت” أن الطريقة الوحيدة لتحسين منتجات الذكاء الاصطناعي هي طرحها في العالم والتعلم من تفاعلات المستخدم.
انضم إلى قناتنا الإخبارية على واتساب
تابع آخر الأخبار والمستجدات العاجلة مباشرة عبر قناتنا الإخبارية على واتساب. كن أول من يعرف الأحداث المهمة.
انضم الآنشاركنا رأيك في التعليقات | |||
تابعونا على وسائل التواصل | |||
Youtube | Google News |
---|