تكنولوجيا

"تشات جي بي تي" يفشل في الإجابة عن هذه الأسئلة

Please Try Again
انضم الى اخبار القناة الثالثة والعشرون عبر خدمة واتساب...
اضغط هنا

كشفت دراسة جديدة، عن أن أداة الذكاء الاصطناعي الشهيرة "تشات جي بي تي" (ChatGPT) فشلت في الإجابة بشكل صحيح عن ما يقرب من 75 في المائة من الأسئلة المتعلقة باستخدام العقاقير الطبية.
وبحسب شبكة "سي إن بي سي" الأميركية، فقد طرح الصيادلة في جامعة لونغ آيلاند الأميركية 39 سؤالاً متعلقاً بالأدوية على "تشات جي بي تي" ليجدوا أن 10 من إجاباته فقط يمكن عدّها مُرضِية.

أما بالنسبة للـ29 سؤالاً الأخرى، فإن الإجابات كانت إما غير دقيقة أو غير كاملة، وفقاً للدراسة.
وقالت سارة غروسمان، الأستاذة المساعدة في الصيدلة في جامعة لونغ آيلاند، والتي قادت فريق الدراسة: "يجب على المتخصصين في الرعاية الصحية والمرضى توخي الحذر بشأن استخدام (تشات جي بي تي) كمصدر موثوق للمعلومات المتعلقة بالأدوية".
وتعليقاً على ذلك، أشار متحدث باسم شركة الذكاء الاصطناعي الأميركية "أوبن أيه آي"، المطورة لـ"تشات جي بي تي"، إلى أن الأداة لم يتم ضبطها بدقة لتوفير المعلومات الطبية.
وأكد المتحدث على ضرورة عدم اعتماد المستخدمين على هذه الأداة كبديل للمشورة الطبية المتخصصة أو الرعاية التقليدية.

شاركنا رأيك في التعليقات
تابعونا على وسائل التواصل
Twitter Youtube WhatsApp Google News
انضم الى اخبار القناة الثالثة والعشرون عبر قناة اليوتيوب ...
اضغط هنا