"تشات جي بي تي" يفشل في الإجابة عن هذه الأسئلة
كشفت دراسة جديدة، عن أن أداة الذكاء الاصطناعي الشهيرة "تشات جي بي تي" (ChatGPT) فشلت في الإجابة بشكل صحيح عن ما يقرب من 75 في المائة من الأسئلة المتعلقة باستخدام العقاقير الطبية.
وبحسب شبكة "سي إن بي سي" الأميركية، فقد طرح الصيادلة في جامعة لونغ آيلاند الأميركية 39 سؤالاً متعلقاً بالأدوية على "تشات جي بي تي" ليجدوا أن 10 من إجاباته فقط يمكن عدّها مُرضِية.
أما بالنسبة للـ29 سؤالاً الأخرى، فإن الإجابات كانت إما غير دقيقة أو غير كاملة، وفقاً للدراسة.
وقالت سارة غروسمان، الأستاذة المساعدة في الصيدلة في جامعة لونغ آيلاند، والتي قادت فريق الدراسة: "يجب على المتخصصين في الرعاية الصحية والمرضى توخي الحذر بشأن استخدام (تشات جي بي تي) كمصدر موثوق للمعلومات المتعلقة بالأدوية".
وتعليقاً على ذلك، أشار متحدث باسم شركة الذكاء الاصطناعي الأميركية "أوبن أيه آي"، المطورة لـ"تشات جي بي تي"، إلى أن الأداة لم يتم ضبطها بدقة لتوفير المعلومات الطبية.
وأكد المتحدث على ضرورة عدم اعتماد المستخدمين على هذه الأداة كبديل للمشورة الطبية المتخصصة أو الرعاية التقليدية.
انضم إلى قناتنا الإخبارية على واتساب
تابع آخر الأخبار والمستجدات العاجلة مباشرة عبر قناتنا الإخبارية على واتساب. كن أول من يعرف الأحداث المهمة.
انضم الآنشاركنا رأيك في التعليقات | |||
تابعونا على وسائل التواصل | |||
Youtube | Google News |
---|