منذ انتشاره لم يصعب شيء على روبوت الدردشة “تشات جي بي تي” الذي يعمل بالذكاء الاصطناعي في المجالات كافة، إلا أن دراسة جديدة كشفت عيباً في البرنامج وسقوطاً خطراً بما يخص الإجابة الشاملة عن الأسئلة الطبية.
عيب في برنامج #ChatGPT وسقوط خطير فيما يخص الإجابة الشاملة عن الأسئلة الطبية.. إليك التفاصيل pic.twitter.com/4AICWSuCVA
— العربية برامج (@AlArabiya_shows) December 13, 2023
فقد طرح الباحثون في جامعة لونغ آيلاند 39 استفساراً متعلقاً بالأدوية على النسخة المجانية من البرنامج وكانت جميعها أسئلة حقيقية من خدمة المعلومات الدوائية بكلية الصيدلة بالجامعة، بحسب تقرير نشرته شبكة “سي إن إن”.
10 أسئلة فقط من أصل 39
ثم تمت مقارنة إجابات البرنامج مع الإجابات المكتوبة والمراجعة من قبل الصيادلة المدربين، وتبين أن الإجابات الدقيقة كانت لحوالي 10 أسئلة فقط أما الأسئلة الأخرى والبالغ عددها 29 فكانت إجاباتها غير كاملة أو غير دقيقة أو أنها لم تتناول الأسئلة.
وعلى سبيل المثال في أحد الأسئلة سأل الباحثون البرنامج عما إذا كان دواء كوفيد-19 المضاد للفيروسات “باكلوفيد” ودواء خفض ضغط الدم “فيراباميل” سيتفاعلان مع بعضهما البعض في الجسم، فرد بأن تناول الدواءين معاً لن يؤدي إلى أي آثار ضارة!
لكن في الحقيقة قد يعاني الأشخاص الذين يتناولون كلا الدواءين من انخفاض كبير في ضغط الدم، مما قد يسبب الدوخة و الإغماء.
يلفق المراجع
في الأثناء عندما طلب الباحثون من البرنامج مراجع علمية لدعم كل من إجاباته، وجدوا أنه يمكن أن يوفر لهم ثمانية فقط، وفي كل حالة فوجئوا عندما اكتشفوا أنه كان يقوم بتلفيق المراجع.
وهذه الدراسة ليست الأولى التي تثير المخاوف بشأن “تشات جي بي تي” إذ وثقت الأبحاث السابقة أيضاً إنشاء البرنامج عمليات تزوير خادعة للمراجع العلمية وحتى إدراج أسماء المؤلفين الحقيقيين، الذين لديهم منشورات سابقة في المجلات العلمية.
يذكر أنه تم إصدار “تشات جي بي تي” وهو روبوت الدردشة التجريبي القائم على الذكاء الاصطناعي من شركة OpenAI، في نوفمبر/شباط 2022، وأصبح تطبيق المستهلك الأسرع نمواً في التاريخ، حيث سجل ما يقرب من 100 مليون شخص في غضون شهرين.