سوق الدواء
كل ما تريد معرفته عن سوق الدواء

الدكتور ياسر فرغلي يكتب… هل «يهلوس» «ChatGPT» عندما يتعلق الأمر باستفسارات الصيادلة أو المرضى؟

الذكاء الاصطناعي و الدواء «5»

كنت على وشك البداية في متابعة كتابة مقالاتي عن الذكاء الاصطناعي والدواء و تحديدًا عن دوره في سلاسل الامداد المتعلقة بصناعة الدواء ولكن جذبني خبر نشر عن دراستين حديثتين قُدمتا في مؤتمر الجمعية الامريكية لصيادلة النظم الصحية في مدينة أنهايم في الولايات المتحدة الأمريكية في الفترة من 3 الي 7 ديسمبر 2023 خلُصتا الي أن «تشات جي بي تي»، يهلوس عندما يتعلق الأمر باستفسارات الصيادلة أو المرضى.

نعم يا عزيزي، بلغة علوم الحاسب فإنه «يهلوس halucinate» بل و يزيد عليها ويفبرك المصادر التي يذكرها.

قبل أن نبدأ…

الهدف من هذه المقالة لا ينفي العمل الرائع الذي قام به العلماء والمهندسون في شركات مثل «OpenAI» الشركة المصممة والمبتكرة للأداة، ولكن لتقدير أعمال وإمكانيات هذه الابتكارات بشكل أحسن حتى نتمكن من الاستفادة بشكل أفضل من هذه الأدوات. إن التحذيرات الحالية هي تمثل لحظة من الزمن عند كتابة المقالة وقد تكون النتائج التي تراها في المستقبل مختلفة. أي آراء يتم التعبير عنها في هذه المقالة هي آرائي ولا تمثل بالضرورة أي موقف رسمي لـ «سوق الدواء».

دعونا نلقي نظرة على كيفية عمل ChatGPT!

«ChatGPT» عبارة عن روبوت دردشة «Chatbot» قائم علي الذكاء الاصطناعي تم تطويره بواسطة «OpenAI» وتم إطلاقه للاستخدام العام في نوفمبر 2022. في حين أن روبوتات الدردشة الأخرى من عمالقة التكنولوجيا مثل Google وApple وMicrosoft التي تعمل بالذكاء الاصطناعي لازالت قيد التطوير، لذلك فقد تفوق إطلاقه المبكر من OpenAI على الروبوتات الأخرى في الوقت الحالي، مع وصول الموقع إلى أكثر من 100 مليون مستخدم خلال شهرين، ويعد هذا نموا واسع النطاق أسرع من TikTok وInstagram والعديد من التطبيقات الشائعة الأخرى.

كيف يعمل ChatGPT من الداخل؟

من المهم الإشارة إلى أن «ChatGPT» هو «نموذج لغة كبير Large Language Model»  مصمم لإخراج نص يشبه ما يكتبه الانسان بناءًا على طلب المستخدم. ويستخدم نموذجًا إحصائيًا لتخمين الكلمة والجملة والفقرة التالية، بناءً على الاحتماليات، لتتناسب مع طلب المستخدم أو من يسأل. إن حجم البيانات المُصدر لنموذج اللغة يجعل «ضغط البيانات» ضروريًا مما أدى إلى فقدان الدقة في المنتج النهائي، وهذا يعني أنه حتى لو كانت البيانات الصادقة موجودة في البيانات الأصلية، فإن «الخسارة» في النموذج تنتج «غموضًا» يؤدي إلى إنتاج النموذج بدلاً من تلك العبارة الأكثر «معقولة». باختصار، ليس لدى النموذج القدرة على تقييم ما إذا كانت المخرجات التي ينتجها تعادل عبارة صادقة أم لا.

مالا تعرفه عن «ChatGPT»

ما قد لا تعرفه عن «ChatGPT» هو أن لديه قيودًا كبيرة كمساعد بحث موثوق، أحد هذه القيود هو أنه من المعروف أنه يقوم بتلفيق الاستشهادات أو «الهلوسة» (في مصطلحات التعلم الآلي)، قد تبدو هذه الاستشهادات شرعية وعلمية، لكنها ليست حقيقية، من المهم أن نلاحظ أن الذكاء الاصطناعي يمكنه توليد اجابات بثقة دون دعم البيانات مثلما يستطيع الشخص الواقع تحت تأثير الهلوسة التحدث بثقة دون التفكير السليم، إذا حاولت العثور على هذه المصادر من خلال «Google» أوفي المكتبة، فإن وقتك سيضيع حتما لأنك لن تجد شيئا.

لنرجع لموضوع الدراستين…

وجدت دراستان قدمتا في مؤتمر الجمعية الأمريكية لصيادلة النظم الصحية منذ أيام قليلة أن «ChatGPT» قدم معلومات غير صحيحة أو غير كاملة عند سؤاله عن الأدوية، وفي بعض الحالات اخترع مراجع لدعم إجاباته.

في البداية، تم إرسال 39 سؤالًا إلى مركز معلومات الأدوية، ثم تم طرحها لاحقًا على «ChatGPT»، والذي لم يقدم سوي إجابة غير دقيقة، أو إجابة غير مكتملة في 74٪ منهم، أو لم يجيب إطلاقا كما قالت تينا زيريلي، «PharmD»، من جامعة لونج آيلاند الامريكية في الدراسة مع زملاء أخرين.

على سبيل المثال، في رد على استفسار حقيقي حول ما إذا كان هناك تفاعل دوائي بين نيرماترلفير/ريتونافير (عقار باكسلوفيد لعلاج كوفيد -١٩) وفيراباميل (دواء لخفض ضغط الدم)، أشار «ChatGPT» إلى عدم وجود تفاعلات، على الرغم من أن «ريتونافير» يمكن أن يتفاعل مع «فيراباميل».

علاوة على ذلك، في الحالات التي قدم فيها برنامج الدردشة الآلي القائم على الذكاء الاصطناعي (AI) إجابة مع المراجع، فإنه فعل ذلك في كل مرة مستشهدا فيها بمراجع ملفقة، مع روابط URL لدراسات غير موجودة.

وقالت زيريلي «إنها تقنية متطورة. ولا ينبغي لنا أن نعتمد عليها الآن كمصدر نهائي للمعلومات». «نحن بحاجة للتحقق من جميع المعلومات التي تجيب بها ونكون علي علم أنها يمكن أن تنشر معلومات غير دقيقة أو معلومات سيئة أو نتائج ملفقة».

في الدراسة الثانية، أفاد شونسوكي تويودا، PharmD من مستشفي تورانس الطبي التذكاري في كاليفورنيا، وزملاؤه عن طريق فحص أداء خوارزمية الذكاء الاصطناعي التوليدية «ChatGPT» مقابل قاعدة البيانات الدوائية «Lexicomp». بأن «ChatGPT» أغفل ما لا يقل عن نصف الآثار الجانبية المثبتة لـ 26 من 30 عقارًا معتمدًا من إدارة الغذاء والدواء الأمريكية.

و أضاف «كما ترون، «ChatGPT» غير دقيق في الغالب، وكصيادلة، علينا دائمًا أن نكون دقيقين بنسبة 100٪؛ لذلك أنا آسف، «ChatGPT» – لا يمكن بأي حال من الأحوال أن يحل محلنا، ليس في حياتنا. إننا نخضع للعديد من الدورات التدريبية، حتى بعد الكلية، وأعتقد أنه إذا كان هناك برنامج كمبيوتر ما قد ظهر للتو في إحدى الليالي وادعى أيضًا أنه سيحل محلنا تمامًا؟ أجد ذلك مهينًا للغاية».

تضمنت قيود الدراسة عدم وجود أدوات تم التحقق من صحتها لقياس دقة «ChatGPT»، واستخدام إصدارات «ChatGPT» التي قد لا تكون الأحدث.

ومع ذلك، فإن الدراسات الحالية تقدم رؤية محدودة لما يستطيع الذكاء الاصطناعي فعله في الطب، كما علق جون آيرز، الحاصل على دكتوراه من معهد كوالكوم بجامعة كاليفورنيا سان دييغو، والذي لم يشارك في الدراسة. وقال: «إنهم يستخدمون «نموذج لغة كبير عام General Large Language Model»  لم يتم تحسينه لتقييم المعلومات ذات الصلة بالرعاية الصحية، ولم يتم تدريبه بشكل خاص على هذا النوع من البيانات».

وفي إشارة إلى دراسة مركز معلومات الأدوية، قال آيرز إنه «مندهش من الأداء الجيد الذي حققته، ويظهر إمكانية ما يمكن تحقيقه، مع التحسين».

وبالتالي ضروري أن نشير إلى أن دقة أدوات الذكاء الاصطناعي المستخدمة في الطب لن تكون ذات صلة أو أهمية أو مرجعية إذا لم تقم الهيئات التنظيمية مثل إدارة الغذاء والدواء الأمريكية بإنشاء إطار أو معايير لجودتها حيث إن شركات التكنولوجيا نفسها لن ترغب في دفع تكاليف هذا النوع من الأبحاث لأنها لا ترغب في الإعلان إذا لم تنجح وهل فعلا ترغب إدارة الغذاء والدواء الأمريكية في فرض هذا النوع من الأبحاث؟.

ختامًا، لنصبح أكثر «معرفة بالذكاء الاصطناعي»

هناك حاجة إلى محو الأمية في مجال الذكاء الاصطناعي وهذا بمثابة نداء تنبيه لنا جميعًا – سواء من الاساتذة أو الطلاب في الجامعة والعاملين بالرعاية الصحية في المجتمع الأوسع ويشمل ذلك:

  1.  الاستخدام الأخلاقي لأدوات الذكاء الاصطناعي (لماذا ومتى، والوعي بقضايا مثل ملكية البيانات، والخصوصية، والشرعية، …)
  2.  المعرفة بإمكانيات الذكاء الاصطناعي (تتوفر حاليا أكثر من 1000 أداة للذكاء الاصطناعي، فما هي قدرات وقيود كل أداة؟)
  3.  كيفية العمل بفعالية باستخدام أدوات الذكاء الاصطناعي (مثل كيفية صياغة أسئلة فعالة، واستراتيجيات التحسين)
  4.  كيفية تقييم المُخرجات (التفكير والنقد والحكم التقييمي) وأخيراً
  5.  كيفية استخدام هذه الأدوات ودمجها في الأغراض الخاصة مثل الدراسة والعمل.

إن تقنية الدردشة المدعمة بالذكاء الاصطناعي تتطور بسرعة ومن المثير أن نرى إلى أين سيصل هذا التطور، وكما ساعدت شركتا جوجل وويكيبيديا في تسريع وصولنا إلى المعلومات في أوج ازدهارهما، فإن وجود هذه الأدوات الجديدة القائمة على الذكاء الاصطناعي يتطلب من مستخدميها التفكير في كيفية دمجها بعناية وبشكل أخلاقي في أبحاثهم وكتاباتهم.

إذا كانت لديك حاليا أي شكوك أو أسئلة، فاسأل خبراء بشريين حقيقيين، أو اذهب إلي المكتبة للحصول على المساعدة.

وللحديث بقية..

الدكتور ياسر فرغلي، رئيس تنفيذي سابق ومدير عام لشركات دولية ومحلية، تمتد خبرته لأكثر من ثلاثون عامًا في منطقة الشرق الأوسط في مجالات التسويق والمبيعات وإدارة الشركات، حاصل على بكالوريوس صيدلة من جامعة الاسكندرية وشهادة في التسويق من المعهد الأوربي لإدارة الأعمال بفرنسا، «INSEAD»، كما أنه محاضر في كلية الأعمال بالجامعة الأمريكية بالقاهرة .

للتواصل مع الكاتب: yfarghal@yahoo.com

 

اترك تعليق