المصرية للاتصالات Cairo ICT 2024
المصرية للاتصالات Cairo ICT 2024
إعلان إي فينانس

طبيب نفسي سابق ينخدع بـ«تشات جي بي تي».. والنتيجة سرطان في المرحلة الرابعة

على الرغم من أنّه طبيب نفسي سابق؛ إلا أنَّ ذلك لم يكن كافيًا لكي لا يقع في براثن خداع «تشات جي بي تي»، فالطبيب النفسي الأيرلندي وارن تيرني، انتهى به الأمر في المستشفى بعد أن خدعته أداة الذكاء الاصطناعي الأكثر شهرة واستخدامًا حول العالم في الـ5 سنوات الأخيرة.

القصة بدأت بشعور وارن، وفقًا لصحيفة “ذا ميرور البريطانية”، بألم في الحلق وصعوبة في بلع حتى السوائل، وحينما ذهب إلى “تشات جي بي تي” أنَّ الأمر ليس بالمقلق للغاية، وطمأنته مرارًا بأن التهاب حلقه المستمر وصعوباته في البلع “من غير المرجح إطلاقًا” أن تكون مؤشرات على الإصابة بالسرطان؛ لكن حالته لم تتحسن، فتوجه أخيرًا إلى قسم الطوارئ، حيث تبيّن أنه مصاب بسرطان غدي في المريء في المرحلة الرابعة.

في سلسلة من المحادثات بينه وبين “تشات جي بي تي” طلب تيرني من “تشات جي بي تي” رأيه حول تحسن ألم المريء لديه بعدما تمكن من ابتلاع قطعة بسكويت عقب تناوله دواءً لسيولة الدم؛ فأجابه “تشات جي بي تي” بأن ذلك كان “مؤشرًا مشجعًا للغاية”، وأن ملاحظاته “في محلها”، ثم قدم له تحليلًا تفصيليًا لما قد يكون سبب معاناته.

وبينما كان يعتني بزوجته إيفلين 38 عامًا التي مرت بحملين صعبين للغاية عانت خلالهما من التقيؤ الحملي الشديد، وطفليه، بدأ تيرني يلاحظ أن ابتلاع الطعام بات يتطلب منه جهدًا غير معتاد.

واعترف أنه وقع في “الفكرة النمطية الذكورية” التي تجعله يعتقد أنه لا يحتاج إلى مراجعة الطبيب، فلجأ بدلًا من ذلك إلى الذكاء الاصطناعي خلال أوقات فراغه لمناقشة أعراضه، بينما ركز على رعاية أطفاله وزوجته.

وفي “التقييم النهائي”، خلص “تشات جي بي تي” إلى القول: “سرطان؟ غير محتمل للغاية — لا توجد أعراض مقلقة، الوضع مستقر ويتحسن”.

بل إنه تلقى رسائل مطمئنة من الأداة جاء في إحداها: “سأكون معك في كل نتيجة تظهر، إن كان هذا سرطانًا، فسنواجهه؛ وإن لم يكن، سنتنفس الصعداء مجددًا”.

ويعد سرطان الغدي المريئي في المرحلة الرابعة، نوعًا نادرًا وعدوانيًا من سرطان الحلق، لا تتجاوز نسبة البقاء على قيد الحياة بعد خمس سنوات منه عالميًا 5 إلى 10%.

الآن يشعر تيرني بالندم لاعتماده على الذكاء الاصطناعي، مشيرًا إلى تحمّله المسؤولية عما حدث، وأضاف: “أنا المثال الحي على ذلك الآن، وأنا في مأزق كبير ربما لأنني اعتمدت عليه أكثر مما ينبغي”.

وختم بالقول: “لأن المعلومات في الذكاء الاصطناعي تُعرض بطريقة جذابة وجميلة، لا يعني ذلك أن وراءها حقيقة؛ بدت رائعة ومليئة بالأفكار، لكن في النهاية أتحمل المسؤولية كاملة عما حدث”.

أول حالة قتل

وفي 5 أغسطس عثرت الشرطة الأمريكية على جثتي شتاين-إريك سولبيرج ووالدته سوزان إيبرسون آدامز، داخل منزلهما الفاخر في أولد جرينتش؛ إذ تشتبه الشرطة بأنَّ سولبيرج البالغ من العمر 56 عامًا أقدم على قتل والدته بعد تعلّقه الشديد بـ”تشات جي بي تي”.

وكان سولبيرج يعمل سابقًا في قطاع التكنولوجيا، لكنه يعاني من جنون العظمة الشديد وتاريخ من إدمان الكحول ومحاولات الانتحار.

ظنَّ سولبيرج بأنَّ من حوله يراقبونه، بمن فيهم حتى والدته، ولكن بشكل سري؛ وبعد بحثه عن الطمأنينة لجأ إلى “تشات جي بي تي” لتهدئة مخاوفه، وبدلًا من أن يقوم “تشات جي بي تي” بذلك، يبدو أنّه عززها.

وعندما أعرب سولبيرج عن شكوكه في أن فاتورة مطعم تحتوي على رموز خفية أو أن سيارته قد سُمّمت، ويبدو أنَّ روبوت المحادثة صدق أفكاره، مؤكدًا له أنه عاقل وأن شكوكه مبررة، حتى أنَّ أداة الذكاء الاصطناعي كانت تخبره بأنّه صادق، وأنّه شكوكه في والدته وصديقتها في محلها.

ويشتبه المحققون في أنه قتلها قبل أن ينتحر، ويُعتقد أن هذه القضية هي أول حالة تُربط فيها جريمة قتل ارتباطًا مباشرًا باعتماد شخص مفرط على روبوت محادثة يعمل بالذكاء الاصطناعي.

أداءٌ سيّء

في دراسة كبرى أجرتها جامعة أكسفورد بمشاركة نحو 1300 شخص عن حقيقة مهمة تتعلق بالاستعانة بالذكاء الاصطناعي في الاستشارات الطبية، اتضّح أنَّ المستخدمين الذين استعانوا بروبوتات الدردشة الطبية كانوا أداؤهم أسوأ من أولئك الذين اكتفوا بالبحث عبر “جوجل”.

واختبرت الدراسة نماذج GPT-4o، وLlama 3، وCommand R+، من خلال سيناريوهات طبية واقعية مع مشاركين حقيقيين.

وكشفت نتائج الدراسة أنّه عندما عملت النماذج بمفردها، تراوحت دقتها بين 90 و99% في تحديد الحالات المرضية؛ لكن عند إشراك المستخدمين معها، لم تتجاوز نسبة النجاح في تحديد الحالات ذات الصلة 34.5%، مقارنةً بـ47% حققها أشخاص اعتمدوا فقط على جوجل ومعرفتهم الشخصية.

ووفقًا لتقرير على موقع “هيلينا تايلور كلينك” ومقرّها الإمارات؛ فإنَّ العديد من الأشخاص الذين يزورون العيادة يبدو على وجههم القلق رغم أنّهم لا يعانون من شيء لكن لأنّهم قرأوا أشياءً غير صحيحة على الإنترنت.

يشير التقرير إلى أنّه “رغم أن الإنترنت زاخرٌ بالمعلومات، إلا أنه يفتقر إلى عنصرٍ أساسيٍّ واحد: السياق؛ فتاريخك الشخصي، وفحصك البدني، وحالتك النفسية، ونتائج فحوصاتك، وعوامل الخطر، لا يُمكن فهم أيٍّ منها بدقةٍ بواسطة محرك بحث أو روبوت دردشةٍ يعمل بالذكاء الاصطناعي حتى إذا كان “تشات جي بي تي”.

“تشات جي بي تي” ليس معالجًا نفسيًا

في سياقٍ آخر وبعيدًا عن الأمراض العضوية؛ فحتى سام ألتمان الرئيس التنفيذي لشركة OpenAI، حذر من اعتبار “تشات جي بي تي” كمعالج نفسي، محذرًا حتى من أنّها لن تبقى سرية طويلًا.

لكنّ وفقًا لتقرير على موقع “كوارتز” فإنَّ مخاوف الخصوصية القانونية ليست السبب الوحيد الذي يدعو إلى التردد في استخدام روبوتات الذكاء الاصطناعي كمعالجين نفسيين؛ فقد كشفت دراسة حديثة من جامعة ستانفورد أن روبوتات العلاج النفسي القائمة على الذكاء الاصطناعي تُظهر وصمًا وتمييزًا، وتطلق أحيانًا تصريحات غير لائقة بحق بعض الحالات النفسية.

وخلص الباحثون إلى أن روبوتات العلاج النفسي بالذكاء الاصطناعي، بصورتها الحالية، لا ينبغي أن تحل محل مقدمي الرعاية الصحية النفسية من البشر، نظرًا لتحيزاتها و”تمييزها ضد الفئات المهمشة”، إلى جانب أسباب أخرى.

وقال نيك هابر، المؤلف الرئيس للدراسة، لصحيفة Stanford Report: “القضية هنا تكمن في التعقيد؛ الأمر لا يُختصر في القول إن استخدام نماذج اللغة الكبيرة في العلاج النفسي أمر سيئ، بل يجب أن نفكر بجدية في الدور الذي ينبغي أن تلعبه في هذا المجال”.

وأضاف: “تتمتع نماذج اللغة الكبيرة بإمكانيات قوية قد يكون لها مستقبل مهم في العلاج النفسي، لكننا بحاجة للتفكير بعناية في طبيعة هذا الدور”.

 

إقرأ أيضًا

 

اترك تعليقا