Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
مقالات عامة

يمكن أن يساعد الذكاء الاصطناعي في التنبؤ بحالات الانتحار – لكن التعجيل بالتكنولوجيا قد يؤدي إلى أخطاء كبيرة

مجلة المذنب نت متابعات عالمية:

في المملكة المتحدة ، ربع الأشخاص الذين انتحروا بأرواحهم كانوا على اتصال بأخصائي صحي في الأسبوع الماضي ، وتحدث معظمهم إلى شخص ما خلال الشهر الماضي. ومع ذلك ، فإن تقييم مخاطر انتحار المريض لا يزال صعبًا للغاية.

كان هناك 5219 حالة وفاة مسجلة بالانتحار في إنجلترا في عام 2021. بينما انخفض معدل الانتحار في إنجلترا وويلز بنحو 31٪ منذ عام 1981 ، حدث معظم هذا الانخفاض قبل عام 2000. الانتحار أكثر شيوعًا بين الرجال ثلاث مرات منه بين النساء ، وقد ازدادت هذه الفجوة بمرور الوقت.

إحصائيات الانتحار في إنجلترا وويلز من 1981 إلى 2021.
مجلس العموم – موجز أبحاث إحصاءات الانتحار ، 12 أكتوبر 2021

وجدت دراسة أجريت في أكتوبر 2022 ، بقيادة معهد بلاك دوج في جامعة نيو ساوث ويلز ، أن نماذج الذكاء الاصطناعي (AI) تفوقت على تقييمات المخاطر السريرية. قامت بمسح 56 دراسة من 2002 إلى 2021 ووجدت أن الذكاء الاصطناعي توقع بشكل صحيح 66٪ من الأشخاص الذين سيواجهون نتيجة انتحار وتوقع أن 87٪ من الناس لن يفعلوا ذلك. بالمقارنة ، فإن طرق التسجيل التقليدية التي يقوم بها المهنيون الصحيون أفضل قليلاً من الطرق العشوائية.

يتم البحث عن الذكاء الاصطناعي على نطاق واسع في المجالات الطبية الأخرى مثل السرطان. ومع ذلك ، وعلى الرغم من وعودها ، فإن نماذج الذكاء الاصطناعي الخاصة بالصحة العقلية لم تُستخدم بعد على نطاق واسع في البيئات السريرية.

لماذا التنبؤ بالانتحار صعب للغاية

وجدت دراسة أجريت عام 2019 من معهد كارولينسكا في السويد أن أربعة مقاييس تقليدية تُستخدم للتنبؤ بخطر الانتحار بعد أداء الحلقات الأخيرة من إيذاء النفس بشكل سيء. ينبع التحدي المتمثل في التنبؤ بالانتحار من حقيقة أن نية المريض يمكن أن تتغير بسرعة.

تنص الإرشادات الخاصة بإيذاء النفس التي يستخدمها المهنيون الصحيون في إنجلترا صراحة على أدوات ومقاييس تقييم مخاطر الانتحار التي لا ينبغي الاعتماد عليها. بدلاً من ذلك ، يجب على المحترفين استخدام مقابلة سريرية. بينما يقوم الأطباء بإجراء تقييمات منظمة للمخاطر ، يتم استخدامهم لتحقيق أقصى استفادة من المقابلات بدلاً من توفير مقياس لتحديد من يتلقى العلاج.

مخاطر الذكاء الاصطناعي

أظهرت الدراسة التي أجراها معهد بلاك دوج نتائج واعدة ، ولكن إذا أسفرت 50 عامًا من البحث في التنبؤ التقليدي (بخلاف الذكاء الاصطناعي) عن طرق كانت أفضل قليلاً من العشوائية ، فنحن بحاجة إلى التساؤل عما إذا كان علينا الوثوق في الذكاء الاصطناعي. عندما يعطينا تطور جديد شيئًا نريده (في هذه الحالة تقييمات أفضل لمخاطر الانتحار) ، فقد يكون من المغري التوقف عن طرح الأسئلة. لكن لا يمكننا تحمل التسرع في هذه التكنولوجيا. عواقب فهمها بشكل خاطئ هي الحياة والموت حرفيًا.

لن يكون هناك تقييم مخاطر مثالي.
Chanintorn.v / شترستوك

دائمًا ما تحتوي نماذج الذكاء الاصطناعي على قيود ، بما في ذلك كيفية تقييم أدائها. على سبيل المثال ، قد يكون استخدام الدقة كمقياس مضللًا إذا كانت مجموعة البيانات غير متوازنة. يمكن أن يحقق النموذج دقة تصل إلى 99٪ من خلال التنبؤ دائمًا بأنه لن يكون هناك خطر انتحار إذا كان 1٪ فقط من المرضى في مجموعة البيانات معرضين لمخاطر عالية.

من الضروري أيضًا تقييم نماذج الذكاء الاصطناعي بناءً على بيانات مختلفة تم تدريبهم عليها. هذا لتجنب الإفراط في التجهيز ، حيث يمكن للنماذج أن تتعلم التنبؤ تمامًا بنتائج المواد التدريبية ولكنها تكافح للعمل مع البيانات الجديدة. قد تكون النماذج قد عملت بشكل لا تشوبه شائبة أثناء التطوير ، ولكنها تقدم تشخيصات غير صحيحة لمرضى حقيقيين.

على سبيل المثال ، وجد أن الذكاء الاصطناعي يتأقلم مع العلامات الجراحية على جلد المريض عند استخدامه للكشف عن سرطان الجلد (نوع من سرطان الجلد). يستخدم الأطباء الأقلام الزرقاء لتسليط الضوء على الآفات المشبوهة ، وتعلم الذكاء الاصطناعي ربط هذه العلامات باحتمال أكبر للإصابة بالسرطان. أدى هذا إلى تشخيص خاطئ في الممارسة العملية عندما لم يتم استخدام تمييز اللون الأزرق.

قد يكون من الصعب أيضًا فهم ما تعلمته نماذج الذكاء الاصطناعي ، مثل سبب توقعها لمستوى معين من المخاطر. هذه مشكلة غزيرة الإنتاج في أنظمة الذكاء الاصطناعي بشكل عام ، ولها قيادة في مجال كامل من البحث يُعرف باسم الذكاء الاصطناعي القابل للتفسير.

وجد معهد بلاك دوج أن 42 من أصل 56 دراسة تم تحليلها كانت معرضة لخطر كبير من التحيز. في هذا السيناريو ، يعني التحيز أن النموذج فوق أو تحت يتنبأ بمتوسط ​​معدل الانتحار. على سبيل المثال ، البيانات لديها معدل انتحار 1٪ ، لكن النموذج يتوقع معدل 5٪. يؤدي التحيز الشديد إلى التشخيص الخاطئ ، إما فقدان المرضى المعرضين لخطر كبير ، أو تحديد المخاطر للمرضى منخفضي الخطورة.

تنبع هذه التحيزات من عوامل مثل اختيار المشاركين. على سبيل المثال ، كان لدى العديد من الدراسات نسب عالية من التحكم في الحالات ، مما يعني أن معدل الانتحار في الدراسة كان أعلى مما هو عليه في الواقع ، لذلك كان من المرجح أن يحدد نموذج الذكاء الاصطناعي الكثير من المخاطر للمرضى.

نظرة مستقبلية واعدة

تستخدم النماذج في الغالب بيانات من السجلات الصحية الإلكترونية. لكن بعضها تضمن أيضًا بيانات من المقابلات ، واستطلاعات التقارير الذاتية ، والملاحظات السريرية. تتمثل فائدة استخدام الذكاء الاصطناعي في أنه يمكن التعلم من كميات كبيرة من البيانات بشكل أسرع وأكثر كفاءة من البشر ، وأنماط موضعية يفتقدها المهنيون الصحيون المرهقون.

بينما يتم إحراز تقدم ، فإن نهج الذكاء الاصطناعي في منع الانتحار ليس جاهزًا للاستخدام في الممارسة العملية. يعمل الباحثون بالفعل على معالجة العديد من المشكلات المتعلقة بنماذج منع الانتحار بالذكاء الاصطناعي ، مثل مدى صعوبة شرح سبب قيام الخوارزميات بتنبؤاتها.

ومع ذلك ، فإن التنبؤ بالانتحار ليس الطريقة الوحيدة لتقليل معدلات الانتحار وإنقاذ الأرواح. لا يساعد التنبؤ الدقيق إذا لم يؤد إلى تدخل فعال.

من تلقاء نفسه ، لن يمنع التنبؤ بالانتحار باستخدام الذكاء الاصطناعي كل حالة وفاة. لكن يمكن أن يمنح أخصائيي الصحة العقلية أداة أخرى لرعاية مرضاهم. يمكن أن يكون تغيير الحياة مثل جراحة القلب الحديثة إذا دقت ناقوس الخطر للمرضى الذين تم تجاهلهم.

إذا كنت تعاني من أفكار انتحارية ، يمكن للخدمات التالية أن تقدم لك الدعم: في المملكة المتحدة وأيرلندا – اتصل بشركة Samaritans UK على الرقم 116123. في الولايات المتحدة – اتصل بمركز National Suicide Prevention Lifeline على الرقم 1-800-273-TALK ( 8255) أو IMAlive على الرقم 1-800-784-2433. في أستراليا – اتصل بـ Lifeline Australia على الرقم 13 11 14. في البلدان الأخرى – قم بزيارة IASP أو Suicide.org للعثور على خط مساعدة في بلدك.


نشكركم على قراءة المنشور عبر مجلة المذنب نت, المتخصصة في التداول والعملات الرقمية والمشفرة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى