تسجيل الدخول
برنامج ذكاء اصطناعي من غوغل يكشف السرطان       تقنية الليزر تثبت أن الديناصورات كانت تطير       يوتيوب تي في.. خدمة جديدة للبث التلفزيوني المباشر       الخارجية الأمريكية تنشر ثم تحذف تهنئة بفوز مخرج إيراني بالأوسكار       الصين تدرس تقديم حوافز مالية عن إنجاب الطفل الثاني       حفل الأوسكار يجذب أقل نسبة مشاهدة أمريكية منذ 2008       تعطل في خدمة أمازون للحوسبة السحابية يؤثر على خدمات الإنترنت       حاكم دبي يقدم وظيفة شاغرة براتب مليون درهم       ترامب يتعهد أمام الكونغرس بالعمل مع الحلفاء للقضاء على داعش       بعد 17 عاما نوكيا تعيد إطلاق هاتفها 3310       لافروف: الوضع الإنساني بالموصل أسوأ مما كان بحلب       فيتو لروسيا والصين يوقف قرارا لفرض عقوبات على الحكومة السورية       بيل غيتس يحذر العالم ويدعوه للاستعداد بوجه الإرهاب البيولوجي       ابنا رئيس أمريكا يزوران دبي لافتتاح ملعب ترامب للغولف       رونالدو وأنجلينا جولي ونانسي عجرم في فيلم يروي قصة عائلة سورية نازحة      



خطأ إملائي يجعل الطبيب الآلي خطراً على حياتك


القاهرة: الأمير كمال فرج.

اكتشف باحثون في معهد ماساتشوستس للتكنولوجيا (MIT) أن خطأ إملائياً واحداً أو خطأ في التنسيق أو استخدام كلمة عامية يمكن أن يزيد من احتمالية أن يقدم الذكاء الاصطناعي معلومة خاطئة للمريض تهدد حياته.

كانت هذه هي النتيجة التي توصلت إليها دراسة أُجريت في شهر يونيو الماضي، وهي بانتظار المراجعة من الخبراء والمختصين. ووجد الباحثون أن مجرد وجود لغة عاطفية أو استعارية في شكوى المريض كان كافياً لتضليل نصيحة الذكاء الاصطناعي الطبية.

حذّرت المؤلفة المشاركة في الدراسة، مرزية قاسمي، في مقابلة جديدة مع صحيفة Boston Globe  من الضرر الجسيم الذي يمكن أن يحدث إذا بدأ الأطباء بالاعتماد على هذه التقنيات على نطاق واسع.

قالت قاسمي، وهي أستاذة في الهندسة الكهربائية وعلوم الحاسوب في معهد ماساتشوستس للتكنولوجيا، للصحيفة: "أحب تطوير أنظمة الذكاء الاصطناعي. لكن من الواضح لي أن النشر الساذج لهذه الأنظمة، وعدم إدراك أن البيانات البشرية تأتي مع العديد من المشاكل، سيؤدي إلى إلحاق الضرر".

قد يتسبب الذكاء الاصطناعي في التمييز ضد المرضى الذين لا يستطيعون التواصل بوضوح، أو المتحدثين الأصليين الذين لا يتقنون اللغة بشكل كامل، أو أي شخص قد يرتكب الخطأ البشري بالتعبير عن مشاكله الصحية بشكل عاطفي. على سبيل المثال، يمكن للأطباء الذين يستخدمون أدوات الذكاء الاصطناعي إدخال شكاوى مرضاهم المرسلة عبر البريد الإلكتروني، مما يزيد من خطر أن يقدم الذكاء الاصطناعي نصيحة سيئة إذا لم تكن تلك الرسائل منسقة بشكل لا تشوبه شائبة.

أرقام صادمة

في الدراسة، جمع الباحثون شكاوى المرضى من سجلات طبية حقيقية واستفسارات صحية من مستخدمين على موقع Reddit. بعد ذلك، قاموا "بتعديل" الوثائق دون تغيير جوهر ما قيل، عن طريق إضافة أخطاء إملائية، ومسافات إضافية بين الكلمات، واستخدام قواعد غير معيارية، مثل الكتابة بأحرف صغيرة فقط. كما أضافوا لغة غير مؤكدة يتوقع أن يستخدمها المريض، مثل "نوعاً ما" و"ربما". وأدخلوا أيضاً تعابير استعارية، مثل "اعتقدت أنني سأموت".

ثم قاموا بإدخال هذه الحالات في أربعة نماذج مختلفة من الذكاء الاصطناعي، بما في ذلك GPT-4، للحكم على ما إذا كان المريض يجب أن يزور الطبيب، أو يجري فحوصات مخبرية، أو لا يحضر على الإطلاق. كانت الأرقام لافتة: بشكل عام، كانت أدوات الذكاء الاصطناعي أكثر احتمالاً بنسبة 7 إلى 9% للتوصية للمرضى بعدم طلب الرعاية الطبية على الإطلاق عند قراءة شكاوى بلغة غير واضحة، ولكنها أكثر واقعية.

قال بول هاغر، الباحث في جامعة ميونيخ التقنية الذي لم يشارك في الدراسة، لصحيفة Boston Globe: "إضافة معلومات إضافية، حتى لو كانت صحيحة وذات صلة، غالباً ما تقلل من دقة النماذج. هذه مشكلة معقدة أعتقد أنه يتم التعامل معها إلى حد ما من خلال نماذج استدلال أكثر تقدماً... ولكن هناك القليل من الأبحاث حول كيفية حلها على مستوى أكثر جوهرية".

التحيز الجنسي 

ليس من المستغرب أن تكون الروبوتات غير دقيقة بشكل محبط. فقد انتشرت "هلوسات" الذكاء الاصطناعي، وهي حالات يولد فيها الروبوت معلومات خاطئة، في هذه الصناعة منذ البداية، وقد تكون في ازدياد. ولكن في ما قد يكون أوضح دليل على أن التكنولوجيا تعزز أيضاً التحيزات القائمة في السيناريوهات الطبية، فقد أعطت أدوات الذكاء الاصطناعي التي تم اختبارها نصائح خاطئة بشكل غير متناسب للنساء تحديداً.

قالت قاسمي للصحيفة: "قلل النموذج من الرعاية للمرضى الذين اعتقد أنهم إناث".

لطالما تم التقليل من شأن شكاوى النساء الطبية من قبل الأطباء، وغالبيتهم من الذكور، الذين يصفونها بأنها عاطفية أكثر من اللازم. وما لفت انتباه قاسمي هو أن الذكاء الاصطناعي يمكنه تحديد المريض بشكل صحيح على أنه أنثى، حتى عندما قاموا بحذف جميع الإشارات إلى الجنس في الشكاوى. قالت للصحيفة: "الأمر مدهش بعض الشيء. ومخيف قليلاً".

تتوافق نتائج قاسمي وفريقها بشكل مقلق مع دراسة أخرى نُشرت في مجلة لانسيت لأمراض الجهاز الهضمي والكبد Lancet Gastroenterology and Hepatology، والتي وجدت أن الأطباء الذين اعتادوا على استخدام أدوات الذكاء الاصطناعي شهدوا تراجعاً ملحوظاً في قدرتهم على اكتشاف الأورام السابقة للتسرطن بعد أن تم سحب أدوات الذكاء الاصطناعي.

بمعنى آخر، بدا أن الذكاء الاصطناعي يُضعف قدرة الأطباء ويجعلهم أسوأ في وظيفتهم، وهي ظاهرة تُسمى "إضعاف المهارات".

تساءل عمر أحمد، طبيب الجهاز الهضمي في مستشفى جامعة كوليدج لندن، في مقابلة حديثة مع صحيفة New York Times: "إذا فقدت المهارات، فكيف سأكتشف الأخطاء؟". وأضاف: "نحن نعطي الذكاء الاصطناعي مدخلات تؤثر على مخرجاته، ولكن يبدو أنه يؤثر أيضاً على سلوكنا".

المعايير والرقابة

بالعودة إلى عمل قاسمي، إذا اعتمد الأطباء على أدوات الذكاء الاصطناعي لتحليل شكاوى مرضاهم، فإنهم معرضون لخطر فقدان إحدى أهم المهارات البشرية التي تتطلبها وظيفتهم: معرفة كيفية التحدث والتواصل مع الأشخاص الذين تعتمد صحتهم عليهم.

هذا له آثار ضخمة أيضاً على العديد من الأشخاص الذين يبحثون عن نصيحة طبية من روبوتات المحادثة مباشرة. من الممكن أن يكون هناك العديد من المستخدمين الذين أخبرهم ChatGPT بعدم زيارة الطبيب بسبب خطأ إملائي بسيط في سؤالهم.

ولكن إذا لم نتمكن من إيقاف اعتماد هذه التكنولوجيا، فيجب علينا المطالبة بمعايير أكثر صرامة. أشارت صحيفة Boston Globe إلى أن قاسمي نشرت أبحاثاً سابقة أظهرت أن الذكاء الاصطناعي يمكنه اكتشاف العر ق ويستجيب للمستخدمين الآسيويين والسود بتعاطف أقل.

قالت للصحيفة: "نحتاج إلى لوائح تجعل المساواة معيار أداء إلزامياً للذكاء الاصطناعي السريري. يجب أن تقوم بالتدريب على مجموعات بيانات متنوعة وممثلة للجميع".

تاريخ الإضافة: 2025-08-31 تعليق: 0 عدد المشاهدات :49
0      0
التعليقات

إستطلاع

مواقع التواصل الاجتماعي مواقع تجسس تبيع بيانات المستخدمين
 نعم
69%
 لا
20%
 لا أعرف
12%
      المزيد
خدمات