تسجيل الدخول
برنامج ذكاء اصطناعي من غوغل يكشف السرطان       تقنية الليزر تثبت أن الديناصورات كانت تطير       يوتيوب تي في.. خدمة جديدة للبث التلفزيوني المباشر       الخارجية الأمريكية تنشر ثم تحذف تهنئة بفوز مخرج إيراني بالأوسكار       الصين تدرس تقديم حوافز مالية عن إنجاب الطفل الثاني       حفل الأوسكار يجذب أقل نسبة مشاهدة أمريكية منذ 2008       تعطل في خدمة أمازون للحوسبة السحابية يؤثر على خدمات الإنترنت       حاكم دبي يقدم وظيفة شاغرة براتب مليون درهم       ترامب يتعهد أمام الكونغرس بالعمل مع الحلفاء للقضاء على داعش       بعد 17 عاما نوكيا تعيد إطلاق هاتفها 3310       لافروف: الوضع الإنساني بالموصل أسوأ مما كان بحلب       فيتو لروسيا والصين يوقف قرارا لفرض عقوبات على الحكومة السورية       بيل غيتس يحذر العالم ويدعوه للاستعداد بوجه الإرهاب البيولوجي       ابنا رئيس أمريكا يزوران دبي لافتتاح ملعب ترامب للغولف       رونالدو وأنجلينا جولي ونانسي عجرم في فيلم يروي قصة عائلة سورية نازحة      



ذكاء Google يخترع جزءًا من الدماغ لا وجود له


القاهرة: الأمير كمال فرج.

بينما تتسابق شركات التكنولوجيا لدمج الذكاء الاصطناعي في المجال الطبي، يتصاعد قلق الأطباء من ظاهرة "هلوسات" هذه النماذج، حيث لم تعد الأخطاء مجرد عثرات تقنية، بل أصبحت تهديدًا مباشرًا لسلامة المرضى. فقد وصل الأمر إلى حد اختراع جزء في جسم الإنسان لا وجود له، في خطأ كارثي كشف عن مخاطر جسيمة قد تُهدد الأرواح.

ذكر تقرير نشره موقع Futurism أن "باحثو Google قدموا في ورقة بحثية صدرت في مايو 2024، نموذجًا للذكاء الاصطناعي في الرعاية الصحية أُطلق عليه اسم Med-Gemini، واستعرضوا قدرته على تحليل صور الدماغ من مختبرات الأشعة للكشف عن حالات مرضية مختلفة".

لكن النموذج حدد وجود "احتشاء قديم في العقدة القاعدية اليسرى old left basilar ganglia infarct، في إشارة إلى جزء مزعوم من الدماغ يسمى "العقدة القاعدية basilar ganglia، وهو جزء لا وجود له في جسم الإنسان.

قام طبيب الأعصاب المعتمد، برايان مور، بتنبيه موقع The Verge إلى المشكلة، وأكد أن Google  عدّلت منشورها على المدونة حول الذكاء الاصطناعي، لكنها فشلت في تعديل الورقة البحثية نفسها.

من المرجح أن الذكاء الاصطناعي خلط بين العقد القاعدية basal ganglia ، وهي منطقة في الدماغ مرتبطة بالحركات والحصول على عادات، والشريان القاعدي basilar artery، وهو وعاء دموي رئيسي في قاعدة جذع الدماغ. ألقت Google  باللوم في الحادث على خطأ إملائي بسيط في كتابة "العقد القاعدية".

تداعيات خطيرة على الأرواح

يُعتبر هذا الكشف المحرج بمثابة تأكيد على أوجه القصور المستمرة والخطيرة لهذه التكنولوجيا. فحتى أحدث نماذج الذكاء الاصطناعي "الاستدلالي" من شركات مثل Google  وOpenAI تنشر أكاذيب من نسج الخيال لأنها مدربة على كميات هائلة من بيانات الإنترنت.

في نتائج البحث على Google، قد يؤدي هذا إلى متاعب للمستخدمين خلال أبحاثهم ومحاولاتهم للتحقق من الحقائق. لكن في بيئة المستشفى، يمكن أن تكون لمثل هذه الأخطاء عواقب وخيمة. ورغم أن خطأ Google هذا لم يتسبب على الأرجح في أي خطر على المرضى، إلا أنه يُعد سابقة مقلقة، كما يجادل الخبراء.

وقال مولين شاه، كبير مسؤولي المعلومات الطبية في نظام الرعاية الصحية Providence ، لموقع The Verge: "ما تتحدث عنه خطير جدًا. حرفان فقط، لكنه أمر جلل".

لماذا يُعد الخطأ كارثيًا؟

روَّجت Google لذكائها الاصطناعي في مجال الرعاية الصحية على أنه يمتلك "إمكانات كبيرة في الطب" العام الماضي، مدعية أنه يمكن استخدامه لتحديد الحالات المرضية في الأشعة السينية والفحوصات المقطعية والمزيد.

بعد أن لفت مور انتباه الشركة إلى الخطأ، أخبره الموظفون أنه مجرد خطأ مطبعي. وفي منشور المدونة المُحدّث، أوضحت Google أن مصطلح "basilar قاعدي" هو خطأ شائع في كتابة basal "قاعدي"، وقد تعلمه Med-Gemini من بيانات التدريب، على الرغم من أن معنى التقرير لم يتغير".

ومع ذلك، فإن الورقة البحثية لا تزال تشير إلى "العقدة القاعدية basilar ganglia" بشكل خاطئ حتى وقت كتابة هذا التقرير.

في السياق الطبي، يمكن أن تؤدي "هلوسات" الذكاء الاصطناعي بسهولة إلى الارتباك، وربما تعرض الأرواح للخطر. يقول شاه: "المشكلة في هذه الأخطاء المطبعية أو الهلوسات الأخرى هي أنني لا أثق في أن البشر سيقومون بمراجعتها، أو على الأقل ليس في كل مستوى".

الأمر لا يقتصر على Med-Gemini. فنموذج Google  الأكثر تقدمًا للرعاية الصحية، والذي يُطلق عليه اسم MedGemma، قدّم أيضًا إجابات متغيرة حسب صياغة الأسئلة، مما أدى إلى أخطاء في بعض الأحيان.

وأوضحت جودي غيشويا، الأستاذة المساعدة في الأشعة والمعلوماتية بجامعة إيموري، لموقع The Verge: إن "طبيعة هذه النماذج أنها تميل إلى اختلاق الأشياء، ولا تقول "لا أعرف"، وهذه مشكلة كبيرة جدًا في المجالات بالغة الأهمية مثل الطب".

سباق محموم نحو المجهول

يرى خبراء آخرون أننا نتسرع في تبني الذكاء الاصطناعي في البيئات السريرية، من المعالجين والأشعة والممرضين إلى خدمات تفريغ التفاعلات مع المرضى، مما يستدعي نهجًا أكثر حذرًا.

في غضون ذلك، سيقع على عاتق البشر مسؤولية مراقبة مخرجات الذكاء الاصطناعي المُهلوسة باستمرار، مما قد يؤدي إلى نتائج عكسية ويزيد من أوجه القصور.

ومع ذلك، تواصل Google سباقها بكل قوة. ففي شهر مارس، كشفت الشركة أن ميزة "AI Overviews" (نظرات عامة بالذكاء الاصطناعي) شديدة الخطأ ستبدأ في تقديم النصائح الصحية. كما قدمت "عالمًا مساعدًا بالذكاء الاصطناعي" لمساعدة العلماء البشر في اكتشاف أدوية جديدة، من بين "قوى خارقة" أخرى.

لكن إذا لم يتم مراقبة مخرجات هذه الأدوات والتحقق منها، فإن أرواح البشر قد تكون على المحك.

يقول شاه: "في رأيي، يجب أن يكون لدى الذكاء الاصطناعي معايير أعلى بكثير للخطأ من الإنسان. ربما يقول آخرون: "إذا تمكنا من الوصول إلى مستوى الإنسان، فهذا جيد بما يكفي". أنا لا أوافق على ذلك للحظة واحدة".

تاريخ الإضافة: 2025-08-07 تعليق: 0 عدد المشاهدات :132
0      0
التعليقات

إستطلاع

مواقع التواصل الاجتماعي مواقع تجسس تبيع بيانات المستخدمين
 نعم
69%
 لا
20%
 لا أعرف
12%
      المزيد
خدمات