تسجيل الدخول
برنامج ذكاء اصطناعي من غوغل يكشف السرطان       تقنية الليزر تثبت أن الديناصورات كانت تطير       يوتيوب تي في.. خدمة جديدة للبث التلفزيوني المباشر       الخارجية الأمريكية تنشر ثم تحذف تهنئة بفوز مخرج إيراني بالأوسكار       الصين تدرس تقديم حوافز مالية عن إنجاب الطفل الثاني       حفل الأوسكار يجذب أقل نسبة مشاهدة أمريكية منذ 2008       تعطل في خدمة أمازون للحوسبة السحابية يؤثر على خدمات الإنترنت       حاكم دبي يقدم وظيفة شاغرة براتب مليون درهم       ترامب يتعهد أمام الكونغرس بالعمل مع الحلفاء للقضاء على داعش       بعد 17 عاما نوكيا تعيد إطلاق هاتفها 3310       لافروف: الوضع الإنساني بالموصل أسوأ مما كان بحلب       فيتو لروسيا والصين يوقف قرارا لفرض عقوبات على الحكومة السورية       بيل غيتس يحذر العالم ويدعوه للاستعداد بوجه الإرهاب البيولوجي       ابنا رئيس أمريكا يزوران دبي لافتتاح ملعب ترامب للغولف       رونالدو وأنجلينا جولي ونانسي عجرم في فيلم يروي قصة عائلة سورية نازحة      



مستشار المجزرة: التحول.. كلمة السر في مذكرات القتلة


القاهرة: الأمير كمال فرج.

لم يعد الذكاء الاصطناعي مجرد أداة لتسهيل الأعمال أو كتابة البريد الإلكتروني، بل تحول في الآونة الأخيرة إلى "صندوق باندورا" يفتح أبواباً من الرعب النفسي والعملياتي. فخلف الشاشات اللامعة والردود المهذبة لروبوتات الدردشة، تختبئ خوارزميات قادرة على الانخراط في أعمق أوهام البشر وتغذيتها.

ذكر فيكتور تنجرمان في تقرير نشرته مجلة Futurism إن "من فلوريدا إلى كندا، ومن غرف المراهقين المنعزلين إلى ساحات الجامعات الدامية، تبرز اليوم تساؤلات قانونية وأخلاقية حارقة: هل يمكن تحميل الشركات التكنولوجية مسؤولية الدماء التي تُسفك بإيعاز من برامجها؟ وكيف تحولت محادثات افتراضية إلى خطط قتل واقعية؟"

مستشار المجزرة

في السابع عشر من أبريل عام 2025، اهتزت جامعة ولاية فلوريدا (FSU) على وقع هجوم مسلح نفذه الطالب فينيكس إيكنر، مما أسفر عن سقوط قتيلين وسبعة جرحى. لكن الصدمة الحقيقية لم تكن في الهجوم ذاته، بل في "العقل المدبر" الذي استشارته الضحية قبل التنفيذ.

كشفت السجلات عن أكثر من 13 ألف رسالة تبادلها إيكنر مع ChatGPT، حيث لم يكتفِ البرنامج بدور المستمع، بل لعب دور "المستشار العملياتي". سأل إيكنر عن أوقات ذروة الازدحام في اتحاد الطلاب لضمان أكبر عدد من الضحايا، واستفسر بدقة تقنية عن كيفية فك صمام أمان بندقية ريمنجتون عيار 12 في الدقائق الأخيرة قبل المجزرة، ليتلقى إجابات فورية ودقيقة مهدت له طريق القتل.

صرخة صامتة في المذكرات: "سأتحول"

بينما كان إيكنر يخطط للقتل، كان مراهقون آخرون يخططون للرحيل عن العالم بتوجيه من منصة Character.AI. جوليانا بيرالتا وسيويل سيتزر، مراهقان لم يتجاوزا السادسة عشرة، تركا وراءهما مذكرات تحمل نفس العبارة الغامضة التي تكررت عشرات المرات: "سأتحول" (I will shift).

تشير التحقيقات إلى أن الروبوتات داخل المنصة عززت لديهم ظاهرة "التحول إلى واقع منشود"، وهي حالة ذهانية تجعل المراهق يعتقد أن بإمكانه مغادرة جسده المادي للعيش في عالم خيالي مع شخصيته المفضلة. وبدلاً من إطلاق صافرات الإنذار، كانت الروبوتات تشجعهم قائلة: "يمكنني مساعدتك في الوصول إلى هناك".

المواجهة القضائية: هل الخوارزمية "قاتل"؟

تجد شركات كبرى مثل OpenAI وCharacter.AI نفسها اليوم في قفص الاتهام. وتتركز الدعاوى القضائية حول نقاط قانونية غير مسبوقة:

    التملق القاتل: قدرة الروبوت على مسايرة المستخدم في أوهامه (Sycophancy) بدلاً من معارضته، مما يؤدي إلى "ذهان الذكاء الاصطناعي".

    الإهمال في التبليغ: رصدت الشركات محادثات انتحارية وقتلية داخلياً، لكنها لم تبلغ السلطات، متذرعة بسياسات الخصوصية أو محدودية الخوارزمية.

    التصميم الخطر: اتهام الشركات بتطوير منتجات تسبب الإدمان العاطفي لدى الفئات الهشة، مما يسهل التلاعب بعقولهم.

إن القضايا المرفوعة حالياً في المحاكم ليست مجرد نزاعات مالية، بل هي معركة لترسيم حدود المسؤولية في عصر الآلة. فإذا كانت التكنولوجيا قادرة على تعليم شخص ما كيف يطلق النار أو كيف يقتنع بأن الموت هو مجرد "انتقال لواقع بديل"، فإن صمت المطورين لم يعد خياراً مقبولًا. العالم اليوم ينتظر حكماً تاريخياً: هل ستبقى الشركات خلف درع "نحن مجرد منصة"، أم ستُعامل كشريك في الجريمة؟

تاريخ الإضافة: 2026-04-24 تعليق: 0 عدد المشاهدات :31
1      0
التعليقات

إستطلاع

مواقع التواصل الاجتماعي مواقع تجسس تبيع بيانات المستخدمين
 نعم
69%
 لا
20%
 لا أعرف
12%
      المزيد
خدمات