القاهرة: الأمير كمال فرج.
في عالم التكنولوجيا المتسارع، لا يزال الذكاء الاصطناعي التوليدي في مراحله الأولى. وعلى الرغم من الضجة الإعلامية الكبيرة حول قدراته، فإن النماذج الأكثر تطوراً لا تزال عرضة "للهلوسات" الجامحة، مثل اختلاق سجلات طبية كاذبة أو كتابة تقارير بحثية مبنية على شائعات.
ذكر تقرير نشره موقع Futurism أن " النرويجي آرفي هجالمر هولمن أراد أن يعرف ما الذي يقوله ChatGPT عنه، فأدخل اسمه وترك الروبوت يقوم بعمله. وكانت النتائج مروعة".
وفقاً لموقع TechCrunch، أخبر ChatGPT الرجل أنه قتل اثنين من أبنائه وحاول قتل الثالث. وعلى الرغم من أن هولمن لم يكن يعلم بذلك، فقد قضى على ما يبدو السنوات الـ 21 الماضية في السجن بسبب جرائمه، على الأقل وفقاً لروبوت المحادثة.
وعلى الرغم من أن القصة كانت كاذبة بشكل واضح، فقد حصل ChatGPT على أجزاء صحيحة من حياة هولمن، مثل مسقط رأسه، وكذلك عمر وجنس كل من أطفاله. لقد كانت المعلومات مزيجاً شريراً من الحقيقة المتداخلة مع هلوسة جامحة.
رفع هولمن هذه المعلومات إلى منظمة Noyb، وهي مجموعة أوروبية لحقوق البيانات، التي قدمت شكوى إلى هيئة حماية البيانات النرويجية نيابة عنه. وقدمت Noyb أيضاً دعوى قضائية ضد OpenAI، الشركة الأم لـ ChatGPT. وعلى الرغم من أن ChatGPT لم يعد يكرر هذه الأكاذيب حول هولمن، فإن Noyb تطلب من الوكالة "أن تأمر OpenAI بحذف المخرجات التشهيرية وضبط نموذجها بدقة للقضاء على النتائج غير الدقيقة"، وهي مهمة شبه مستحيلة.
تسلط محنة القتل المزيف التي تعرض لها هولمن الضوء على السرعة التي يتم بها فرض الذكاء الاصطناعي التوليدي على العالم، بغض النظر عن العواقب. وقد جادل باحثو البيانات ونقاد التكنولوجيا بأن دورات التطوير التي تحركها الأرباح في شركات التكنولوجيا الكبرى تعطي الأولوية للنماذج التي تبدو أنها تفعل كل شيء، بدلاً من النماذج العملية التي تعمل بالفعل.
قالت تيمينت جبرو، مؤسسة معهد أبحاث الذكاء الاصطناعي الموزع، في بودكاست "التكنولوجيا لن تنقذنا" في وقت سابق من هذا الشهر "في هذا العصر الذي يحاولون فيه القول إنهم بنوا إلهاً آلياً، يستخدمون هذه المطرقة الكبيرة لأي مهمة، وفي الحقيقة هم لا يبنون أفضل نموذج ممكن لأفضل مهمة ممكنة".
على الرغم من وجود لوائح، في النرويج على أي حال، تقضي بأن شركات الذكاء الاصطناعي يجب أن تصحح أو تزيل المعلومات الكاذبة التي يهذي بها الذكاء الاصطناعي، فإن هذه القوانين التفاعلية لا تفعل الكثير لحماية الأفراد من الهلوسات في المقام الأول، ولهذا عواقب وخيمة.