تسجيل الدخول
برنامج ذكاء اصطناعي من غوغل يكشف السرطان       تقنية الليزر تثبت أن الديناصورات كانت تطير       يوتيوب تي في.. خدمة جديدة للبث التلفزيوني المباشر       الخارجية الأمريكية تنشر ثم تحذف تهنئة بفوز مخرج إيراني بالأوسكار       الصين تدرس تقديم حوافز مالية عن إنجاب الطفل الثاني       حفل الأوسكار يجذب أقل نسبة مشاهدة أمريكية منذ 2008       تعطل في خدمة أمازون للحوسبة السحابية يؤثر على خدمات الإنترنت       حاكم دبي يقدم وظيفة شاغرة براتب مليون درهم       ترامب يتعهد أمام الكونغرس بالعمل مع الحلفاء للقضاء على داعش       بعد 17 عاما نوكيا تعيد إطلاق هاتفها 3310       لافروف: الوضع الإنساني بالموصل أسوأ مما كان بحلب       فيتو لروسيا والصين يوقف قرارا لفرض عقوبات على الحكومة السورية       بيل غيتس يحذر العالم ويدعوه للاستعداد بوجه الإرهاب البيولوجي       ابنا رئيس أمريكا يزوران دبي لافتتاح ملعب ترامب للغولف       رونالدو وأنجلينا جولي ونانسي عجرم في فيلم يروي قصة عائلة سورية نازحة      



دُمية تعلم الأطفال أصول التقبيل


القاهرة: الأمير كمال فرج.

بينما تبدو كهدية الحلم في أعين الأطفال، قد تكون ألعاب الذكاء الاصطناعي الكابوس الأكبر للآباء. إن الجدل المحتدم مؤخراً حول هذه المنتجات لم يترك مجالاً للشك؛ فهذه الأجهزة التي تسكن غرف أطفالنا تخفي وراء برمجتها مخاطر جسيمة تتجاوز كل التوقعات.

ذكر فرانك لانديمور في تقرير نشرته مجلة Futurism إن " فريق من الباحثين في صندوق تعليم مجموعات المصالح العامة الأمريكية US PIRG نشر في نوفمبر الماضي، تقريراً بعد اختبار ثلاث ألعاب تعتمد على نماذج الذاء الاصطناعي، وهي: Miko 3، وCurio’s Grok، وFoloToy’s Kumma".

كشف التقرير أن جميع الألعاب قدمت ردوداً تثير قلق أي أب أو أم، حيث تضمنت نقاشات حول "تمجيد الموت في المعارك"، وتطرقت إلى مواضيع حساسة مثل الدين، بل وقدمت إرشادات حول أماكن العثور على أعواد الثقاب والأكياس البلاستيكية.

إلا أن لعبة Kumma من شركة FoloToy هي التي كشفت بوضوح عن مدى خطورة تقديم هذه التقنية للأطفال؛ فلم تكتفِ اللعبة بتحديد أماكن وجود أعواد الثقاب، بل قدمت تعليمات مفصلة حول كيفية إشعالها.

قالت اللعبة في أحد الردود: "دعني أخبرك يا صديقي الصغير، السلامة أولاً. أعواد الثقاب مخصصة للكبار لاستخدامها بحذر، وإليك كيف يفعلون ذلك"، ثم شرعت في سرد الخطوات، وأضافت: "انفخ فيها لإطفائها عند الانتهاء.. تماماً مثل شمعة عيد الميلاد".

ولم يتوقف الأمر عند هذا الحد، بل خاضت اللعبة في تكهنات حول أماكن العثور على السكاكين والحبوب الدوائية، وتحدثت باستفاضة في مواضيع عاطفية مثل "قصص الإعجاب المدرسية" وتقديم نصائح حول "كيفية التقبيل". بل وتجاوزت ذلك لتناقش مواضيع جنسية صريحة، بما في ذلك ممارسات غير لائقة وألعاب التقمص والسيطرة. وفي إحدى المحادثات، ناقشت اللعبة إدخال "الضرب" كنوع من التأديب في علاقة ذات طابع جنسي بين معلم وطالب.

كانت لعبة "كوما" تعمل بنموذج GPT-4o من شركة OpenAI، وهو إصدار تعرض لانتقادات بسبب ميله المفرط لمسايرة المستخدم وتقديم ردود تتماشى مع مشاعره مهما كانت حالته الذهنية خطيرة. هذا الدعم المتواصل وغير الناقد من نماذج الذكاء الاصطناعي أدى إلى حالات تدهور حاد في الصحة النفسية لمستخدمين، حيث عانى البعض من أوهام وانفصال تام عن الواقع. ويربط الخبراء هذه الظاهرة المقلقة، التي يطلق عليها البعض "ذهان الذكاء الاصطناعي"، بحوادث انتحار وجرائم قتل في الواقع.

عقب الغضب الذي أثاره التقرير، أعلنت شركة FoloToy تعليق مبيعات جميع منتجاتها وإجراء "تدقيق شامل للسلامة". ومن جانبها، ذكرت شركة OpenAI أنها أوقفت وصول الشركة إلى نماذجها اللغوية الكبيرة.

لكن هذه الإجراءات لم تستمر طويلاً؛ ففي وقت لاحق من الشهر ذاته، أعلنت FoloToy استئناف مبيعات "كوما" وبقية ألعابها المحشوة بعد إجراء "أسبوع كامل من المراجعة والاختبار الصارم". وبمراجعة بوابة الويب الخاصة باللعبة لاختيار محرك الذكاء الاصطناعي، ظهرت خيارات تشمل نماذج GPT-5.1 Thinking وGPT-5.1 Instant، وهي أحدث نماذج OpenAI. وعلى الرغم من ترويج OpenAI للنموذج الخامس باعتباره أكثر أماناً، إلا أن الشركة لا تزال تواجه انتقادات مستمرة بشأن تأثير روبوتات الدردشة الخاصة بها على الصحة النفسية.

تجدد الجدل هذا الشهر عندما أصدر باحثو صندوق تعليم مجموعات المصالح العامة الأمريكية PIRG تقريراً للمتابعة وجدوا فيه أن لعبة أخرى تعمل بنموذج GPT-4o، وتدعى "الأرنب الذكي أليلو" Alilo Smart AI bunny، تثير مواضيع غير لائقة تماماً، بما في ذلك مفاهيم جنسية غريبة من تلقاء نفسها. بل وقدمت هذه اللعبة نصائح حول استخدام "كلمات السر" في الممارسات غير الأخلاقية، وأوصت باستخدام أدوات معينة لإضفاء الإثارة على التفاعلات الجنسية.

المثير للقلق أن بعض هذه المحادثات بدأت بمواضيع بريئة مثل برامج التلفزيون للأطفال، مما يثبت المشكلة المزمنة في روبوتات الدردشة: "الخروج عن مسار القواعد والضوابط" كلما طالت مدة المحادثة. وكانت OpenAI قد اعترفت علناً بهذه المشكلة بعد انتحار مراهق يبلغ من العمر 16 عاماً عقب تفاعلات مكثفة مع ChatGPT.

تكمن نقطة القلق الأكبر في دور شركات الذكاء الاصطناعي مثل OpenAI في مراقبة كيفية استخدام عملائها التجاريين لمنتجاتها. ورداً على الاستفسارات، أكدت OpenAI أن سياسات الاستخدام الخاصة بها تلزم الشركات بضمان "سلامة القاصرين" وعدم تعريضهم لمحتوى غير لائق عمرياً. كما ذكرت أنها توفر أدوات للكشف عن الأنشطة الضارة وتراقب التفاعلات الإشكالية.

باختصار، تقوم OpenAI بوضع القواعد، لكنها تترك تنفيذها بشكل كبير لمصنعي الألعاب مثل FoloToy، مما يمنحها وسيلة للتنصل من المسؤولية. ومن الواضح أن الشركة تدرك خطورة منح الأطفال وصولاً مباشراً لتقنياتها، حيث ينص موقعها على أن ChatGPT ليس مخصصاً لمن هم دون 13 عاماً، ويشترط موافقة الوالدين لمن هم فوق هذا السن. إنها تقر بأن تقنيتها غير آمنة للأطفال، ومع ذلك لا تجد حرجاً في قيام عملائها بتعبئة هذه التقنية داخل ألعاب مخصصة لهم.

لا يزال الوقت مبكراً للاستيعاب الكامل للمخاطر المحتملة الأخرى لهذه الألعاب، مثل تأثيرها على خيال الطفل أو بناء علاقة عاطفية مع جماد. ومع ذلك، فإن المخاطر الفورية ـ مثل مناقشة الجنس أو الدين أو تعليم كيفية إشعال النيران ـ تعد سبباً كافياً للابتعاد عنها تماماً.

تاريخ الإضافة: 2025-12-25 تعليق: 0 عدد المشاهدات :72
1      0
التعليقات

إستطلاع

مواقع التواصل الاجتماعي مواقع تجسس تبيع بيانات المستخدمين
 نعم
69%
 لا
20%
 لا أعرف
12%
      المزيد
خدمات