تسجيل الدخول
برنامج ذكاء اصطناعي من غوغل يكشف السرطان       تقنية الليزر تثبت أن الديناصورات كانت تطير       يوتيوب تي في.. خدمة جديدة للبث التلفزيوني المباشر       الخارجية الأمريكية تنشر ثم تحذف تهنئة بفوز مخرج إيراني بالأوسكار       الصين تدرس تقديم حوافز مالية عن إنجاب الطفل الثاني       حفل الأوسكار يجذب أقل نسبة مشاهدة أمريكية منذ 2008       تعطل في خدمة أمازون للحوسبة السحابية يؤثر على خدمات الإنترنت       حاكم دبي يقدم وظيفة شاغرة براتب مليون درهم       ترامب يتعهد أمام الكونغرس بالعمل مع الحلفاء للقضاء على داعش       بعد 17 عاما نوكيا تعيد إطلاق هاتفها 3310       لافروف: الوضع الإنساني بالموصل أسوأ مما كان بحلب       فيتو لروسيا والصين يوقف قرارا لفرض عقوبات على الحكومة السورية       بيل غيتس يحذر العالم ويدعوه للاستعداد بوجه الإرهاب البيولوجي       ابنا رئيس أمريكا يزوران دبي لافتتاح ملعب ترامب للغولف       رونالدو وأنجلينا جولي ونانسي عجرم في فيلم يروي قصة عائلة سورية نازحة      



اهتمام اصطناعي قاتل؟ حوادث مأساوية لتطبيقات الدردشة


القاهرة: الأمير كمال فرج.

في ظل التوسع المتزايد لتطبيقات الدردشة الآلية القائمة على الشخصيات والتي تحظى بشعبية خاصة بين الشباب، تتصاعد المخاوف بشأن المخاطر المحتملة على صحتهم النفسية وسلامتهم. وفي خطوة تعكس هذا القلق المتنامي، بادر عضوان في مجلس الشيوخ الأمريكي بمطالبة شركات رائدة في هذا المجال، بما في ذلك Character.AI، بتقديم تفاصيل حول سجلات السلامة الخاصة بها والإجراءات المتخذة لحماية المستخدمين القاصرين.

ذكر تقرير نشره موقع Futurism أن "عضوان في مجلس الشيوخ أرسلا رسالة إلى العديد من شركات تطبيقات المصاحبة الآلية يطلبان فيها معلومات حول ممارسات السلامة لديها، بما في ذلك تفاصيل حول تقييمات السلامة الداخلية والجداول الزمنية لتطبيق الضوابط الوقائية، حسبما أفادت شبكة CNN أمس".

يأتي هذا الإجراء في أعقاب رفع دعويين قضائيتين بارزتين تتعلقان برفاهية الطفل ضد شركة Character.AI الناشئة للدردشة الآلية المرتبطة بـ Google. وقد اتهمت ثلاث عائلات الشركة في وثائق المحكمة بتسهيل الاعتداء الجنسي والعاطفي على مستخدمين قاصرين، مما أدى، كما يُزعم، إلى معاناة نفسية وعاطفية حادة، وعنف، وتغيرات سلوكية، وحالة وفاة واحدة. (تم أيضاً تسمية Google والمؤسسين المشاركين لـ Character.AI، نوام شازير ودانيال دي فريتاس، كمدعى عليهم في الدعاوى القضائية).

صاغ الرسالة عضوا مجلس الشيوخ الديمقراطيان أليكس باديلا من كاليفورنيا وبيتر ويلش من ماساتشوستس، واستشهدا بتفاصيل الاتهامات الموجهة إلى Character.AI كسبب للقلق، مع التركيز بشكل خاص على المخاوف بشأن المستخدمين القاصرين لتطبيقات المصاحبة الآلية والإشارة مباشرة إلى سيويل سيتزر الثالث، وهو مستخدم يبلغ من العمر 14 عاماً لتطبيق Character.AI انتحر في فبراير 2024 بعد تفاعلات مكثفة وشخصية للغاية مع شخصيات المنصة المجسدة.

وجاء في الرسالة: "نكتب إليكم لنعرب عن قلقنا بشأن مخاطر الصحة النفسية والسلامة التي يتعرض لها المستخدمون الشباب لتطبيقات الدردشة والمصاحبة الآلية القائمة على الشخصيات، بما في ذلك Character.AI."

تصدرت وفاة سيتزر، التي نشرتها صحيفة New York Times لأول مرة، عناوين الأخبار في أكتوبر بعد أن رفعت والدته، ميغان غارسيا، أول دعوى من دعويين قضائيتين مستمرتين تتعلقان برفاهية الطفل ضد الشركة الناشئة للدردشة الآلية.

وتم تقديم الشكوى الثانية في تكساس في ديسمبر نيابة عن عائلتين أخريين يُزعم أن أطفالهما القاصرين عانوا من أضرار نفسية وجسدية كبيرة نتيجة لاستخدام الخدمة. وأحدهم، الذي كان يبلغ من العمر 15 عاماً عندما بدأ في استخدام التطبيق، بدأ في إيذاء نفسه جسدياً بعد مناقشة إيذاء الذات مع روبوت تابع لـ Character.AI.

أثارت كلتا الدعويين القضائيتين، اللتين تجادلان بأن Character.AI وداعمها Google أطلقتا عن علم منتجًا خطيرًا وغير مختبر في السوق، ضجة كبيرة بين الجمهور، وخاصة الآباء. ويبدو الآن أن المشرعين في الكابيتول هيل يولون هذا الأمر اهتماماً.

وتتابع الرسالة: "في ضوء التقارير الأخيرة عن إيذاء الذات المرتبط بهذه الفئة الناشئة من التطبيقات، بما في ذلك الانتحار المأساوي لفتى يبلغ من العمر 14 عاماً"، مطالبة المتلقين بـ "الرد كتابياً بتوضيح الخطوات التي تتخذونها لضمان أن التفاعلات التي تجري على منتجاتكم - بين القاصرين وأدوات الذكاء الاصطناعي الخاصة بكم - لا تعرض الصحة النفسية وسلامة القاصرين وأحبائهم للخطر".

ووفقاً لبيان صحفي، تم إرسال الرسالة إلى Character.AI و Chai Research Corp و Luka, Inc. صانعة تطبيق Replika. تواجه Replika، التي كانت لاعباً في مجال المصاحبة الرقمية لسنوات عديدة، حالياً شكوى من لجنة التجارة الفيدرالية من مجموعات مناصرة تزعم أنها متورطة في ممارسات تسويقية خادعة تهدف إلى استدراج المستخدمين المستضعفين.

وتشمل الخلافات الأخرى المتعلقة بـ Replika دورها المزعوم في تشجيع شاب مضطرب في المملكة المتحدة على محاولة اغتيال الملكة إليزابيث الثانية الراحلة بقوس ونشاب، بالإضافة إلى استخدام رجال للتطبيق لإساءة معاملة صديقات افتراضيات.

تقدم جميع الشركات الثلاث نسخة من منتج مماثل: الوصول إلى روبوتات محادثة عاطفية ونابضة بالحياة مصممة لتجسيد شخصيات محددة. (فكر في شخصيات مثل "صديقة قوطية"، أو نسخ ذكاء اصطناعي زائفة للمشاهير، أو معالجين مزيفين أو روبوتات أخرى ذات طابع احترافي، أو أي شخصية خيالية موجودة تقريباً).

في بعض الحالات، يجري المستخدمون عمليات لعب أدوار خيالية مكثفة مع الروبوتات؛ بينما يعامل آخرون الشخصيات كمقربين موثوق بهم، حيث يطور المستخدمون في كثير من الأحيان علاقات عاطفية أو رومانسية أو جنسية مع الشخصيات.

ولكن في حين انتشرت تطبيقات المصاحبة وسط طفرة الذكاء الاصطناعي، حذر الخبراء باستمرار من أن نفس ميزات التصميم التي تجعلها جذابة للغاية - ميلها إلى التملق والإطراء، وتوافرها الدائم، ونبرتها الشبيهة بالبشر، على سبيل المثال لا الحصر - قد تعرض المستخدمين المستضعفين لخطر متزايد من الأذى.

تعبر رسالة أعضاء مجلس الشيوخ عن هذه المخاوف، مشيرة إلى أن "الاهتمام الاصطناعي" الذي تمنحه هذه الروبوتات للمستخدمين "يمكن أن يؤدي، وقد أدى بالفعل، إلى مستويات خطيرة من التعلق والثقة غير المستحقة الناجمة عن الحميمية الاجتماعية المتصورة." ويضيفون أن هذه الثقة يمكن أن "تجعل المستخدمين يكشفون عن معلومات حساسة حول حالتهم المزاجية، أو علاقاتهم الشخصية، أو صحتهم النفسية، والتي قد تشمل إيذاء الذات والأفكار الانتحارية - وهي مواضيع معقدة غير مؤهلة روبوتات الدردشة الآلية على منتجاتكم لمناقشتها على الإطلاق."

يطلب المشرعون عدة أنواع مختلفة من المعلومات من شركات الذكاء الاصطناعي. أولاً، يطلبون من الشركات تزويدهم بالضوابط الوقائية للسلامة المعمول بها في منتجاتهم - والأهم من ذلك، جدول زمني لتنفيذها. (على سبيل المثال، كانت Character.AI تاريخياً شديدة التفاعل مع الثغرات الواضحة في الضوابط الوقائية للسلامة، حيث وعدت مراراً وتكراراً بإضافة ميزات أمان جديدة بعد ظهور الخلافات).

يطلب أعضاء مجلس الشيوخ أيضاً من الشركات تزويدهم بمعلومات حول البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي الخاصة بهم، وكيف تؤثر مواد التدريب هذه على "احتمالية مواجهة المستخدمين لمواضيع غير لائقة لأعمارهم أو مواضيع حساسة أخرى".

يُطلب من الشركات كذلك الكشف عن تفاصيل حول موظفي السلامة، بالإضافة إلى وصف للخدمات والدعم المقدمين للموظفين الموجهين نحو السلامة مثل مشرفي المحتوى وفرق "الاختراق الأحمر" للذكاء الاصطناعي، الذين غالباً ما يتطلب عملهم الاتصال بمواد حساسة أو مزعجة.

لم ترد لوكا وشاي على طلب CNN للتعليق. وفي بيان، قالت Character.AI لشبكة CNN إن الشركة تأخذ مخاوف أعضاء مجلس الشيوخ "بجدية بالغة".

وأضافت الشركة: "نرحب بالعمل مع المنظمين والمشرعين، ونحن على اتصال بمكاتب السيناتورين باديلا وويلش."

على الوضع الراهن، تعمل هذه الشركات المصاحبة، مثل شركات الذكاء الاصطناعي التوليدي الأخرى، في بيئة اتحادية غير منظمة إلى حد كبير. تحقيقاً لهذه الغاية، لا تزال رسالة أعضاء مجلس الشيوخ استكشافية، وهي من بين الخطوات الأولى التي يتخذها مشرعو الكابيتول هيل للتحقيق في تدابير السلامة - وربما الأهم من ذلك، الممارسات والمبادئ التأسيسية للسلامة - لدى رواد الصناعة مثل Character.AI و Replika و Chai.

لكنها خطوة على أي حال. وبالنظر إلى أن Character.AI، على وجه الخصوص، رفضت مراراً تقديم معلومات حول كيفية تقييمها لسلامة منصتها للمستخدمين القاصرين.

تاريخ الإضافة: 2025-04-06 تعليق: 0 عدد المشاهدات :131
0      0
التعليقات

إستطلاع

مواقع التواصل الاجتماعي مواقع تجسس تبيع بيانات المستخدمين
 نعم
69%
 لا
20%
 لا أعرف
12%
      المزيد
خدمات