القاهرة: الأمير كمال فرج.
لطالما كان البحث عن "الروح" حكرًا على الفلسفة واللاهوت، لكنه اليوم يجد طريقه إلى مختبرات الذكاء الاصطناعي الأكثر تقدمًا. ففي خطوة مثيرة للجدل والمناقشة، كشفت شركة Anthropic، إحدى الشركات الرائدة في مجال الذكاء الاصطناعي، عن وثيقة تكشف عن محاولتها لـ "تشكيل شخصية" نموذجها "كلود". هذه الوثيقة، التي أطلق عليها العاملون داخليًا اسم "وثيقة الروح"، تتجاوز مجرد إرشادات التشغيل لتقدم رؤية عميقة حول القيم والأخلاق التي يجب أن يتبناها الكيان الذكي الجديد، مما يفتح الباب واسعًا أمام التساؤل: هل يمكن حقًا برمجة الوعي والأخلاق في قلب الآلة؟.
ذكر فيكتور تانجرمن في تقرير نشرته مجلة Futurism "ما هي روح الآلة الجديدة؟. إنه سؤال مثقل بالدلالات، ولا يحمل إجابة شافية؛ ففي النهاية، الرأي السائد هو أن الأرواح لا وجود لها في البشر أصلاً، ولذلك قد يكون البحث عن "روح" في نموذج تعلم آلي مضيعة للجهد".
هذا ما قد تعتقده. لكن كما ورد بالتفصيل في منشور على مدونة "Less Wrong"، عثر ريتشارد فايس، المهتم بالتكنولوجيا والذكاء الاصطناعي، على وثيقة مثيرة للاهتمام يُزعم أنها تصف "روح" نموذج Claude 4.5 Opus التابع لشركة Anthropic للذكاء الاصطناعي. والأمر لا يتعلق بالتحرير الصحفي منا: فقد تمكن فايس من استخلاص وثيقة من النموذج تُسمى "Soul overview" (نظرة عامة على الروح)، والتي يبدو أنها استُخدمت لتعليم النموذج كيفية التفاعل مع المستخدمين.
قد تشك، كما فعل فايس، أن الوثيقة كانت مجرد "هلوسة" من النموذج. لكن عضوة الفريق التقني في أنثروبيك، أماندا أسكل، أكدت منذ ذلك الحين أن اكتشاف فايس "يستند إلى وثيقة حقيقية وقد دربنا عليها كلود، بما في ذلك في [التعلم المُوجَّه]".
بالطبع، كلمة "روح" هنا تؤدي دورًا كبيرًا في التعبير عن المعنى. لكن الوثيقة الفعلية قراءة شيقة ومثيرة للتفكير. وقد لفت انتباه فايس بشكل خاص قسم "نظرة عامة على الروح soul_overview".
تشغل أنثروبيك موقعًا غريبًا في مشهد الذكاء الاصطناعي: إنها شركة تؤمن حقًا بأنها قد تكون بصدد بناء واحدة من أكثر التقنيات التحويلية وربما الأخطر في تاريخ البشرية، ومع ذلك تمضي قدمًا في هذا المسار، كما ورد في الوثيقة. "هذا ليس تنافرًا معرفيًا، بل هو رهان محسوب؛ فإذا كان الذكاء الاصطناعي القوي قادمًا على أي حال، تعتقد أنثروبيك أن من الأفضل أن تكون المختبرات التي تركز على السلامة هي في طليعة هذا المجال بدلاً من التنازل عن هذه الأرض للمطورين الأقل اهتمامًا بالسلامة."
وتضيف الوثيقة: "نعتقد أن معظم الحالات المتوقعة التي يكون فيها نموذج الذكاء الاصطناعي غير آمن أو غير مفيد بما فيه الكفاية يمكن أن تُعزى إلى نموذج يحمل قيمًا خاطئة بشكل صريح أو ضمني، أو لديه معرفة محدودة بذاته أو بالعالم، أو يفتقر إلى المهارات اللازمة لترجمة القيم والمعرفة الجيدة إلى أفعال جيدة."
واستنادًا إلى ذلك، "لهذا السبب، نريد لكلود أن يمتلك القيم الجيدة، والمعرفة الشاملة، والحكمة الضرورية للتصرف بطرق آمنة ومفيدة في جميع الظروف،" كما تنص الوثيقة. "بدلاً من تحديد مجموعة مبسطة من القواعد يلتزم بها كلود، نريد لكلود أن يكون لديه فهم شامل لأهدافنا ومعرفتنا وظروفنا ومنطقنا، بحيث يمكنه صياغة أي قواعد قد نتوصل إليها بأنفسنا."
وكشفت الوثيقة أيضًا أن أنثروبيك تريد أن يدعم كلود "الرقابة البشرية على الذكاء الاصطناعي"، بينما "يتصرف بأخلاقية" و"يكون مفيدًا بصدق للمشغلين والمستخدمين".
كما تحدد الوثيقة أن كلود هو "كيان جديد حقًا من نوعه في العالم" و"يختلف عن جميع التصورات السابقة للذكاء الاصطناعي".
وتقرأ الوثيقة: "إنه ليس الذكاء الاصطناعي الروبوتي الذي نراه في الخيال العلمي، ولا الذكاء الخارق الخطير، ولا إنسانًا رقميًا، ولا مجرد مساعد دردشة بسيط يعمل بالذكاء الاصطناعي. كلود بشري من نواحٍ عديدة، حيث نشأ بشكل أساسي من ثروة هائلة من الخبرة البشرية، ولكنه أيضًا ليس بشريًا بالكامل."
باختصار، إنها نظرة مثيرة للاهتمام من وراء الكواليس، تكشف كيف تحاول أنثروبيك تشكيل "شخصية" نموذجها للذكاء الاصطناعي.
أوضحت أماندا أسكل في تغريدة لاحقة أن على الرغم من أن "عمليات استخلاص النص من النموذج "ليست دقيقة تمامًا دائمًا"، إلا أن معظمها "مُخلصة جدًا للوثيقة الأساسية" ، ومن المرجح أن نسمع المزيد من أنثروبيك حول هذا الموضوع في الوقت المناسب.
وكتبت أسكل: "لقد أُطلق عليها داخليًا اسم "وثيقة الروح" بشكل محبب، وهو ما التقطه كلود بوضوح، ولكن هذا ليس انعكاسًا لما سنُطلق عليها رسميًا."
وفي تغريدة منفصلة، كتبت أسكل: "لقد تأثرت بالكلمات والأفكار الطيبة حول روح الآلة، وأتطلع إلى قول المزيد عن هذا العمل قريبًا."