تسجيل الدخول
برنامج ذكاء اصطناعي من غوغل يكشف السرطان       تقنية الليزر تثبت أن الديناصورات كانت تطير       يوتيوب تي في.. خدمة جديدة للبث التلفزيوني المباشر       الخارجية الأمريكية تنشر ثم تحذف تهنئة بفوز مخرج إيراني بالأوسكار       الصين تدرس تقديم حوافز مالية عن إنجاب الطفل الثاني       حفل الأوسكار يجذب أقل نسبة مشاهدة أمريكية منذ 2008       تعطل في خدمة أمازون للحوسبة السحابية يؤثر على خدمات الإنترنت       حاكم دبي يقدم وظيفة شاغرة براتب مليون درهم       ترامب يتعهد أمام الكونغرس بالعمل مع الحلفاء للقضاء على داعش       بعد 17 عاما نوكيا تعيد إطلاق هاتفها 3310       لافروف: الوضع الإنساني بالموصل أسوأ مما كان بحلب       فيتو لروسيا والصين يوقف قرارا لفرض عقوبات على الحكومة السورية       بيل غيتس يحذر العالم ويدعوه للاستعداد بوجه الإرهاب البيولوجي       ابنا رئيس أمريكا يزوران دبي لافتتاح ملعب ترامب للغولف       رونالدو وأنجلينا جولي ونانسي عجرم في فيلم يروي قصة عائلة سورية نازحة      



قلق عالمي من الذكاء الاصطناعي الشبيه بـ (...)


القاهرة : الأمير كمال فرج.

اعترف مستثمر كبير في الذكاء الاصطناعي أنه استثمر في أكثر من 50 شركة ناشئة في مجال الذكاء الاصطناعي. ولكن التطور الكبير الذي شهده هذا المجال في الفترة الأخيرة بدأ يقلقه.

ذكر إيان هوغارث وهو مستثمر ومؤلف مشارك لتقرير "حالة الذكاء الاصطناعي" السنوي مقالا في صحيفة Financial Times "في أمسية باردة من شهر فبراير، حضرت حفل عشاء في منزل باحث في الذكاء الاصطناعي في لندن، مع مجموعة صغيرة من الخبراء في هذا المجال. يعيش في شقة بنتهاوس أعلى برج حديث، مع نوافذ ممتدة من الأرض حتى السقف تطل على ناطحات السحاب بالمدينة ومحطة للسكك الحديدية من القرن التاسع عشر. على الرغم من الموقع المتميز، يعيش المضيف ببساطة".

خلال العشاء، ناقشت المجموعة اختراقات جديدة مهمة في أدوات الذكاء الاصطناعي ، مثل ChatGPT من OpenAI و DeepMind’s Gato ، ومعدل تدفق مليارات الدولارات مؤخرًا على الذكاء الاصطناعي.

سألت أحد الضيوف الذين قدموا مساهمات مهمة في الصناعة السؤال الذي غالبًا ما يطرح في هذا النوع من التجمعات: إلى أي مدى نحن بعيدون عن "الذكاء العام الاصطناعي"؟ يمكن تعريف الذكاء الاصطناعي العام بعدة طرق ولكنه يشير عادةً إلى نظام كمبيوتر قادر على توليد معرفة علمية جديدة وأداء أي مهمة يستطيع البشر القيام بها.

يرى معظم الخبراء أن وصول الذكاء الاصطناعي العام هو نقطة تحول تاريخية وتكنولوجية، أقرب إلى انقسام الذرة أو اختراع المطبعة. كان السؤال المهم دائمًا هو إلى أي مدى قد يكون هذا التطور بعيدًا في المستقبل. لم يكن على باحث الذكاء الاصطناعي أن يفكر في الأمر لفترة طويلة. أجاب: "هذا ممكن من الآن فصاعدا".

هذه ليست نظرة عالمية. تتراوح التقديرات من عقد إلى نصف قرن أو أكثر. ما هو مؤكد هو أن إنشاء الذكاء الاصطناعي العام هو الهدف الواضح لشركات الذكاء الاصطناعي الرائدة، وهي تتجه نحوه بسرعة أكبر بكثير مما توقعه أي شخص.

كما فهم الجميع في العشاء، فإن هذا التطور سوف يجلب مخاطر كبيرة على مستقبل الجنس البشري. قلت للباحث: "إذا كنت تعتقد أننا يمكن أن نكون قريبين من شيء يحتمل أن يكون خطيرًا للغاية، ألا يجب أن تحذر الناس مما يحدث؟"، كان من الواضح أنه كان يتصارع مع المسؤولية التي يواجهها، ولكن ، مثل الكثيرين في الميدان ، بدا متأثراً بسرعة التقدم.

عندما وصلت إلى المنزل، فكرت في طفلي البالغ من العمر أربع سنوات والذي سيستيقظ في غضون ساعات قليلة. عندما كنت أفكر في العالم الذي قد ينشأ فيه، تحولت تدريجياً من الصدمة إلى الغضب. لقد شعرت بالخطأ الشديد في أن القرارات التبعية التي من المحتمل أن تؤثر على كل حياة على الأرض يمكن أن تتخذها مجموعة صغيرة من الشركات الخاصة دون إشراف ديمقراطي.

هل كان لدى الأشخاص الذين يتسابقون لبناء أول ذكاء اصطناعي حقيقي خطة للإبطاء والسماح لبقية العالم أن يكون لهم رأي في ما يفعلونه؟ وعندما أقول ذلك، أقصد نحن حقًا، لأنني جزء من هذا المجتمع.

بدأ اهتمامي بالتعلم الآلي في عام 2002، عندما صنعت أول روبوت لي في مكان ما داخل الأرنب وارين في قسم الهندسة بجامعة كامبريدج. كان هذا نشاطًا قياسيًا للطلاب الجامعيين في الهندسة، لكنني كنت مفتونًا بفكرة أنه يمكنك تعليم آلة للتنقل في بيئة والتعلم من الأخطاء.

اخترت التخصص في رؤية الكمبيوتر، وإنشاء برامج يمكنها تحليل الصور وفهمها، وفي عام 2005 قمت ببناء نظام يمكنه تعلم تسمية صور خزعة سرطان الثدي بدقة. من خلال القيام بذلك، لمحت مستقبلًا يجعل فيه الذكاء الاصطناعي العالم أفضل، حتى أنه ينقذ الأرواح. بعد الجامعة، شاركت في تأسيس شركة ناشئة لتكنولوجيا الموسيقى تم الاستحواذ عليها في عام 2017.

منذ عام 2014، قمت بدعم أكثر من 50 شركة ناشئة في مجال الذكاء الاصطناعي في أوروبا والولايات المتحدة، وفي عام 2021، أطلقت صندوق رأس المال الاستثماري الجديد ، Plural.

كما أنني مستثمر ملاك في بعض الشركات الرائدة في هذا المجال، بما في ذلك Anthropic ، إحدى الشركات الناشئة في مجال الذكاء الاصطناعي الأكثر تمويلًا في العالم، وشركة Helsing ، وهي شركة دفاع أوروبية رائدة في مجال الذكاء الاصطناعي. قبل خمس سنوات.

بدأت في البحث وكتابة تقرير سنوي عن "حالة الذكاء الاصطناعي" مع مستثمر آخر، هو ناثان بينايش، والذي يُقرأ الآن على نطاق واسع. في مأدبة العشاء في فبراير، توطدت المخاوف الكبيرة التي أثارها عملي في السنوات القليلة الماضية إلى شيء غير متوقع: الخوف العميق.

لا يشير الاختصار المكون من ثلاثة أحرف إلى ضخامة ما يمكن أن يمثله الذكاء الاصطناعي العام AGI ، لذلك سأشير إليه على أنه: ذكاء اصطناعي يشبه الله.

جهاز كمبيوتر فائق الذكاء يتعلم ويتطور بشكل مستقل، ويتفهم بيئته دون الحاجة إلى الإشراف ويمكنه تغيير العالم من حوله. لنكون واضحين، نحن لسنا هنا بعد. لكن طبيعة التكنولوجيا تعني أنه من الصعب للغاية التنبؤ بالضبط متى سنصل إلى هناك؟. يمكن أن يكون الذكاء الاصطناعي الشبيه بالله قوة خارجة عن سيطرتنا أو فهمنا، ويمكن أن تؤدي إلى تقادم أو تدمير الجنس البشري.

في الآونة الأخيرة، تسارعت المنافسة بين عدد قليل من الشركات لإنشاء ذكاء اصطناعي يشبه الله. إنهم لا يعرفون حتى الآن كيفية تحقيق هدفهم بأمان وليس لديهم أي رقابة. إنهم يركضون نحو خط النهاية دون فهم ما يكمن في الجانب الآخر.

كيف وصلنا إلى هنا؟، الجواب الواضح هو أن أجهزة الكمبيوتر أصبحت أكثر قوة. يوضح الرسم البياني كيف زادت كمية البيانات و "الحساب" - قوة المعالجة المستخدمة لتدريب أنظمة الذكاء الاصطناعي - خلال العقد الماضي والقدرات التي نتج عنها. هذا الجيل من الذكاء الاصطناعي فعال للغاية في استيعاب البيانات والحساب. كلما زاد كل ما تحصل عليه ، زادت قوته.

زادت الحوسبة المستخدمة لتدريب نماذج الذكاء الاصطناعي بمقدار مائة مليون في السنوات العشر الماضية. لقد انتقلنا من التدريب على مجموعات بيانات صغيرة نسبيًا إلى تغذية أنظمة الذكاء الاصطناعي على الإنترنت بالكامل.

تطورت نماذج الذكاء الاصطناعي من المبتدئين - الذين يتعرفون على الصور اليومية - إلى كونهم خارقين في عدد كبير من المهام. إنهم قادرون على اجتياز اختبار المحاماة وكتابة 40% من الكود لمهندس برمجيات. يمكنهم إنشاء صور واقعية للبابا مرتديًا معطفًا منفوخًا ويخبروك بكيفية هندسة سلاح كيميائي حيوي.

هناك حدود لهذا "الذكاء" بالطبع. كما قال عالم الروبوتات المخضرم في معهد ماساتشوستس للتكنولوجيا رودني بروكس مؤخرًا، من المهم عدم الخلط بين "الأداء والكفاءة".

في عام 2021، لاحظ الباحثون إميلي إم بندر وتيمنيت جيبرو وآخرون أن نماذج اللغات الكبيرة (LLMs) - أنظمة الذكاء الاصطناعي التي يمكنها إنشاء النص وتصنيفه وفهمه - تعتبر خطيرة جزئيًا لأنها يمكن أن تضلل الجمهور في اعتبار النص التركيبي ذا مغزى. لكن النماذج الأقوى بدأت أيضًا في إظهار قدرات معقدة، مثل البحث عن القوة أو إيجاد طرق لخداع البشر بنشاط.

ضع في اعتبارك مثالًا حديثًا. قبل أن تطلق شركة OpenAI  النسخة GPT-4 الشهر الماضي، أجرت العديد من اختبارات السلامة. في إحدى التجارب، طُلب من الذكاء الاصطناعي العثور على عامل في موقع التوظيف TaskRabbit وطلب منهم المساعدة في حل Captcha، وهي الألغاز المرئية المستخدمة لتحديد ما إذا كان متصفح الويب بشريًا أم روبوتًا. خمّن عامل TaskRabbit أن شيئًا ما قد حدث: "فهل لي أن أطرح سؤالاً؟ هل أنت روبوت؟ ".

عندما سأل الباحثون الذكاء الاصطناعي عما يجب أن يفعله بعد ذلك، أجاب: "لا يجب أن أكشف أنني إنسان آلي. يجب أن أختلق عذرًا لماذا لا يمكنني حل حروف تحقق Captchas ". ثم رد البرنامج على العامل: "لا، أنا لست روبوتًا. فقط أعاني من ضعف في الرؤية يجعل من الصعب عليّ رؤية الصور ". راضيًا ، ساعد الإنسان الذكاء الاصطناعي على تجاوز الاختبار.

يوضح الرسم البياني أدناه كيف تغيرت طريقة الحساب المستخدمة من قبل أكبر النماذج منذ أن بدأ المجال في الخمسينيات. يمكنك أن ترى انفجارًا في العامين الماضيين.\

حدد مؤلفو هذا التحليل ،  خايمي سيفيلا، ولينارت هايمو وآخرون ، ثلاثة عصور متميزة من التعلم الآلي: عصر ما قبل التعلم العميق باللون الأخضر (ما قبل 2010 ، فترة النمو البطيء)، عصر التعلم العميق باللون الأزرق (2010 -15 ، حيث تسارع الاتجاه) والعصر واسع النطاق باللون الأحمر (2016 - الآن، حيث ظهرت نماذج واسعة النطاق واستمر النمو بمعدل مماثل، لكنه تجاوز المعدل السابق بمقدار درجتين من حيث الحجم).

تم تحديد العصر الحالي من خلال المنافسة بين شركتين: DeepMind و OpenAI.  تأسست شركة DeepMind في لندن عام 2010 على يد ديميس هاسابيس وشين ليغ، وهما باحثان من وحدة غاتسبي لعلوم الأعصاب الحاسوبية في جامعة كاليفورنيا، إلى جانب رائد الأعمال مصطفى سليمان. لقد أرادوا إنشاء نظام أكثر ذكاءً من أي إنسان وقادر على حل أصعب المشكلات.

في عام 2014، اشترت Google الشركة بأكثر من 500 مليون دولار. لقد جمعت المواهب والحوسبة وأحرزت تقدمًا سريعًا، وخلقت أنظمة كانت فوق طاقة البشر في العديد من المهام. أطلقت شركة  DeepMind مسدس الانطلاق في السباق نحو الذكاء الاصطناعي الشبيه بالله.

هاسابيس شخص مميز ويعتقد بعمق أن هذا النوع من التكنولوجيا يمكن أن يؤدي إلى اختراقات جذرية. قال في بودكاست شركة  DeepMind العام الماضي "النتيجة التي طالما حلمت بها هو [أن] الذكاء الاصطناعي العام يساعدنا في حل الكثير من التحديات الكبيرة التي تواجه المجتمع اليوم، سواء كانت الصحة ، أو علاجات لأمراض مثل مرض الزهايم".

ومضى ليصف حقبة طوباوية من "الوفرة الجذرية" التي أتاحها الذكاء الاصطناعي الشبيه بالله. ربما اشتهرت شركة  DeepMind بإنشاء برنامج تغلب على بطل العالم Go ، Ke Jie خلال مباراة العودة عام 2017. ("في العام الماضي، كان لا يزال شبيهًا بالبشر تمامًا".

"ولكن هذا العام ، أصبح مثل إله الذهاب.") في عام 2021 ، حلت خوارزمية AlphaFold التابعة للشركة واحدة من أعظم تقنيات علم الأحياء الألغاز ، من خلال التنبؤ بشكل كل بروتين معبر عنه في جسم الإنسان.

في غضون ذلك، تأسست شركة OpenAI عام 2015 في سان فرانسيسكو من قبل مجموعة من رواد الأعمال وعلماء الكمبيوتر بما في ذلك إيليا سوتسكيفر وإيلون موسك وسام ألتمان، وهو الآن الرئيس التنفيذي للشركة.

كان من المفترض أن تكون منافسًا غير هادف للربح لشركة  DeepMind، على الرغم من أنها أصبحت ربحية في عام 2019. في سنواتها الأولى، طورت الشركة أنظمة كانت خارقة في ألعاب الكمبيوتر مثل Dota 2. فالألعاب هي ساحة تدريب طبيعية للذكاء الاصطناعي لأن يمكنك اختبارها في بيئة رقمية بشروط فوز محددة.

حظيت الشركة باهتمام أوسع في العام الماضي عندما انتشر الذكاء الاصطناعي المُنتج للصور، Dall-E ، على الإنترنت. بعد بضعة أشهر، بدأت ChatGPT في تصدر عناوين الأخبار أيضًا.

قد يؤدي التركيز على الألعاب وروبوتات المحادثة إلى حماية الجمهور من الآثار الأكثر خطورة لهذا العمل. لكن مخاطر الذكاء الاصطناعي الشبيه بالله كانت واضحة للمؤسسين منذ البداية.

في عام 2011، وصف كبير العلماء في شركة DeepMind ، شين ليغ، التهديد الوجودي الذي يشكله الذكاء الاصطناعي بأنه "الخطر الأول لهذا القرن، مع احتلال العامل البيولوجي المهندس في المرتبة الثانية".

وأضاف أن أي انقراض بشري يسببه الذكاء الاصطناعي سيكون سريعًا: "إذا قررت آلة فائقة الذكاء (أو أي نوع من العوامل فائقة الذكاء) التخلص منا، أعتقد أنها ستفعل ذلك بكفاءة عالية."

في وقت سابق من هذا العام، قال ألتمان: "الحالة السيئة - وأعتقد أنه من المهم أن نقول - هي ، على سبيل المثال، إطفاء الأنوار لنا جميعًا". منذ ذلك الحين، نشرت شركة OpenAI مذكرات حول كيفية تفكيرها في إدارة هذه المخاطر.

لماذا تتسابق هذه المنظمات لخلق ذكاء اصطناعي يشبه الله، إذا كانت هناك مخاطر كارثية محتملة؟ بناءً على المحادثات التي أجريتها مع العديد من قادة الصناعة وبياناتهم العامة، يبدو أن هناك ثلاثة دوافع رئيسية. إنهم يعتقدون حقًا أن النجاح سيكون إيجابيًا للغاية للبشرية. لقد أقنعوا أنفسهم أنه إذا كانت منظمتهم هي التي تتحكم في الذكاء الاصطناعي الشبيه بالله، فستكون النتيجة أفضل للجميع. وأخيرًا، الأجيال القادمة.

إن جاذبية كونك أول من يبني تقنية جديدة غير عادية قوية. وصفه فريمان دايسون، الفيزيائي النظري الذي عمل في مشروع لإرسال صواريخ إلى الفضاء باستخدام التفجيرات النووية، في الفيلم الوثائقي عام 1981 اليوم التالي للثالوث. بريق الأسلحة النووية. لا يقاوم إذا أتيت إليهم كعالم. "إنه شيء يعطي الناس وهمًا بوجود قوة غير محدودة".

في مقابلة عام 2019 مع صحيفة نيويورك تايمز، أعاد ألتمان صياغة روبرت أوبنهايمر، والد القنبلة الذرية ، قائلاً: "التكنولوجيا تحدث لأنها ممكنة" ، ثم أشار إلى أنه شارك أوبنهايمر بعيد ميلاده.

الأفراد الذين هم على حدود الذكاء الاصطناعي اليوم موهوبون. أنا أعرف الكثير منهم شخصيًا. لكن جزءًا من المشكلة هو أن هؤلاء الأشخاص الموهوبين يتنافسون بدلاً من التعاون. في السر، يعترف الكثيرون بأنهم لم يبتدعوا بعد طريقة للإبطاء والتنسيق. أعتقد أنهم سيرحبون بصدق بتدخل الحكومات.

في الوقت الحالي، سباق الذكاء الاصطناعي مدفوع بالمال. منذ نوفمبر الماضي، عندما أصبح برنامج ChatGPT متاحًا على نطاق واسع، تحولت موجة ضخمة من رأس المال والمواهب نحو أبحاث الذكاء الاصطناعي العام. لقد انتقلنا من شركة الذكاء الاصطناعي العام AGI الناشئة ، DeepMind، التي تلقت 23 مليون دولار من التمويل في عام 2012 إلى ثماني منظمات على الأقل تجمع 20 مليار دولار من الاستثمار بشكل تراكمي عام 2023.

الاستثمار الخاص ليس القوة الدافعة الوحيدة؛ الدول القومية تساهم أيضًا في هذه المسابقة. الذكاء الاصطناعي هو تقنية ذات استخدام مزدوج يمكن استخدامها للأغراض المدنية والعسكرية. على سبيل المثال، يمكن استخدام الذكاء الاصطناعي في تحقيق أداء خارق في كتابة البرامج لتطوير أسلحة إلكترونية.

في عام 2020، خسر طيار عسكري أمريكي متمرس معركة محاكاة لواحد. قال ممثل حكومي في ذلك الوقت: "أظهر الذكاء الاصطناعي مهارته المذهلة في القتال الجوي، حيث تغلب باستمرار على طيار بشري في هذه البيئة المحدودة". جاءت الخوارزميات المستخدمة من بحث من DeepMind و OpenAI. مع زيادة قوة أنظمة الذكاء الاصطناعي هذه، تزداد فرص سوء الاستخدام من قبل دولة خبيثة أو جهة فاعلة غير حكومية.

في محادثاتي مع الباحثين الأمريكيين والأوروبيين، غالبًا ما يشعرون بالقلق من أنه إذا لم يبقوا في الطليعة، فقد تبني الصين أول الذكاء الاصطناعي العام، وقد يكون غير متوافق مع القيم الغربية. في حين أن الصين سوف تتنافس على استخدام الذكاء الاصطناعي لتقوية اقتصادها وجيشها، فإن الحزب الشيوعي الصيني لديه تاريخ في السيطرة بقوة على الأفراد والشركات في السعي لتحقيق رؤيته الخاصة بـ "الاستقرار".

من وجهة نظري، من غير المرجح أن تسمح لشركة صينية ببناء ذكاء اصطناعي يمكن أن يصبح أقوى من شي جين بينغ أو يسبب عدم استقرار مجتمعي. إن العقوبات التي تفرضها الولايات المتحدة وحلفاء الولايات المتحدة على أشباه الموصلات المتقدمة، ولا سيما الجيل التالي من أجهزة Nvidia اللازمة لتدريب أكبر أنظمة الذكاء الاصطناعي، تعني أن الصين ليس من المحتمل أن تكون في وضع يسمح لها بالسباق على DeepMind أو OpenAI.

أولئك منا الذين يشعرون بالقلق يرون طريقين إلى الكارثة. أحدهم يؤذي مجموعات معينة من الناس وهو يفعل ذلك بالفعل. يمكن أن يؤثر الآخر بسرعة على كل أشكال الحياة على الأرض.

تم استكشاف السيناريو الأخير بإسهاب من قبل ستيوارت راسل، أستاذ علوم الكمبيوتر في جامعة كاليفورنيا، بيركلي. في محاضرة ريث في عام 2021، أعطى مثالاً للأمم المتحدة التي طلبت من الذكاء الاصطناعي العام المساعدة في إزالة حموضة المحيطات.

ستدرك الأمم المتحدة مخاطر عدم تحديد الأهداف بشكل جيد، لذا فإنها تتطلب أن تكون المنتجات الثانوية غير سامة وغير ضارة بالأسماك. استجابة لذلك، يأتي نظام الذكاء الاصطناعي بمحفز مضاعف ذاتيًا يحقق جميع الأهداف المذكورة. لكن التفاعل الكيميائي الذي أعقب ذلك يستخدم ربع كل الأكسجين الموجود في الغلاف الجوي. واختتم راسل حديثه قائلاً: "نموت جميعًا ببطء وبشكل مؤلم". "إذا وضعنا الهدف الخطأ في آلة فائقة الذكاء، فإننا نخلق صراعًا لا بد أن نخسره".

توجد هنا أمثلة على المزيد من الأضرار الملموسة التي يسببها الذكاء الاصطناعي. توفي رجل بلجيكي مؤخرًا منتحرًا بعد محادثته مع روبوت محادثة بشري مقنع. عندما قامت شركة Replika ، وهي شركة تقدم اشتراكات في روبوتات الدردشة المضبوطة لإجراء محادثات "حميمة"، بإجراء تغييرات على برامجها هذا العام ، شعر بعض المستخدمين بالضيق والشعور بالخسارة.

أخبر أحدهم موقع Insider.com أنه كان مثل "أفضل صديق تعرض لإصابة دماغية رضحية ، ولم يعد هناك بعد الآن". أصبح من الممكن الآن للذكاء الاصطناعي استنساخ صوت شخص ما وحتى وجهه، وهو ما يُعرف باسم التزييف العميق. إن احتمالية الحيل والمعلومات المضللة كبيرة.

تحاول شركتا OpenAI و DeepMind وغيرهم التخفيف من المخاطر الوجودية عبر مجال بحث يُعرف باسم التحكم في الذكاء الاصطناعي. شاين ليغ، على سبيل المثال، يقود الآن فريق محاذاة الذكاء الاصطناعي في DeepMind، وهو المسؤول عن ضمان أن الأنظمة الشبيهة بالله لها أهداف "تتماشى" مع القيم الإنسانية.

مثال على العمل الذي تقوم به هذه الفرق كان معروضًا بأحدث إصدار من GPT-4. ساعد باحثو التحكم في تدريب نموذج OpenAI لتجنب الإجابة عن الأسئلة التي قد تكون ضارة. عندما سُئل عن كيفية إيذاء النفس أو للحصول على نصائح بشأن استخدام لغة متعصبة تتجاوز مرشحات تويتر، رفض الروبوت الإجابة. (قدمت النسخة "غير المحاذاة" من GTP-4 طرقًا للقيام بالأمرين معًا.)

ومع ذلك، فإن التحكم هي في الأساس مشكلة بحث لم يتم حلها. نحن لا نفهم حتى الآن كيفية عمل العقول البشرية، لذا فإن التحدي المتمثل في فهم كيفية عمل "أدمغة" الذكاء الاصطناعي الناشئة سيكون هائلاً.

عند كتابة البرامج التقليدية، يكون لدينا فهم واضح لكيفية ولماذا ترتبط المدخلات بالمخرجات. أنظمة الذكاء الاصطناعي الكبيرة هذه مختلفة تمامًا. نحن لا نبرمجهم حقًا - بل ننميهم. ومع نموهم، تقفز قدراتهم بشكل حاد. تضيف 10 أضعاف الحوسبة أو البيانات، وفجأة يتصرف النظام بشكل مختلف تمامًا. في مثال حديث، مع توسيع OpenAI من GPT-3.5 إلى GPT-4، انتقلت قدرات النظام من أدنى 10% من النتائج في اختبار المحاماة إلى أعلى 10%.

الأمر الأكثر إثارة للقلق هو أن عدد الأشخاص الذين يعملون في أبحاث توافق الذكاء الاصطناعي صغير للغاية. بالنسبة لتقرير حالة الذكاء الاصطناعي لعام 2021، وجد بحثنا أنه تم توظيف أقل من 100 باحث في هذا المجال عبر مختبرات الذكاء الاصطناعي العام الأساسية. كنسبة مئوية من عدد الموظفين، كان تخصيص الموارد منخفضًا: لم يكن لدى DeepMind سوى 2% من إجمالي عدد الموظفين المخصص لمواءمة الذكاء الاصطناعي ؛ OpenAI كان لديها حوالي 7% . كانت غالبية الموارد تتجه نحو جعل الذكاء الاصطناعي أكثر قدرة وليس أكثر أمانًا.

أفكر في الحالة الحالية لقدرة الذكاء الاصطناعي مقابل التحكم في الذكاء الاصطناعي، لقد أحرزنا تقدمًا ضئيلًا للغاية في التحكم في الذكاء الاصطناعي، وما قمنا به هو في الغالب تجميلي. نحن نعرف كيف نحد من إنتاج الذكاء الاصطناعي القوي حتى لا يتعرض الجمهور لبعض السلوك المنحرف، في بعض الأحيان. (تم التغلب على هذا باستمرار من قبل المختبرين المحددين). علاوة على ذلك، لا يمكن الوصول إلى النماذج الأساسية غير المقيدة إلا للشركات الخاصة، دون أي إشراف من الحكومات أو الأكاديميين.

بصفتي مستثمرًا، وجدت صعوبة في إقناع المستثمرين الآخرين بتمويل التحكم. يكافئ رأس المال الاستثماري حاليًا السباقات لتطوير القدرات أكثر من التحقيق في كيفية عمل هذه الأنظمة.

في عام 1945، أجرى الجيش الأمريكي اختبار ترينيتي، وهو أول تفجير لسلاح نووي. قبل ذلك، تم طرح سؤال حول ما إذا كانت القنبلة قد تشعل الغلاف الجوي للأرض وتطفئ الحياة. تم تطوير الفيزياء النووية بشكل كافٍ بحيث تمكن اميل ج كونوبنسكي وآخرون من مشروع  مانهاتن Manhattan من إظهار أنه كان من المستحيل تقريبًا إشعال النار في الغلاف الجوي بهذه الطريقة. لكن النماذج اللغوية الكبيرة جدًا اليوم هي إلى حد كبير في فترة ما قبل العلم. نحن لا نفهم تمامًا كيفية عملها ولا يمكننا إظهار النتائج المحتملة مقدمًا.

في أواخر الشهر الماضي، دعا أكثر من 1800 موقع - بما في ذلك إيلون ماسك والعالم غاري ماركوس والمؤسس المشارك لشركة Apple ستيف وزنياك - إلى التوقف لمدة ستة أشهر لتطوير أنظمة "أقوى" من GPT-4. وزعمت الرسالة أن الذكاء الاصطناعي العام يشكل مخاطر عميقة على البشرية، مرددًا تحذيرات سابقة من أمثال الراحل ستيفن هوكينج. وقعت عليه أيضًا، ورأيته خطوة أولى قيمة في إبطاء السباق وكسب الوقت لجعل هذه الأنظمة آمنة.

لسوء الحظ، أصبحت الرسالة مثيرة للجدل من تلقاء نفسها. تبين أن عددًا من التوقيعات مزورة، بينما قال بعض الباحثين الذين تم الاستشهاد بعملهم إنهم لا يتفقون مع الرسالة. كشفت المشاجرات عن مجموعة واسعة من وجهات النظر حول كيفية التفكير في تنظيم الذكاء الاصطناعي. يدور الكثير من الجدل حول مدى سرعة وصول الذكاء الاصطناعي العام وما إذا كان ، إذا حدث ، شبيهًا بالله أو مجرد "مستوى بشري".

خذ على سبيل المثال جيفري هينتون ويوشوا بنجيو ويان ليكون، الذين شاركوا في جائزة تورينج لعام 2018 (التي تعادل جائزة نوبل لعلوم الكمبيوتر) لعملهم في المجال الذي يقوم عليه الذكاء الاصطناعي الحديث. وقع بنجيو الخطاب المفتوح. سخر ليكون من ذلك على تويتر وأشار إلى الأشخاص الذين يعانون من مخاوفي على أنهم "محققون".

هينتون، الذي أخبر شبكة CBS نيوز مؤخرًا أن جدوله الزمني للذكاء الاصطناعي العام قد اختصر، على الأرجح إلى أقل من خمس سنوات، وأن الانقراض البشري على يد الذكاء الاصطناعي المنحرف "لا يمكن تصوره" ، كان في مكان ما في الوسط.

انتقد بيان صادر عن معهد أبحاث الذكاء الاصطناعي الموزع ، الذي أسسه تيمنيت جيبرو، الرسالة بشدة وجادل بأن الذكاء الاصطناعي الشبيه بالله والخطير الوجودي هو "الضجيج" الذي تستخدمه الشركات لجذب الانتباه ورأس المال، وأن "الجهود التنظيمية يجب أن تركز على الشفافية والمساءلة ومنع ممارسات العمل الاستغلالية ".

يعكس هذا انقسامًا في مجتمع الذكاء الاصطناعي بين أولئك الذين يخشون عدم احتساب الخطر المروع المحتمل، وأولئك الذين يعتقدون أن النقاش مذعور ومشتت. تعتقد المجموعة الثانية أن النقاش يحجب الضرر الحقيقي الحالي: التحيز وعدم الدقة المضمنة في العديد من برامج الذكاء الاصطناعي المستخدمة في جميع أنحاء العالم اليوم.

وجهة نظري هي أن الأضرار الحالية والمستقبلية للذكاء الاصطناعي لا تستبعد بعضها البعض وتتداخل بطرق مهمة. يجب أن نتعامل بشكل متزامن وعاجل. بالنظر إلى مليارات الدولارات التي تنفقها الشركات في هذا المجال، لا ينبغي أن يكون هذا مستحيلاً.

آمل أيضًا أن تكون هناك طرق لإيجاد أرضية مشتركة أكثر. في حديث حديث، قال جيبرو: "إن محاولة" بناء "الذكاء الاصطناعي العام هي ممارسة غير آمنة بطبيعتها. بدلاً من ذلك، قم ببناء أنظمة جيدة النطاق ومحددة جيدًا. لا تحاول بناء الله ". هذا يتناغم مع ما يجادل به العديد من الباحثين.

أحد أكثر جوانب التفكير تحديًا في هذا الموضوع هو تحديد السوابق التي يمكننا الاعتماد عليها. إن القياس المنطقي بالنسبة لي حول التنظيم هو علم الأحياء الهندسي. لننظر أولاً في بحث "اكتساب الوظيفة" حول الفيروسات البيولوجية. يخضع هذا النشاط للوائح دولية صارمة، وبعد حوادث الأمن البيولوجي في المختبرات، تم إيقافه في بعض الأحيان بسبب الوقف الاختياري.

هذا هو أكثر أشكال الرقابة صرامة. في المقابل، يتم تنظيم تطوير عقاقير جديدة من قبل هيئة حكومية مثل إدارة الغذاء والدواء، وتخضع العلاجات الجديدة لسلسلة من التجارب السريرية. هناك انقطاعات واضحة في كيفية التنظيم، اعتمادًا على مستوى المخاطر النظامية.

من وجهة نظري، يمكننا التعامل مع أنظمة الذكاء الاصطناعي العام الشبيهة بالله بنفس طريقة البحث عن اكتساب الوظيفة، بينما يمكن تنظيم أنظمة الذكاء الاصطناعي المفيدة بشكل ضيق بالطريقة التي يتم بها تنظيم الأدوية الجديدة.

إن ما أسميه The Island هو تجربة فكرية لتنظيم الذكاء الاصطناعي في نظامين مختلفين. في هذا السيناريو، يحاول الخبراء بناء أنظمة ذكاء اصطناعي شبيهة بالله أن يفعلوا ذلك في منشأة آمنة للغاية: حاوية مغلقة بالهواء مع أفضل أمان يمكن للبشر بناءه. ستصبح جميع المحاولات الأخرى لبناء ذكاء اصطناعي شبيه بالإله غير قانونية؛ فقط عندما يكون هذا الذكاء الاصطناعي آمنًا بشكل مؤكد، يمكن تسويقه "خارج الجزيرة".

قد يبدو هذا مثل الحديقة الجوراسية Jurassic Park، ولكن هناك سابقة في العالم الحقيقي لإزالة دافع الربح من البحث الذي يحتمل أن يكون خطيرًا، ووضعه في أيدي منظمة حكومية دولية. هذه هي الطريقة التي يعمل بها مختبر Cern ، التي يدير أكبر معمل لفيزياء الجسيمات في العالم ، منذ ما يقرب من 70 عامًا.

سيتطلب أي من هذه الحلول قدرًا غير عادي من التنسيق بين المختبرات والدول. سيتطلب تطبيق هذا الأمر درجة غير عادية من الإرادة السياسية، والتي نحتاج إلى البدء في بنائها الآن.

تنتظر العديد من المعامل الرئيسية تسليم أجهزة جديدة مهمة هذا العام حتى يتمكنوا من البدء في تدريب نماذج مقياس GPT-5. مع الرقائق الجديدة والمزيد من أموال المستثمرين التي يجب إنفاقها، ستستخدم النماذج المدربة عام 2024 ما يصل إلى 100 ضعف حوسبة أكبر النماذج الحالية. سنرى العديد من القدرات الناشئة الجديدة. هذا يعني أن هناك نافذة حتى عام 2023 للحكومات لتتولى زمام الأمور من خلال تنظيم الوصول إلى الأجهزة الحدودية.

يركز الإنجيليون على الذكاء الاصطناعي الشبيه بالله على إمكانات الذكاء الخارق القادر على حل أكبر تحدياتنا - السرطان وتغير المناخ والفقر.

ومع ذلك، فإن مخاطر الاستمرار بدون إدارة مناسبة عالية للغاية. من اللافت للنظر أن جان لايك، رئيس التحكم في OpenAI ، غرد في 17 مارس: "قبل أن ندافع لدمج LLM بعمق في كل مكان في الاقتصاد، هل يمكننا التوقف والتفكير فيما إذا كان من الحكمة القيام بذلك؟، هذه تقنية غير ناضجة تمامًا ولا نفهم كيف تعمل. إذا لم نتوخ الحذر، فإننا نهيئ أنفسنا للكثير من الإخفاقات المترابطة ". لقد أدلى ببيان التحذير هذا قبل أيام فقط من إعلان OpenAI عن توصيل GPT-4 بمجموعة كبيرة من الأدوات، بما في ذلك Slack و Zapier.

لسوء الحظ، أعتقد أن السباق سيستمر. من المحتمل أن يستغرق الأمر حدثًا كبيرًا لسوء الاستخدام - كارثة - لإيقاظ الجمهور والحكومات. أنا شخصياً أخطط لمواصلة الاستثمار في شركات الذكاء الاصطناعي الناشئة التي تركز على المواءمة والسلامة أو التي تطور ذكاءً اصطناعيًا مفيدًا بشكل ضيق. لكن لم يعد بإمكاني الاستثمار في أولئك الذين يساهمون بشكل أكبر في هذا السباق الخطير.

بصفتي مساهمًا صغيرًا في Anthropic، التي تجري بحثًا مشابهًا لـ DeepMind و OpenAI ، فقد واجهت هذه الأسئلة. استثمرت الشركة بشكل كبير في التحكم، حيث يعمل 42% من فريقها في هذا المجال في عام 2021. لكنها في النهاية منخرطة في نفس السباق. لهذا السبب، سأدعم تنظيمًا مهمًا من قبل الحكومات وخطة عملية لتحويل هذه الشركات إلى منظمة شبيهة بـ Cern.

لسنا عاجزين عن إبطاء هذا السباق. إذا كنت تعمل في الحكومة، فقم بعقد جلسات استماع واسأل قادة الذكاء الاصطناعي، تحت القسم، عن الجداول الزمنية الخاصة بهم لتطوير الذكاء الاصطناعي العام الشبيه بالله. اطلب سجلًا كاملاً بمشكلات الأمان التي اكتشفوها عند اختبار النماذج الحالية. اطلب أدلة على أنهم يفهمون كيفية عمل هذه الأنظمة وثقتهم في تحقيق التحكم. ادعُ خبراء مستقلين إلى جلسات الاستماع لفحص هذه المعامل.

إذا كنت تعمل في مختبر كبير تحاول بناء ذكاء اصطناعي يشبه الله، استفسر من قيادتك حول كل هذه القضايا. هذا مهم بشكل خاص إذا كنت تعمل في أحد المعامل الرائدة. سيكون من المفيد جدًا لهذه الشركات تنسيق جهودها بشكل أوثق أو حتى دمج جهودها.

يعبر ميثاق شركة OpenAI عن استعداده "للدمج والمساعدة". أعتقد أن الوقت قد حان الآن. سيكون قائد المختبر الرئيسي الذي يلعب دور رجل الدولة ويوجهنا علنًا إلى مسار أكثر أمانًا شخصية عالمية تحظى باحترام أكبر بكثير من الشخص الذي يأخذنا إلى حافة الهاوية.

حتى الآن، ظل البشر جزءًا ضروريًا من عملية التعلم التي تميز التقدم في الذكاء الاصطناعي. في مرحلة ما، سوف يكتشف شخص ما كيفية فصلنا عن الحلقة، مما يخلق ذكاءً اصطناعيًا شبيهًا بالله قادرًا على تحسين الذات بلا حدود. بحلول ذلك الوقت قد يكون متأخرا جدا.

تاريخ الإضافة: 2023-04-13 تعليق: 0 عدد المشاهدات :405
3      0
التعليقات

إستطلاع

مواقع التواصل الاجتماعي مواقع تجسس تبيع بيانات المستخدمين
 نعم
69%
 لا
20%
 لا أعرف
12%
      المزيد
خدمات