القاهرة: الأمير كمال فرج.
تعرف الشركات جيدا أن أداة الذكاء الاصطناعي ChatGPT يمكن أن يحدث تغيرا كبيرا في الأداء والربحية، لكن هناك عدة مخاوف تمنعها تتعلق بالأمان والخصوصية.
ذكرت تايلور تيلفورد وبرانشو فيرما في تقرير نشرته صحيفة Washington Post "عندما استخدم جاستن ChatGPT في العمل في وقت سابق من هذا العام، كان سعيدًا بمدى فائدته. بصفته عالم أبحاث في شركة للتكنولوجيا الحيوية في منطقة بوسطن، طلب من Chatbot إنشاء بروتوكول اختبار وراثي - وهي مهمة قد تستغرق منه ساعات، لكنها تقلصت إلى ثوانٍ فقط باستخدام أداة الذكاء الاصطناعي الشهيرة".
قال إنه كان متحمسًا لمدى الوقت الذي وفره له Chatbot، لكن في أبريل، أصدر رؤساؤه مرسومًا صارمًا: تم حظر ChatGPT لاستخدام الموظفين. لم يرغب المسؤولون في أن يدخل العمال أسرار الشركة في Chatbot - الذي يستقبل أسئلة الناس من جميع الفئات ويرد بإجابات واقعية - والمخاطرة بأن تصبح هذه المعلومات عامة.
قال جاستن، الذي تحدث بشرط استخدام اسمه الأول فقط لمناقشة سياسات الشركة بحرية. "إنه أمر محبط بعض الشيء، لكنه يفهم أن الحظر تم فرضه من باب "الحذر الشديد"، مشيرًا إلى أن شركة OpenAI الصانعة لـ ChatGPT سرية للغاية بشأن كيفية عمل روبوت الدردشة الخاص بها، ولا يعرف حقًا ما هو تحت الغطاء؟.
تم الإشادة بأدوات الذكاء الاصطناعي التوليدي مثل ChatGPT من OpenAI باعتبارها محورية لعالم العمل، مع إمكانية زيادة إنتاجية الموظفين من خلال أتمتة المهام المملة، وإشعال حلول إبداعية للمشاكل الصعبة. ولكن مع دمج التكنولوجيا في منصات الموارد البشرية وأدوات مكان العمل الأخرى، فإنها تخلق تحديًا هائلاً للشركات الأمريكية.
حظرت شركات كبيرة مثل Apple وSpotify وVerizon وSamsung أو قيدت كيفية استخدام الموظفين لأدوات الذكاء الاصطناعي التوليدي في العمل، مشيرة إلى مخاوف من أن التكنولوجيا قد تعرض معلومات الشركة والعملاء الحساسة للخطر.
قال العديد من قادة الشركات إنهم يحظرون ChatGPT لمنع أسوأ سيناريو، حيث يقوم الموظف بتحميل رمز كمبيوتر خاص أو مناقشات لوحة حساسة في chatbot أثناء طلب المساعدة في العمل، ووضع هذه المعلومات عن غير قصد في قاعدة بيانات يمكن أن تستخدمها OpenAI لتدريب chatbot في المستقبل.
يخشى المسؤولون التنفيذيون من أن يقوم المتسللون أو المنافسون ببساطة بدفع chatbot للحصول على أسرارهم، على الرغم من أن خبراء علوم الكمبيوتر يقولون إنه من غير الواضح مدى صحة هذه المخاوف.
يخلق مشهد الذكاء الاصطناعي سريع الحركة ديناميكية، حيث تعاني الشركات من "الخوف من تفويت الفرصة والخوف من ارتكاب الأخطاء"، وفقًا لدانييل بينيكي، رئيسة ممارسة التعلم الآلي العالمية في شركة المحاماة Baker McKenzie. تشعر الشركات بالقلق بشأن الإضرار بسمعتها، من خلال عدم التحرك بسرعة كافية أو التحرك بسرعة كبيرة. قالت بينيكي: "تريد أن تكون تابعًا سريعًا، لكنك لا تريد ارتكاب أي أخطاء".
وأخبر سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بعض المطورين بشكل خاص أن الشركة تريد إنشاء "مساعد شخصي فائق الذكاء للعمل" ChatGPT يحتوي على معرفة مدمجة بالموظفين ومكان عملهم ويمكنه صياغة رسائل البريد الإلكتروني أو المستندات بأسلوب التواصل الشخصي مع معلومات محدثة عن الشركة، وفقًا لتقرير صادر في يونيو في Information.
رفض ممثلو OpenAI التعليق على مخاوف الخصوصية لدى الشركات، لكنهم أشاروا إلى منشور في أبريل على موقع OpenAI على الويب يشير إلى أن مستخدمي ChatGPT يمكنهم التحدث مع الروبوت في وضع خاص ومنع مطالباتهم من الانتهاء في بيانات التدريب الخاصة به.
كافحت الشركات لفترة طويلة للسماح للموظفين باستخدام أحدث التقنيات في العمل. في العقد الأول من القرن الحادي والعشرين، عندما ظهرت مواقع التواصل الاجتماعي لأول مرة، حظرتها العديد من الشركات خوفًا من تحويل انتباه الموظفين بعيدًا عن العمل، وبمجرد أن أصبحت وسائل التواصل الاجتماعي أكثر شيوعًا، اختفت هذه القيود إلى حد كبير. في العقد التالي، كانت الشركات قلقة بشأن وضع بياناتها المؤسسية على خوادم في السحابة، ولكن الآن أصبحت هذه الممارسة شائعة.
تبرز شركة جوجل كشركة على جانبي نقاش الذكاء الاصطناعي التوليدي - حيث تقوم شركة التكنولوجيا العملاقة بتسويق Bard منافسها الخاص لـ ChatGPT، ، بينما تحذر موظفيها أيضًا من مشاركة المعلومات السرية مع برامج الدردشة، وفقًا لتقارير رويترز.
على الرغم من أن نموذج اللغة الكبير يمكن أن يكون نقطة انطلاق للأفكار الجديدة وتوفير الوقت، إلا أنه يعاني من قيود تتعلق بالدقة والتحيز، كما حذر جيمس مانيكا، نائب الرئيس الأول في google، في لمحة عامة عن Bard شاركها مع صحيفة Washington Post. يقول الدليل، مستخدمًا اختصار "نموذج اللغة الكبير"، "مثل جميع التجارب القائمة على نماذح اللغات الكبيرة LLM، ستظل Bard ترتكب أخطاء".
قال روبرت فيرارا، مدير الاتصالات في google، في بيان لصحيفة The Post: "لقد أخبرنا الموظفين دائمًا بعدم مشاركة المعلومات السرية، ولدينا سياسات داخلية صارمة لحماية هذه المعلومات".
في فبراير، حذر المسؤولون التنفيذيون في شركة Verizon موظفيهم: لا تستخدموا ChatGPT في العمل، وقالت فاندانا فينكاتيش، كبيرة المسؤولين القانونيين في الشركة، في مقطع فيديو موجه إلى الموظفين، إن Verizon ملزمة بعدم مشاركة أشياء مثل معلومات العملاء، ورمز البرنامج الداخلي للشركة وغيرها من الملكية الفكرية لشركة Verizon مع ChatGPT أو أدوات الذكاء الاصطناعي المماثلة، لأن الشركة لا تستطيع التحكم في ما يحدث بمجرد إدخالها في مثل هذه المنصات. ولم تستجب Verizon لطلبات التعليق من صحيفة Washington Post.
وقال جوزيف ب. فولر، أستاذ في كلية Harvard للأعمال والقائد المشارك لمبادرة مستقبل العمل، إن المديرين التنفيذيين مترددون في تكييف روبوت الدردشة في العمليات، لأن هناك العديد من الأسئلة حول قدراته.
وقال: "لا تمتلك الشركات فهمًا راسخًا للعواقب المترتبة على السماح للموظفين الأفراد بالانخراط في مثل هذه التكنولوجيا القوية، كما أنها لا تثق كثيرًا في فهم موظفيها للقضايا المعنية".
قال فولر إنه من الممكن أن تحظر الشركات ChatGPT مؤقتًا مع تعلم المزيد عن كيفية عملها وتقييم المخاطر التي تشكلها فيما يتعلق ببيانات الشركة.
وتوقع فولر أن تقوم الشركات في نهاية المطاف بدمج الذكاء الاصطناعي التوليدي في عملياتها، لأنها ستتنافس قريبًا مع الشركات الناشئة التي تم بناؤها مباشرة على هذه الأدوات. إذا انتظروا لفترة طويلة، فقد يخسرون أعمالهم أمام المنافسين الناشئين.
أوضح إيسر رضا أوغلو، المحلل الأول في شركة الأبحاث Gartner، إن قادة الموارد البشرية يعملون بشكل متزايد على إنشاء إرشادات حول كيفية استخدام ChatGPT. وقال: "مع مرور الوقت، سيقتنع قادة الموارد البشرية أن روبوتات الدردشة القائمة على الذكاء الاصطناعي يمكن استخدامها".
تتخذ الشركات مجموعة من الأساليب للتعامل مع الذكاء الاصطناعي التوليدي. اختارت بعض الشركات، بما في ذلك شركة الدفاع Northrop Grumman وشركة الوسائط iHeartMedia، الحظر المباشر، بحجة أن المخاطر كبيرة جدًا بحيث لا تسمح للموظفين بالتجربة. كان هذا النهج شائعًا في الصناعات التي تتعامل مع العملاء بما في ذلك الخدمات المالية، حيث قام بنك Deustche وJPMorgan Chase بحظر استخدام ChatGPT في الأشهر الأخيرة.
وتقوم شركات أخرى، بما في ذلك شركة المحاماة Steptoe & Johnson، بوضع سياسات تخبر الموظفين متى يكون من المقبول ومتى لا يكون من المقبول نشر الذكاء الاصطناعي التوليدي. وفقًا لدونالد ستيرنفيلد، كبير مسؤولي الابتكار في الشركة. لم ترغب الشركة في حظر ChatGPT بشكل مباشر، ولكنها منعت الموظفين من استخدامه وأدوات مماثلة في عمل العملاء.
وأشار ستيرنفيلد إلى حكايات تحذيرية مثل قصة المحامين في نيويورك الذين تم معاقبتهم مؤخرًا بعد تقديم موجز قانوني تم إنشاؤه بواسطة ChatGPT والذي استشهد بعدة حالات وهمية وآراء قانونية.
قال ستيرنفيلد إن ChatGPT "مدرب على إعطائك إجابة، حتى عندما لا يعرف". لإثبات وجهة نظره، سأل روبوت الدردشة: من كان أول شخص عبر القناة الإنجليزية؟ حصل على رواية مقنعة لشخص خيالي يكمل مهمة مستحيلة.=
في الوقت الحاضر، هناك "قليل من السذاجة" بين الشركات فيما يتعلق بأدوات الذكاء الاصطناعي، حتى مع تسبب إطلاقها في "اضطرابات هائلة" عبر الصناعات، وفقًا لأرلين أرين هان، رئيسة قسم المعاملات التكنولوجية العالمية في شركة المحاماة White & Case. وهي تنصح العملاء بمراقبة التطورات في الذكاء الاصطناعي التوليدي عن كثب والاستعداد لمراجعة سياساتهم باستمرار.
وقالت هان: "يجب أن تتأكد من أنك تحتفظ بالقدرة على تغيير السياسة ... حتى تكون مؤسستك سريعة ومرنة بما يكفي للسماح بالابتكار دون خنق تبني التكنولوجيا الجديدة".
وقالت بينيكي إن "شركة Baker McKenzie كانت من بين شركات المحاماة الأولى التي وافقت على استخدام ChatGPT لبعض مهام الموظفين، وهناك "شهية في كل طبقة من الموظفين تقريبًا" لاستكشاف كيف يمكن لأدوات الذكاء الاصطناعي التوليدي تقليل العمل الشاق. ولكن أي عمل يتم إنتاجه بمساعدة الذكاء الاصطناعي يجب أن يخضع لإشراف بشري شامل، نظرًا لميل التكنولوجيا إلى إنتاج استجابات تبدو مقنعة ولكنها كاذبة".
قال يون كيم، الخبير في التعلم الآلي والأستاذ المساعد في معهد ماساتشوستس للتكنولوجيا MIT، إن مخاوف الشركات مبررة، لكنها قد تبالغ في مخاوفها من أن يكشف ChatGPT أسرار الشركات.
وقال كيم إنه من الناحية الفنية من الممكن أن يستخدم برنامج الدردشة الآلي إشارات حساسة تم إدخالها فيه لتدريب البيانات، لكنه قال أيضًا إن OpenAI قامت ببناء حواجز أمان لمنع ذلك.
وأضاف أنه حتى لو لم تكن هناك حواجز أمان، فسيكون من الصعب على "الجهات الخبيثة" الوصول إلى البيانات الملكية المدخلة في برنامج الدردشة الآلي، بسبب الحجم الهائل من البيانات التي يحتاج ChatGPT إلى التعلم منها. وقال: "من غير الواضح ما إذا كانت [المعلومات الملكية] يتم إدخالها مرة واحدة، فيمكن استخراجها بمجرد السؤال".