استكشف باقات مجرة
Article image
مصدر الصورة: أرييل ديفيس



يتعاون مئات العلماء حول العالم لفهم واحدة من أقوى التقنيات الناشئة قبل فوات الأوان.

2021-05-29 14:21:06

27 مايو 2021
يتعاون مئات العلماء حول العالم لفهم واحدة من أقوى التقنيات الناشئة قبل فوات الأوان.
look

في 18 مايو، أعلن سوندار بيتشاي، الرئيس التنفيذي لشركة جوجل، عن أداة جديدة مذهلة: نظام ذكاء اصطناعي يسمى لامدا (LaMDA) قادر على الدردشة مع المستخدمين حول أي موضوع.

تخطط جوجل في البداية لدمج لامدا في بوابة البحث الرئيسية الخاصة بها، ومساعدها الصوتي، ومنصة ورك بليس (Workplace)، ومجموعة برامج العمل السحابية التي تتضمن جي ميل والمستندات (Docs) ودرايف (Drive). لكن الهدف النهائي، كما قال بيتشاي، هو إنشاء واجهة محادثة تسمح للأشخاص بالحصول على أي نوع من المعلومات- نصية ومرئية وصوتية- عبر جميع منتجات جوجل بمجرد السؤال فقط.

يمثل إطلاق لامدا مؤشراً جديداً على طريقة أخرى لاندماج تقنيات اللغة في حياتنا اليومية. لكن عرض جوجل المبهرج يعطي انطباعاً كاذباً حول الجدل الأخلاقي الذي يحيط الآن بمثل هذه الأنظمة المتطورة. لامدا هو ما يُعرف باسم نموذج اللغة الكبير (LLM)، أي خوارزمية تعلم عميق مدربة على كميات هائلة من البيانات النصية.

لقد أظهرت الدراسات بالفعل كيف يتم تضمين الأفكار العنصرية والمتحيزة جنسياً والمسيئة في هذه النماذج؛ إذ تربط فئات مثل الأطباء بالرجال والممرضات بالنساء، وتقرن الصفات الجيدة مع ذوي البشرة البيضاء، والسيئة بذوي البشرة السمراء. وإذا ما قمت باختبارها باستخدام الأسئلة الصحيحة، فإنها تبدأ في في تشجيع أشياء مثل الإبادة الجماعية وإيذاء النفس والاعتداء الجنسي على الأطفال. وبسبب الأحجام الكبيرة لهذه النماذج، فإنها تمتلك بصمة كربونية عالية لدرجة صادمة. ونظراً لطلاقتها، فإنها تربك الناس وتدفعهم بسهولة للاعتقاد أن إنساناً قد كتب مخرجاتها، والتي يحذر الخبراء من إمكانية استخدامها في إنتاج كميات كبيرة من المعلومات الخاطئة.

في ديسمبر، أطاحت جوجل بأحد مسؤولي فريق أخلاقيات الذكاء الاصطناعي، تيمنيت جيبرو، بعد أن رفضت سحب ورقة بحثية تناولت العديد من هذه النقاط. وبعد بضعة أشهر، بعد إدانة واسعة النطاق لما وصفته رسالة مفتوحة من موظفي جوجل بأنها “رقابة غير مسبوقة على الأبحاث” في الشركة، قامت أيضاً بطرد مارجريت ميتشل، المؤلفة المشاركة مع جيبرو وأحد مسؤولي أخلاقيات الذكاء الاصطناعي في الشركة.

ليست جوجل الشركة الوحيدة التي تنشر هذه التقنية، فقد كانت النماذج اللغوية الأكثر شهرة حتى الآن هي جي بي تي-2 وجي بي تي-3 من أوبن إيه آي (OpenAI)، والتي تنتج مقاطع نصية مقنعة لدرجة مذهلة، ويمكن حتى إعادة توجيهها لإنهاء التراكيب الموسيقية والشيفرات البرمجية. وتقوم مايكروسوفت الآن بترخيص جي بي تي-3 حصرياً لدمجه في منتجات لم يتم الإعلان عنها بعد. كما قامت فيسبوك بتطوير نماذجها اللغوية الكبيرة الخاصة بها لاستخدامها في الترجمة ومراقبة المحتوى. وتعتمد العديد من الشركات الناشئة على نماذج الشركات العملاقة لإنشاء عشرات المنتجات والخدمات. بعد فترة وجيزة، ستتم فلترة جميع تفاعلاتنا الرقمية- عندما نرسل بريداً إلكترونياً أو نبحث أو ننشر على وسائل التواصل الاجتماعي- عبر هذه النماذج اللغوية الكبيرة.

لسوء الحظ، يتم إجراء القليل جداً من الأبحاث لفهم كيف يمكن أن تؤثر عيوب هذه التكنولوجيا على الأشخاص في تطبيقات العالم الحقيقي، أو لمعرفة كيفية تصميم نماذج لغوية كبيرة أفضل للتخفيف من هذه التحديات. وكما أثبتت جوجل في تعاملها مع جيبرو وميتشل، فإن الشركات القليلة الغنية بما يكفي لتدريب النماذج اللغوية الكبيرة وتطويرها لديها مصلحة مالية كبيرة في رفض إخضاعها لفحص دقيق. بمعنى آخر، يتم دمج النماذج اللغوية الكبيرة بشكل متزايد في البنية التحتية اللغوية للإنترنت على أسس علمية واهنة.

يتسابق الآن أكثر من 500 باحث حول العالم لمعرفة المزيد حول إمكانيات وقيود هذه النماذج. يعمل هؤلاء معاً في إطار مشروع بيج سينس (BigScience) بقيادة هاجينج فيس (Huggingface)، وهي شركة ناشئة تتبنى نهج “العلم المفتوح” لفهم مجال معالجة اللغة الطبيعية (NLP). ويسعون إلى بناء نموذج لغوي كبير مفتوح المصدر يلعب دور مورد مشترك للمجتمع العلمي. ويكمن الهدف في الحصول على أكبر قدر ممكن من المنح الدراسية خلال عام واحد مركّز. ويتمحور بحثهم حول السؤال التالي: كيف ومتى يجب تطوير النماذج اللغوية الكبيرة ونشرها لجني فوائدها دون أن ترافقها عواقبها الضارة؟

يقول توماس وولف، كبير مسؤولي العلوم في هاجينج فيس والمشارك في قيادة المبادرة: “لا يمكننا حقاً إيقاف هذا الجنون حول النماذج اللغوية الكبيرة التي يرغب الجميع في تدريبها. ولكن ما يمكننا القيام به هو محاولة دفع هذا الأمر في اتجاه يكون أكثر نفعاً في نهاية المطاف”.

الببغاءات العشوائية

في نفس الشهر الذي بدأ فيه مشروع بيج سينس نشاطاته، انتقلت شركة ناشئة تدعى كوهير (Cohere) بهدوء من وضعية العمل في الظل إلى العلن. أسسها باحثون سابقون في جوجل، وتقدم الشركة وعوداً بتوفير إمكانات النماذج اللغوية الكبيرة لأي شركة باستخدام سطر واحد من التعليمات البرمجية. لقد طورت تقنية لتدريب واستضافة نموذجها الخاص مع المعدات الخاملة من الموارد الحسابية في مركز بيانات، مما يقلل من تكاليف تأجير المساحة السحابية اللازمة للصيانة والنشر.

ومن بين عملائها الأوائل هي شركة أدا سابورت (Ada Support) الناشئة، وهي منصة مختصة ببناء بوتات دردشة لدعم العملاء دون كتابة أي شيفرة برمجية، والتي بدورها تمتلك عملاء مثل فيسبوك وزوم. وتضم قائمة مستثمري كوهير بعضاً من أكبر الأسماء في هذا المجال: رائد الرؤية الحاسوبية في في لي، والحائز على جائزة تورينج جيفري هينتون، ورئيس قسم الذكاء الاصطناعي في آبل، إيان جودفيلو.

كوهير هي واحدة من العديد من الشركات الناشئة والمبادرات التي تسعى الآن لإدخال النماذج اللغوية الكبيرة إلى مختلف القطاعات. هناك أيضاً شركة ألف ألفا (Aleph Alpha)، وهي شركة ناشئة مقرها في ألمانيا تسعى إلى بناء نسخة ألمانية من نموذج جي بي تي-3؛ وهو مشروع مغامر لا يحمل اسماً أطلقه العديد من الباحثين السابقين في أوبن إيه آي، ومبادرة إلوثر (Eluther) مفتوحة المصدر، التي أطلقت مؤخراً نموذج جي بي تي- نيو (GPT-Neo)، وهي نسخة مجانية (وأضعف إلى حد ما) من نموذج جي بي تي-3.

لكن ما يثير قلق عدد من الباحثين هو تلك الفجوة بين ماهية النماذج اللغوية الكبيرة حالياً وبين ما تصبو لتصبح عليه في المستقبل. تعتبر النماذج اللغوية الكبيرة أقوى تقنيات الإكمال التلقائي في العالم؛ حيث تتم تغذيتها بملايين الجمل والفقرات ومقتطفات من الحوارات حتى  تتعلم الأنماط الإحصائية التي تحكم كيفية تجميع كل عنصر من هذه العناصر بترتيب دقيق. هذا يعني أن النماذج اللغوية الكبيرة يمكن أن تساعد في تحسين أنشطة معينة، مثل إنشاء بوتات دردشة تفاعلية تتعلم من النصوص المنقحة لإجراء محادثات أكثر سلاسة. لكن هذه النماذج لا تفهم ما تقرؤه أو تقوله، كما أن العديد من الإمكانات الأكثر تقدماً للنماذج اللغوية الكبيرة متاحة اليوم باللغة الإنجليزية فقط.

هذا هو بالضبط- بالإضافة إلى أمور أخرى- ما حذرت منه جيبرو وميتشل وخمسة علماء آخرين في ورقتهم البحثية التي تطلق على النماذج اللغوية الكبيرة اسم “الببغاوات العشوائية”. تقول إميلي بندر، أستاذة اللسانيات في جامعة واشنطن وأحد مؤلفي الورقة البحثية: “يمكن أن تكون تكنولوجيا اللغة مفيدة للغاية عندما يتم تحديد نطاقها ووضعها وتأطيرها على النحو الصحيح”. لكن الطبيعة متعددة الأغراض للنماذج اللغوية الكبيرة- وقدرتها المقنعة على التقليد- تغري الشركات لاستخدامها في مجالات ليست مستعدة لها بالضرورة.

وفي كلمة افتتاحية ألقتها جيبرو مؤخراً في أحد أكبر مؤتمرات الذكاء الاصطناعي، ربطت هذا النشر المتسرع للنماذج اللغوية الكبيرة بالتداعيات التي عايشتها في حياتها الخاصة. وُلدت جيبرو وترعرعت في إثيوبيا، حيث أدت الحرب المتفاقمة إلى تدمير منطقة تيغراي الواقعة في أقصى شمال البلاد. من ناحية أخرى، يتم التحدث بـ 86 لغة في إثيوبيا، ولا يؤخذ معظمها في الحسبان في التقنيات السائدة لمعالجة اللغة.

على الرغم من هذه العيوب اللغوية التي تعاني منها النماذج اللغوية الكبيرة، فإن فيسبوك تعتمد عليها بصورة كبيرة في أتمتة كافة عمليات مراقبة المحتوى. عندما اندلعت الحرب في تيغراي في نوفمبر، لاحظت جيبرو تخبط منصة فيسبوك في محاولاتها لمواجهة موجة المعلومات المضللة. يمثل ما حدث تجسيداً رمزياً للنمط المتكرر الذي لاحظه الباحثون في مجال مراقبة المحتوى؛ إذ تعاني المجتمعات التي تتحدث لغات غير هامة بالنسبة لوادي السيليكون من أكثر البيئات الرقمية عدائية.

أشارت جيبرو إلى أن ضرر هذه النماذج لا يتوقف عند هذا الحد. عندما لا تخضع الأخبار المزيفة وخطاب الكراهية وحتى التهديدات بالقتل للمراقبة، يتم جمعها بعد ذلك باعتبارها بيانات تدريب لبناء الجيل التالي من النماذج اللغوية الكبيرة. وتلك النماذج، التي تعيد تكرار ما تم تدريبها عليه مثل الببغاوات، ينتهي بها المطاف إلى إعادة اجترار هذه الأنماط اللغوية السامة على الإنترنت.

في كثير من الحالات، لم يحقق الباحثون بشكل شامل بما يكفي لمعرفة كيفية ظهور هذه السمّية في التطبيقات النهائية. لكن هناك بعض الدراسات الأكاديمية حول هذا الموضوع. ففي كتاب صدر عام 2018 بعنوان خوارزميات الاضطهاد، قامت صفية نوبل، الأستاذة المساعدة في مجال المعلومات والدراسات الاميركية الإفريقية في جامعة كاليفورنيا لوس أنجلوس، بتوثيق كيفية مساهمة التحيزات المضمنة في بحث جوجل في تكريس العنصرية، وفي الحالات القصوى، ربما تحفيز العنف العنصري.

تقول نوبل: “إن العواقب وخيمة جداً ولا يمكن تجاهلها”. ليست جوجل مجرد بوابة المعرفة الأساسية للمواطنين العاديين فحسب، بل توفر أيضاً البنية التحتية للمعلومات للمؤسسات والجامعات وحكومات الولايات والحكومات الفدرالية.

تستخدم جوجل بالفعل النماذج اللغوية الكبيرة لتحسين بعض نتائج البحث الخاصة بها. ومع إعلانها الأخير عن لامدا والاقتراح الأخير الذي نشرته في ورقة أولية، أوضحت الشركة أن اعتمادها على هذه التكنولوجيا سيتصاعد. تتخوف نوبل من أن هذا قد يجعل المشاكل التي كشفت عنها أسوأ من ذي قبل، حيث تقول: “حقيقة أن فريق أخلاقيات الذكاء الاصطناعي في جوجل قد طُرد من عمله لإثارة أسئلة مهمة جداً حول أنماط التمييز على أساس العرق والجنس المضمنة في النماذج اللغوية الكبيرة كان يجب أن يمثل إنذاراً بضرورة التيقظ”.

مشروع بيج سينس لفهم النماذج اللغوية الكبيرة

انطلق مشروع بيج سينس كاستجابة مباشرة للحاجة المتزايدة للتدقيق العلمي بشأن النماذج اللغوية الكبيرة. من خلال مراقبة الانتشار السريع لهذه التكنولوجيا ومحاولات جوجل لفرض رقابة على جيبرو وميتشل، أدرك وولف وعدد من زملائه أن الوقت قد حان حتى يتسلم المجتمع البحثي زمام الأمور بنفسه.

استوحى هؤلاء فكرة مشاريع التعاون العلمي المفتوح، مثل سيرن (CERN) في فيزياء الجسيمات، للخروج بفكرة تطوير نموذج لغوي كبير مفتوح المصدر يمكن استخدامه لإجراء بحث نقدي مستقل عن أي شركة. وفي أبريل من هذا العام، تلقت المجموعة منحة لإنشائه باستخدام الحاسوب الفائق التابع للحكومة الفرنسية.

في شركات التكنولوجيا، غالباً ما يتولى بضعة أشخاص فقط ممن يتمتعون بخبرات تقنية بشكل أساسي إنشاء النماذج اللغوية الضخمة. أرادت بيج سينس مساهمة مئات الباحثين من مجموعة واسعة من البلدان والتخصصات ومشاركتهم في عملية تعاونية حقاً لبناء نموذج. بدأ وولف، وهو فرنسي الجنسية، بالتواصل أولاً مع مجتمع البحثين الفرنسيين في مجال معالجة اللغات الطبيعية. بعد ذلك أخذت المبادرة في النمو شيئاً فشيئاً لتصبح عملية عالمية تضم أكثر من 500 شخص.

يتسم هذا المشروع التعاوني الآن بتنظيم فضفاض عبر عشرات مجموعات العمل التي تتزايد باستمرار، كل منها يعالج جوانب مختلفة من تطوير النموذج وتدقيقه. وعلى سبيل المثال، ستقوم إحدى المجموعات بقياس التأثير البيئي للنموذج، بما في ذلك البصمة الكربونية للتدريب وتشغيل النموذج اللغوي الكبير واحتساب تكاليف دورة كاملة من حيث استخدام موارد الحاسوب الفائق. بينما ستركز مجموعة أخرى على تطوير طرق مسؤولة للحصول على بيانات التدريب من خلال البحث عن بدائل لمجرد جمع البيانات من الويب، مثل تحويل التسجيلات الصوتية لأرشيفات الراديو التاريخية أو البث الصوتي إلى نصوص. يكمن الهدف هنا في تجنب اللغة السامة وتفادي جمع المعلومات الخاصة دون موافقة أصحابها.

أما مجموعات العمل الأخرى فتركز جهودها على تطوير وتقييم “تعدد اللغات” التي يدعمها النموذج. بادئ ذي بدء، اختار بيج سينس ثماني لغات أو عائلات لغوية، بما في ذلك الإنجليزية والصينية والعربية والهندية (تشمل الهندية والأردية) والبانتو (تشمل السواحيلية). تتمثل الخطة في العمل عن كثب مع كل مجتمع لغوي لتضمين أكبر عدد ممكن من اللهجات الإقليمية والتأكد من احترام معايير خصوصية البيانات المتمايزة بين كل منها. يقول ياسين جيرنيت، الباحث في هاجينج فيس: “نريد أن يكون للناس كلمتهم في كيفية استخدام بياناتهم”.

ليست الغاية وراء هذا العمل بناء نموذج لغوي تجاري للتنافس مع نماذج مثل جي بي تي-3 أو لامدا؛ إذ توضح كارين فورت، الأستاذة المشاركة في جامعة السوربون، إن النموذج سيكون كبيراً جداً وبطيئاً جداً لدرجة أنه لا يحمل فائدة بالنسبة للشركات. بدلاً من ذلك، تم تصميمه لأغراض البحث العلمي فقط لا غير. يتم توثيق كل نقطة بيانات وكل قرار متعلق بالنمذجة بعناية وبشكل علني، لذلك من الأسهل تحليل كيفية تأثير جميع الأجزاء على نتائج النموذج. وتقول أنجيلا فان، باحثة من فيسبوك: “لا يتعلق الأمر بتقديم المنتج النهائي فحسب، نحن ننظر إلى تطوير كل جزء منه باعتباره منتجاً مستقلاً أو أداة مستقلة بذاتها”.

لا شك أن المشروع يتسم بالطموح، فهو توسعي وينطوي على تعاون عالمي أكثر من أي مشروع آخر شهده مجتمع الذكاء الاصطناعي من قبل. وفي هذا السياق، يعتبر توفير الخدمات اللوجستية اللازمة للتنسيق بين هذا العدد الكبير من الباحثين تحدياً قائماً في حدّ ذاته. (في الحقيقة، هناك مجموعة عمل مخصصة للاضطلاع بهذه المهمة). علاوة على ذلك، يساهم كل باحث على أساس تطوعي؛ فالمنحة المقدمة من الحكومة الفرنسية تغطي تكاليف الموارد الحاسوبية فقط، وليس الموارد البشرية.

لكن يقول الباحثون إن الحاجة المشتركة التي جمعت مجتمعهم معاً قد حفزت مستوى مثيراً للإعجاب من الطاقة والزخم. ويتفاءل الكثيرون بأنه بحلول نهاية المشروع، الذي سيستمر حتى مايو من العام المقبل، سيكونون قد أنتجوا ليس فقط دراسات علمية أعمق حول قيود النماذج اللغوية الكبيرة، وإنما أيضاً أدوات وممارسات أفضل لبناء هذه النماذج ونشرها على نحو يتسم بالمسؤولية.

يأمل المنظمون أن يلهم عملهم هذا المزيد من الأشخاص داخل المجال لدمج هذه الممارسات في إستراتيجياتهم الخاصة بتطوير النماذج اللغوية الكبيرة، رغم أنهم يعترفون بمثالية آمالهم هذه. لكن في الحدود الدنيا، سيساعد العدد الهائل من الباحثين المشاركين، ومن بينهم العديد ممن يعملون لدى شركات التكنولوجيا الكبرى، في وضع معايير جديدة داخل مجتمع معالجة اللغات الطبيعية.

وقد تغيرت المعايير القائمة من بعض النواحي بالفعل. وتقول كوهير إن العديد من عملائها قد عبروا عن قلقهم بشأن أمان هذه التكنولوجيا إثر النقاشات حول طرد جيبرو وميتشل. وقد نشرت الشركة صفحة على موقعها الإلكتروني تعرض تعهداً بمواصلة استثماراتها في الأبحاث التقنية وغير التقنية الهادفة إلى التخفيف من الأضرار المحتملة لنموذجها. وتقول إنها ستشكل أيضاً مجلساً استشارياً يتكون من خبراء خارجيين لمساعدتها في وضع سياسات بشأن الاستخدام المسموح لتقنياتها.

تقول فورت: “إن معالجة اللغات الطبيعية تمر الآن بنقطة تحول هامة للغاية”. ولهذا فإن مشروع بيج سينس مثير للاهتمام حقاً؛ فهو يسمح للمجتمع البحثي بدفع الأبحاث خطوة إلى الأمام وتقديم بديل مأمول للوضع الراهن داخل القطاع. وتضيف: ” إن المشروع يقول ’لنأخذ خطوة أخرى، دعونا نأخذها معاً لاكتشاف كل الطرق وكل الأشياء التي يمكننا القيام بها لمساعدة المجتمع”. 

وتختم: “أريد أن تكون تقنيات معالجة اللغات الطبيعية وسيلة لمساعدة الناس وليس لتهميشهم”.


شارك



مراسلة الذكاء الاصطناعي ، إم آي تي تكنولوجي ريفيو