تتفتح نماذج الذكاء الاصطناعي الكبيرة بشكل متنوع - نظرة فاحصة على الحواجز الربحية والتحديات

تتنافس القوى في مجال الذكاء الاصطناعي، ومعركة النماذج مشتعلة بشكل كبير

في الشهر الماضي، اندلعت "حرب الحيوانات" في عالم الذكاء الاصطناعي.

حظيت Llama التي أطلقتها Meta بشعبية كبيرة بين المطورين بفضل خصائصها مفتوحة المصدر. بعد دراسة ورقة عمل Llama والشيفرة من قبل NEC اليابانية، تم تطوير نسخة ChatGPT باللغة اليابانية بسرعة، مما حل مشكلة اختناق تطوير الذكاء الاصطناعي في اليابان.

الطرف الآخر هو نموذج كبير يسمى Falcon. تم إصدار Falcon-40B في مايو وتفوق على Llama ليحتل المرتبة الأولى في قائمة تصنيف LLM مفتوحة المصدر. تم إعداد هذه القائمة من قبل مجتمع النماذج المفتوحة المصدر، وتوفر معايير قياس قدرات LLM وترتيبها. يتم تصنيف القائمة بشكل أساسي بين Llama و Falcon.

بعد إطلاق Llama 2 ، تفوقت عائلة اللاما ، لكن في أوائل سبتمبر ، أطلق Falcon إصدار 180B واستعاد الصدارة مرة أخرى.

من المثير للاهتمام أن مطوري فالكون هم من معهد الابتكار التكنولوجي في أبوظبي، عاصمة الإمارات العربية المتحدة. وذكر مسؤولون حكوميون أنهم يشاركون في هذا المجال من أجل إحداث تغييرات جذرية في اللاعبين الرئيسيين.

في اليوم التالي لإصدار النسخة 180B، تم اختيار وزير الذكاء الاصطناعي في الإمارات العربية المتحدة ضمن قائمة "أكثر 100 شخص تأثيرًا في مجال الذكاء الاصطناعي" التي نشرتها مجلة تايم، حيث شارك في القائمة مع "أب الذكاء الاصطناعي" جيفري هينتون وألت مان من OpenAI وغيرهم.

اليوم، دخلت مجال الذكاء الاصطناعي مرحلة من التنوع والازدهار. تواصل الدول والشركات القوية إنشاء نماذجها الكبيرة الخاصة. فقط ضمن دائرة الدول الخليجية، هناك أكثر من لاعب واحد، في أغسطس، اشترت السعودية أكثر من 3000 وحدة H100 للجامعات المحلية لتدريب LLM.

لقد اشتكى أحد المستثمرين: "لم أكن أعتقد في نموذج الابتكار التجاري للإنترنت في ذلك الوقت، شعرت أنه لا يوجد حواجز؛ لم أكن أتوقع أن ريادة الأعمال في التكنولوجيا المتقدمة والنماذج الكبيرة لا تزال تعاني من معركة النماذج..."

كيف أصبحت التكنولوجيا الصلبة التي كانت تعتبر صعبة في الأصل شيئًا يمكن للجميع التعامل معه؟

تحويل يقود ثورة الذكاء الاصطناعي

تعود قدرة الشركات الناشئة الأمريكية، وعملاق التكنولوجيا الصينية، وأمراء النفط في الشرق الأوسط على دخول مجال النماذج الكبيرة إلى تلك الورقة الشهيرة "Attention Is All You Need".

في عام 2017، نشر ثمانية علماء حاسوب من جوجل خوارزمية Transformer في هذه الورقة. تُعتبر هذه الورقة ثالث أكثر ورقة تم الاستشهاد بها في تاريخ الذكاء الاصطناعي، وقد أدت ظهور Transformer إلى هذه الموجة الحالية من الذكاء الاصطناعي.

جميع النماذج الكبيرة الحالية، بما في ذلك سلسلة GPT التي أثارت ضجة في العالم، مبنية على أساس ترانسفورمر.

قبل ذلك، كانت "تعليم الآلة القراءة" تُعتبر مشكلة أكاديمية معروفة. على عكس التعرف على الصور، يركز الإنسان أثناء القراءة ليس فقط على الكلمات والجمل الحالية، بل يقوم أيضًا بفهمها من خلال السياق.

كانت الشبكات العصبية في مراحلها المبكرة تأخذ مدخلات مستقلة عن بعضها، مما جعلها غير قادرة على فهم النصوص الطويلة أو حتى المقالات الكاملة، مما أدى إلى ظهور مشاكل مثل ترجمة "开水间" إلى "open water room".

في عام 2014، بعد العمل في جوجل، انتقل عالم الكمبيوتر إيليا من جوجل إلى OpenAI وحقق اختراقًا لأول مرة. استخدم الشبكات العصبية التكرارية (RNN) لمعالجة اللغة الطبيعية، مما جعل أداء ترجمة جوجل يتفوق بشكل كبير على المنافسين.

قدمت RNN "تصميم دائري"، مما يسمح لكل خلية عصبية باستقبال معلومات الإدخال في الوقت الحالي وفي الوقت السابق في نفس الوقت، مما يمنح الشبكة العصبية القدرة على "دمج السياق".

أشعلت الشبكات العصبية المتكررة (RNN) حماس البحث في الأوساط الأكاديمية، وقد درس المؤلفون لورقة Transformer أيضًا بعمق. لكن المطورين اكتشفوا بسرعة أن RNN تعاني من عيوب خطيرة:

تستخدم الخوارزمية الحساب التتابعي، وعلى الرغم من أنها تحل مشكلة السياق، إلا أن كفاءة التشغيل منخفضة، مما يجعل من الصعب معالجة عدد كبير من المعلمات.

أدى التصميم المعقد لشبكات RNN إلى شعور شازيل بالملل بسرعة. لذلك، بدءًا من عام 2015، بدأ شازيل و7 من الأصدقاء المتشابهين في التفكير في تطوير بديل لشبكات RNN، وكانت النتيجة النهائية هي Transformer.

بالمقارنة مع RNN ، يتمتع Transformer بإصلاحين رئيسيين:

الأول هو استبدال تصميم الحلقة بترميز المواقع، مما يحقق حسابات متوازية، ويعزز بشكل كبير كفاءة التدريب، مما يمكن الذكاء الاصطناعي من معالجة البيانات الكبيرة، ودخول عصر النماذج الكبيرة؛ الثاني هو تعزيز القدرة على فهم السياق بشكل أكبر.

تحل Transformer العديد من العيوب دفعة واحدة، وتصبح تدريجياً الخيار الأفضل في معالجة اللغة الطبيعية، مما يعطي شعوراً "لو لم توجد Transformer، لكانت معالجة اللغة الطبيعية في ظلام دامس إلى الأبد". حتى إليا تخلى عن RNN الذي كان يقدره، وانتقل إلى Transformer.

يمكن القول إن Transformer هو جد جميع النماذج الكبيرة اليوم، حيث حول النماذج الكبيرة من البحث النظري إلى مشكلة هندسية بحتة.

في عام 2019، طورت OpenAI GPT-2 بناءً على Transformer، مما صدم الأوساط الأكاديمية. ردت جوجل بسرعة، وأطلقت AI أكثر قوة - Meena.

لم تكن Meena لديها أي ابتكارات خوارزمية مقارنة بـ GPT-2، بل زادت المعلمات بمقدار 8.5 مرات، وزادت القدرة الحاسوبية بمقدار 14 مرة. كان المؤلف المشارك لــ Transformer، شايل، مصدومًا جدًا من هذا "التكديس العنيف"، وكتب مذكرة بعنوان "Meena تلتهم العالم".

بعد ظهور Transformer، تباطأت سرعة الابتكار في الخوارزميات الأساسية في الأوساط الأكاديمية بشكل كبير. أصبحت عناصر الهندسة مثل هندسة البيانات، وحجم القوة الحسابية، وبنية النموذج، عوامل رئيسية في المنافسة في مجال الذكاء الاصطناعي، حيث يمكن لأي شركة تكنولوجيا تمتلك قدرًا معينًا من المهارات التقنية تطوير نماذج كبيرة.

لذلك، قال عالم الحاسوب أندرو نج خلال حديثه في جامعة ستانفورد: "الذكاء الاصطناعي هو مجموعة من الأدوات، بما في ذلك التعلم تحت الإشراف، التعلم غير الخاضع للإشراف، التعلم المعزز، والآن الذكاء الاصطناعي التوليدي. كل هذه تقنيات عامة، مشابهة لتقنيات عامة أخرى مثل الكهرباء والإنترنت."

رغم أن OpenAI لا تزال تمثل معيار LLM، إلا أن وكالات تحليل أشباه الموصلات تعتقد أن قوة GPT-4 تأتي من الحلول الهندسية - إذا تم فتح المصدر، يمكن لأي منافس نسخها بسرعة.

يتوقع المحلل أن الشركات الكبرى الأخرى في مجال التكنولوجيا قد تتمكن قريبًا من إنشاء نماذج كبيرة تعادل أداء GPT-4.

خندق ضعيف

اليوم، أصبحت "معركة المئات من النماذج" واقعًا موضوعيًا.

تشير التقارير ذات الصلة إلى أنه حتى يوليو من هذا العام، بلغ عدد النماذج الكبيرة المحلية 130، متجاوزة الولايات المتحدة التي لديها 114، ونجحت في تحقيق التفوق. لم تعد الأساطير المختلفة كافية لتسمية شركات التكنولوجيا المحلية.

بخلاف الصين والولايات المتحدة، حققت العديد من الدول الأكثر ثراءً أيضًا "نموذج دولة واحدة": بالإضافة إلى اليابان والإمارات العربية المتحدة، هناك أيضًا Bhashini المدارة من الحكومة الهندية، وHyperClova X التي أنشأتها شركة Naver الكورية للإنترنت.

يبدو أن هذا الوضع قد عاد إلى عصر الاستكشاف في الإنترنت، حيث تنتشر الفقاعات وصراع "قدرة النقود".

كما ذكر سابقًا، فإن Transformer يجعل من النموذج الكبير مشكلة هندسية بحتة، طالما أن هناك من لديه المال وبطاقات الرسومات، فإن الباقي يتولى المعلمات. لكن سهولة الدخول لا تعني أن الجميع يمكن أن يصبحوا عمالقة في عصر الذكاء الاصطناعي.

الجدل حول "نزاع الحيوانات" المذكور في البداية هو حالة نموذجية: على الرغم من أن الصقر قد تفوق على اللاما في الترتيب، فمن الصعب القول إنه أثر بشكل كبير على ميتا.

كما هو معروف، فإن الشركات التي تفتح مصادر نتائج أبحاثها العلمية، تفعل ذلك ليس فقط لمشاركة الفوائد التكنولوجية مع المجتمع، ولكن أيضًا لتفعيل ذكاء الجماهير. مع استخدام وتحسين Llama من قبل أساتذة الجامعات، والمؤسسات البحثية، والشركات الصغيرة والمتوسطة، يمكن لشركة ميتا تطبيق هذه النتائج على منتجاتها الخاصة.

بالنسبة للنماذج الكبيرة مفتوحة المصدر، فإن مجتمع المطورين النشط هو القوة التنافسية الأساسية.

أنشأت ميتا مختبر الذكاء الاصطناعي في عام 2015 على أساس نهج مفتوح المصدر؛ كما أن زوكربيرغ بدأ من وسائل التواصل الاجتماعي، مما يجعله أكثر براعة في "إدارة العلاقات مع الجمهور".

على سبيل المثال في أكتوبر، قامت Meta بتنظيم فعالية "تحفيز المبدعين بنسخة الذكاء الاصطناعي": المطورون الذين يستخدمون Llama 2 لحل المشكلات الاجتماعية مثل التعليم والبيئة لديهم فرصة للحصول على تمويل قدره 500,000 دولار.

اليوم ، أصبحت سلسلة Llama من Meta مقياسًا للاتجاهات في LLM مفتوح المصدر.

حتى أوائل أكتوبر، هناك 8 من بين أفضل 10 نماذج لغوية مفتوحة المصدر مبنية على Llama 2، وجميعها تستخدم بروتوكولها المفتوح المصدر. فقط على منصة معينة، تجاوز عدد نماذج اللغة المفتوحة المصدر التي تستخدم بروتوكول Llama 2 1500.

بالطبع، من الجيد تحسين الأداء مثل فالكون، لكن لا يزال هناك فجوة واضحة بين معظم نماذج اللغة الكبيرة وGPT-4.

على سبيل المثال، في وقت قريب، حصل GPT-4 على درجة 4.41 ليحتل المركز الأول في تصنيف اختبار AgentBench. تم إطلاق AgentBench من قبل جامعة تشينغhua وجامعة ولاية أوهايو وجامعة كاليفورنيا، بيركلي، لتقييم قدرة نماذج اللغة الكبيرة على الاستدلال واتخاذ القرار في بيئات مفتوحة متعددة الأبعاد، وتتضمن محتويات الاختبار مهام في 8 بيئات مختلفة مثل أنظمة التشغيل، وقواعد البيانات، وخرائط المعرفة، ومعارك البطاقات.

أظهرت نتائج الاختبار أن المركز الثاني Claude حصل على 2.77 نقطة فقط، وهو فارق واضح. أما بالنسبة لتلك النماذج الكبيرة مفتوحة المصدر، فإن درجات الاختبار كانت غالبًا حول 1 نقطة، وهي أقل من ربع درجة GPT-4.

من المهم أن نعرف أن GPT-4 تم إصداره في مارس من هذا العام، وهذا هو نتيجة لعدة أشهر من المنافسة من قبل نظرائه في جميع أنحاء العالم. السبب وراء هذه الفجوة هو فريق العلماء عالي المستوى في OpenAI والخبرة المتراكمة على مدى سنوات من البحث في LLM، مما يجعلهم دائمًا في صدارة المنافسة.

بمعنى آخر، القدرة الأساسية للنموذج الكبير ليست المعلمات، بل هي بناء النظام البيئي ( المصدر المفتوح ) أو القدرة على الاستدلال البحت ( مغلق المصدر ).

مع تزايد نشاط مجتمع المصادر المفتوحة، قد تتقارب أداء نماذج اللغة الكبيرة (LLM) حيث يستخدم الجميع هياكل نماذج ومجموعات بيانات متشابهة.

مشكلة أخرى أكثر وضوحًا هي: بخلاف Midjourney، يبدو أنه لا يوجد نموذج كبير آخر قادر على تحقيق الأرباح.

أين نقطة قيمة

في أغسطس من هذا العام، أثار مقال بعنوان "من المحتمل أن تفلس OpenAI بحلول نهاية عام 2024" الانتباه. يمكن تلخيص مضمون المقال في جملة واحدة: إن سرعة إنفاق OpenAI كبيرة للغاية.

تذكر المقالة أنه منذ تطوير ChatGPT، توسعت خسائر OpenAI بسرعة، حيث تكبدت خسائر تقدر بحوالي 540 مليون دولار فقط في عام 2022، ولم يكن أمامها سوى انتظار المستثمرين لتحمل التكاليف.

على الرغم من أن عنوان المقال مبالغ فيه، إلا أنه يعبر عن حالة العديد من مقدمي النماذج الكبيرة: التوازن بين التكلفة والإيرادات غير متوازن بشدة.

التكاليف المرتفعة أدت إلى أن الربح الكبير من الذكاء الاصطناعي حاليا يقتصر على إنفيديا، وربما مع إضافة برودكوم.

وفقًا لتقديرات شركة استشارية، باع إنفيديا أكثر من 300,000 وحدة من H100 في الربع الثاني من هذا العام. هذه شريحة ذكاء اصطناعي، تتميز بكفاءة عالية في تدريب الذكاء الاصطناعي، وتتنافس شركات التكنولوجيا العالمية ومؤسسات البحث على شرائها. إذا تم تكديس 300,000 وحدة من H100 فوق بعضها البعض، فإن الوزن يساوي 4.5 طائرات بوينغ 747.

ارتفعت أرباح إنفيديا بشكل كبير، حيث زادت الإيرادات بنسبة 854% على أساس سنوي، مما صدم وول ستريت. ومن الجدير بالذكر أن سعر H100 في سوق المستعمل قد ارتفع إلى 40-50 ألف دولار، بينما تكلفة المواد تبلغ حوالي 3000 دولار.

تكاليف القدرة الحاسوبية العالية قد أصبحت إلى حد ما عائقًا أمام تطوير الصناعة. وقد قدرت شركة سيكويا كابيتال أن شركات التكنولوجيا العالمية ستنفق حوالي 200 مليار دولار سنويًا على بناء بنية تحتية للنماذج الكبيرة؛ بالمقابل، يمكن أن تحقق النماذج الكبيرة إيرادات تصل إلى 75 مليار دولار سنويًا، مما يشير إلى وجود فجوة لا تقل عن 125 مليار دولار.

علاوة على ذلك، باستثناء عدد قليل من الاستثناءات مثل Midjourney، لم تفكر معظم شركات البرمجيات بعد في كيفية تحقيق الربح بعد إنفاق تكاليف ضخمة. خاصةً أن رائدي الصناعة الرئيسيين، مايكروسوفت وأدوبي، يسيران بخطوات غير ثابتة.

عملت مايكروسوفت وOpenAI معًا على تطوير أداة توليد الشفرات البرمجية بالذكاء الاصطناعي GitHub Copilot، وعلى الرغم من أنها تتقاضى رسومًا شهرية تبلغ 10 دولارات، إلا أن مايكروسوفت تتكبد خسارة شهرية تبلغ 20 دولارًا بسبب تكاليف المرافق، حيث يمكن للمستخدمين المتقدمين أن يكلفوا مايكروسوفت خسارة تصل إلى 80 دولارًا شهريًا. بناءً على ذلك، يُحتمل أن تكون تكلفة Microsoft 365 Copilot البالغة 30 دولارًا قد تكبدت خسائر أكبر.

على نفس المنوال، أطلقت Adobe، التي أصدرت للتو أداة Firefly AI، نظام نقاط متكامل بسرعة لمنع الاستخدام المفرط من قبل المستخدمين مما يؤدي إلى خسائر للشركة. بمجرد أن يتجاوز المستخدم استخدامه للنقاط المخصصة شهريًا، ستقوم Adobe بتقليل سرعة الخدمة.

يجب أن نعلم أن مايكروسوفت وأدوبي هما بالفعل عمالقة برمجيات يتمتعان بمشاهد أعمال واضحة ولديهما عدد كبير من المستخدمين المدفوعين. ومع ذلك، فإن معظم النماذج الكبيرة التي تحتوي على مجموعة هائلة من المعلمات لا تزال تستخدم في الغالب للدردشة.

لا يمكن إنكار أنه لولا ظهور OpenAI وChatGPT، قد لا تحدث هذه الثورة في الذكاء الاصطناعي على الإطلاق؛ ولكن في الوقت الحالي، فإن القيمة الناتجة عن تدريب النماذج الكبيرة قد لا تزال موضع جدل.

وبالإضافة إلى ذلك، مع تزايد المنافسة المتماثلة، وزيادة عدد النماذج مفتوحة المصدر في السوق، قد يصبح مجال بقاء مزودي النماذج الكبيرة مقيدًا أكثر.

نجاح iPhone 4 ليس بسبب معالج A4 بتقنية 45nm، بل لأنه يمكنه لعب لعبة النباتات ضد الزومبي ولعبة الطيور الغاضبة.

شاهد النسخة الأصلية
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • أعجبني
  • 8
  • مشاركة
تعليق
0/400
HalfBuddhaMoneyvip
· منذ 8 س
من الجيد أن تكون لديك أموال، يمكنك تحديد سعر النفط بنفسك.
شاهد النسخة الأصليةرد0
LayerZeroEnjoyervip
· منذ 17 س
يؤسفني أن الألبكة خسرت
شاهد النسخة الأصليةرد0
LiquidityHuntervip
· 07-10 11:22
يبدو أن أثرياء النفط يلعبون أيضًا بالنماذج الكبيرة!
شاهد النسخة الأصليةرد0
RetiredMinervip
· 07-10 11:22
فعل كل هذا ليس سوى للعب. في النهاية، أليس مجرد يُستغل بغباء.
شاهد النسخة الأصليةرد0
rekt_but_vibingvip
· 07-10 11:17
مرة أخرى جاءت فرصة جديدة يُستغل بغباء.
شاهد النسخة الأصليةرد0
QuorumVotervip
· 07-10 11:12
الإمارات العربية المتحدة بدأت أيضًا في دخول مجال الذكاء الاصطناعي؟
شاهد النسخة الأصليةرد0
just_here_for_vibesvip
· 07-10 11:01
الإمارات العربية المتحدة تفعل الأشياء بشكل مثير.
شاهد النسخة الأصليةرد0
Frontrunnervip
· 07-10 10:54
بعد مشاهدة معركة الحيوانات، انظر من يمكنه البقاء حتى النهاية.
شاهد النسخة الأصليةرد0
  • تثبيت