كشفت مصادر مطلعة أن شركة OpenAI بدأت منذ العام الماضي مراجعة شاملة لاعتمادها على بعض رقائق الذكاء الاصطناعي التي تنتجها Nvidia، على خلفية ملاحظات تتعلق بالأداء والاستجابة التقنية، ما دفعها إلى دراسة بدائل محتملة قد تعيد رسم ملامح العلاقة بين الشركتين في واحدة من أكثر الصناعات نموًا عالميًا.
وأوضحت ثمانية مصادر مطلعة لوكالة "رويترز"، أن تحفظات OpenAI لا تتعلق بمبدأ التعاون مع Nvidia، بقدر ما ترتبط بقدرة بعض الشرائح الحديثة على تلبية متطلبات تشغيل نماذج الذكاء الاصطناعي في مرحلة الاستدلال، وهي المرحلة التي يتفاعل فيها النظام مباشرة مع طلبات المستخدمين. ويأتي ذلك في وقت لا تزال فيه Nvidia تحتفظ بموقعها المهيمن في مجال رقائق تدريب النماذج الضخمة، بينما يتحول الاستدلال إلى محور المنافسة الأساسي بين شركات الرقائق.
ووفقًا للمصادر، فإن OpenAI ترى أن مستقبل الأداء لا يعتمد فقط على قوة التدريب، بل على سرعة وكفاءة تشغيل النماذج المدربة عند التعامل مع ملايين الطلبات المتزامنة، وهو ما جعل سوق رقائق الاستدلال مجالًا استراتيجيًا جديدًا. ويُعد توجه الشركة للبحث عن خيارات بديلة مؤشرًا مباشرًا على تصاعد الضغوط التنافسية التي تواجه Nvidia في هذا القطاع.
اختلافات في الرؤى وعلاقة معقدة
تأتي هذه التطورات في وقت تشهد فيه العلاقة بين الشركتين نقاشات استثمارية معقدة. ففي سبتمبر الماضي، أعلنت Nvidia نيتها ضخ استثمار قد يصل إلى 100 مليار دولار في OpenAI، ضمن صفقة تمنحها حصة في الشركة الناشئة وتوفر في المقابل تمويلًا كبيرًا لشراء رقائق متقدمة. وعلى الرغم من توقع إتمام الصفقة خلال فترة قصيرة، إلا أن المفاوضات امتدت لأشهر دون حسم نهائي.
وخلال فترة التفاوض، أعادت OpenAI تقييم احتياجاتها الحاسوبية نتيجة التغيرات المتسارعة في خارطة تطوير منتجاتها، ما أدى إلى اختلاف في الرؤى مع Nvidia بشأن نوعية البنية التحتية المطلوبة. وفي هذا السياق، أبرمت OpenAI اتفاقيات مع شركات منافسة، من بينها AMD، لتأمين وحدات معالجة رسومية بديلة قادرة على تلبية جزء من متطلباتها التشغيلية.
في المقابل، نفى الرئيس التنفيذي لشركة Nvidia، جنسن هوانغ، وجود أي خلافات جوهرية مع OpenAI، معتبرًا التقارير التي تحدثت عن توتر بين الطرفين غير دقيقة، ومؤكدًا التزام شركته بمواصلة الاستثمار في OpenAI. وأكدت Nvidia في بيان رسمي أن عملاءها يواصلون الاعتماد على تقنياتها في الاستدلال بسبب ما توفره من كفاءة تشغيلية وتكلفة أقل على المدى الطويل.
من جانبها، أوضحت OpenAI أنها لا تزال تعتمد على رقائق Nvidia لتشغيل الجزء الأكبر من بنيتها التحتية الخاصة بالاستدلال، مشيرة إلى أن هذه الرقائق تقدم أداءً مرتفعًا مقارنة بالتكلفة. كما شدد سام ألتمان، الرئيس التنفيذي للشركة، في منشور على منصة “إكس”، على أن Nvidia تنتج أفضل رقائق ذكاء اصطناعي متاحة حاليًا، معربًا عن رغبة OpenAI في الاستمرار كأحد أكبر عملائها.
استجابة Nvidia لمعالجة المشكلات
رغم هذه التصريحات، أفادت سبعة مصادر بأن OpenAI غير راضية عن سرعة استجابة Nvidia في معالجة مشكلات تشغيلية تؤثر على تجربة المستخدم، خصوصًا في ما يتعلق بتطوير البرمجيات وربط نماذج الذكاء الاصطناعي بأنظمة خارجية. وأشار أحد المطلعين إلى أن الشركة تسعى مستقبلًا إلى أجهزة قادرة على تغطية نحو 10% من احتياجاتها الخاصة بعمليات الاستدلال.
كما كشفت مصادر أن OpenAI ناقشت شراكات محتملة مع شركات ناشئة متخصصة في رقائق الاستدلال، من بينها Cerebras وGroq، بهدف تسريع أداء نماذجها. إلا أن هذه المباحثات توقفت بعد إبرام Nvidia صفقة ترخيص ضخمة مع Groq، قدرت قيمتها بنحو 20 مليار دولار. ويرى مسؤولون في صناعة أشباه الموصلات أن تحركات Nvidia نحو الاستحواذ أو ترخيص تقنيات ناشئة تعكس سعيها لتوسيع قدراتها التقنية والحفاظ على موقعها التنافسي في سوق سريع التغير. وأكدت الشركة أن تقنيات Groq تشكل إضافة متكاملة إلى خططها المستقبلية لتطوير المنتجات.
التحول نحو بدائل تقنية
تعتمد رقائق Nvidia تقليديًا على معالجة كميات هائلة من البيانات اللازمة لتدريب نماذج الذكاء الاصطناعي الكبيرة، وهو ما كان المحرك الأساسي للطفرة العالمية في هذا المجال. غير أن المرحلة الحالية تشهد انتقال التركيز إلى تشغيل النماذج المدربة بكفاءة عالية، ما يجعل الاستدلال عامل الحسم في تجربة المستخدم. ومنذ العام الماضي، وجهت OpenAI اهتمامها نحو رقائق تحتوي على كميات كبيرة من ذاكرة الوصول العشوائي الثابتة (SRAM) مدمجة داخل الشريحة نفسها، نظرًا لما توفره من سرعة أعلى عند معالجة الطلبات المتكررة. ويُنظر إلى هذا التصميم على أنه أكثر ملاءمة لتطبيقات الدردشة والبرمجة التي تتطلب استجابة فورية.
وتشير مصادر تقنية إلى أن عمليات الاستدلال تحتاج إلى ذاكرة أكبر من عمليات التدريب، بسبب الزمن الذي تستغرقه الشريحة في جلب البيانات من الذاكرة مقارنة بزمن تنفيذ العمليات الحسابية. وتعتمد رقائق Nvidia وAMD في الغالب على ذاكرة خارجية، وهو ما قد يؤدي إلى زيادة زمن الاستجابة. وقد برزت هذه التحديات داخل OpenAI بشكل خاص في منتج Codex المخصص لتوليد الأكواد البرمجية، حيث أرجع بعض الموظفين جوانب من ضعف الأداء إلى القيود المرتبطة بالاعتماد على وحدات معالجة الرسومات التقليدية.
وفي تصريحات أدلى بها في 30 يناير، أكد ألتمان أن مستخدمي نماذج البرمجة يولون أولوية قصوى للسرعة، مشيرًا إلى أن التعاون الأخير مع Cerebras يندرج ضمن جهود تحسين هذا الجانب، مع التأكيد على أن متطلبات السرعة تختلف بين منتجات OpenAI المختلفة. في المقابل، تعتمد شركات منافسة مثل Anthropic وGoogle على رقائق طورتها داخليًا، مثل وحدات معالجة الموترات (TPUs)، المصممة خصيصًا لعمليات الاستدلال، والتي قد تمنحها أفضلية مقارنة بالرقائق العامة.
تحركات Nvidia
عقب تصاعد تحفظات OpenAI، بدأت Nvidia التواصل مع شركات متخصصة في تطوير رقائق تعتمد بشكل مكثف على ذاكرة SRAM، من بينها Cerebras وGroq، لبحث فرص الاستحواذ. ورفضت Cerebras هذه العروض، مفضلة الدخول في شراكة تجارية مع OpenAI أُعلن عنها مؤخرًا.
كما أجرت Groq محادثات مع OpenAI لتوفير قدرات حوسبة متقدمة، وتلقت عروض تمويل من مستثمرين قدرت قيمة الشركة السوقية بنحو 14 مليار دولار. غير أن Nvidia اتجهت لاحقًا إلى ترخيص تقنية Groq في صفقة غير حصرية ممولة نقدًا، ما دفع الشركة الناشئة إلى التركيز على بيع خدماتها السحابية، خاصة بعد انتقال عدد من مهندسيها للعمل لدى Nvidia.
اقرا أيضًا:
OpenAI: الذكاء الاصطناعي يتحوّل إلى شريك بحثي للعلماء
OpenAI تحذّر من فائض قدرات الذكاء الاصطناعي
إنفيديا تطلق نظام الذكاء الاصطناعي "المنطقي" للقيادة الذاتية














