logo alelm
«Gemma 3 270M».. كل ما تريد معرفته عن النموذج الأصغر والأكثر كفاءة من جوجل

أعلنت شركة Google، في كاليفورنيا، عن إطلاق نموذجها الجديد «Gemma 3 270M»، المصمم ليكون أداة فائقة الكفاءة لاستخدامات الذكاء الاصطناعي المدمج على الأجهزة.

وطرحت الشركة هذا النموذج ليعالج معضلة متكررة في صناعة الذكاء الاصطناعي، وهي الحاجة إلى أدوات قوية لكن خفيفة، تستطيع العمل على أجهزة صغيرة دون استنزاف الطاقة. وتقول الشركة إن «نجاح الهندسة لا يُقاس بالقوة الخام، بل بالكفاءة».

ما الذي يميز النموذج الجديد؟

اعتمد «Gemma 3 270M» على معمارية مدمجة تضم 270 مليون معامل، بينها 170 مليون لتمثيل الكلمات و100 مليون لمعالجة البيانات عبر كتل التحويل (Transformer blocks). سمح له ذلك بالتعامل مع مفردات نادرة يصل حجمها إلى 256 ألف كلمة، ما يجعله مرشحًا مثاليًا للتدريب في مجالات أو لغات دقيقة.

كما أثبتت التجارب الداخلية على هاتف «Pixel 9 Pro» أنّ النموذج بنسخته المضغوطة «INT4» استهلك أقل من 1% من البطارية عند تشغيل 25 محادثة. هذه النتيجة جعلت منه النموذج الأكثر توفيرًا للطاقة في عائلة Gemma حتى الآن.

كيف يختلف عن النماذج الكبرى؟

قد يظن البعض أنّ النماذج الضخمة وحدها قادرة على إنجاز المهام المعقدة، غير أن التجربة العملية أثبتت العكس. ففي وقت سابق، نجحت شركة Adaptive ML بالتعاون مع «إس كي تليكوم» في كوريا الجنوبية، في تدريب نسخة من «Gemma 3 4B» لتأدية مهمة دقيقة في مراقبة المحتوى متعدد اللغات. والنتيجة: النموذج المتخصص تفوّق على نماذج تجارية أكبر حجمًا وأكثر تكلفة.

هذا الدرس العملي هو ما تكرّره «Google» اليوم مع «Gemma 3 270M»؛ نموذج صغير الحجم لكنه قوي إذا استُخدم في السياق الصحيح: تصنيف النصوص، استخراج البيانات، أو تحويل المحتوى من صياغة غير منظمة إلى نص منسق.

متى يكون «Gemma 3 270M» هو الخيار الأمثل؟

عندما يحتاج المطور إلى مهام عالية التكرار مثل تحليل المشاعر أو تصنيف الطلبات.

عندما تصبح السرعة والكلفة عاملًا حاسمًا، إذ يمكن للنموذج العمل على خوادم صغيرة أو مباشرة على الهاتف.

عندما يتطلب المشروع خصوصية قصوى، حيث يعمل النموذج محليًا دون إرسال البيانات إلى السحابة.

عندما يكون الهدف بناء أسطول من النماذج المتخصصة، كل واحد منها يؤدي مهمة دقيقة بتكلفة محدودة.

ما علاقة ذلك بالمبدعين والمستخدمين العاديين؟

لم يتوقف استخدام «Gemma 3 270M» عند التطبيقات المؤسسية فقط. فقد ابتكر مطوّر مستقل تطبيقًا لتوليد قصص قبل النوم، يعمل مباشرة من المتصفح باستخدام مكتبة Transformers.js. أثبت هذا المثال أن النموذج، رغم صغر حجمه، يمكنه دعم أفكار إبداعية تعمل بلا اتصال بالإنترنت.

وتوفر الشركة النموذج على منصات مثل Hugging Face وKaggle وLM Studio، مع إمكانية تشغيله عبر أدوات مثل Llama.cpp وLiteRT. كما أصدرت نسختين: واحدة مدربة مسبقًا، وأخرى مهيأة لتلقي التعليمات. وبخطوات بسيطة من خلال أدوات مثل Hugging Face أو JAX، يستطيع المطور ضبط النموذج لمهامه الخاصة خلال ساعات قليلة.

ويعكس إطلاق «Gemma 3 270M» تحوّلًا في صناعة الذكاء الاصطناعي: الانتقال من سباق «الأكبر هو الأفضل» إلى فلسفة «الأداة الصحيحة للمهمة الصحيحة». فبدلًا من الاعتماد على نموذج عملاق يستهلك موارد هائلة، أصبح بالإمكان تشغيل نماذج صغيرة متخصصة، أسرع وأرخص وأكثر ملاءمة للسياقات المحلية.

يقدّم «Gemma 3 270M» رؤية بديلة لمستقبل الذكاء الاصطناعي: ليس دائمًا في الضخامة يكمن الحل، بل في الكفاءة، التخصيص، والقدرة على الوصول للجميع.

شارك هذا المنشور:

المقالة السابقة

مباراة تشيلسي وكريستال بالاس.. الموعد والتشكيلة المتوقعة

المقالة التالية

مانشستر يونايتد ضد أرسنال.. القنوات الناقلة والتشكيلة المتوقعة