المؤلف: Boxu Li في Macaron

البنية الأساسية ونموذج البنية التحتية

في جوهرها، تعتمد شركة جيميني على أحدث عائلة من نماذج جيميني التابعة لجوجل - "العقول" التي توفر الذكاء العالمي لكل مهمة. تمثل هذه النماذج الأساسية (مثل جيميني 2.5 برو وجيميني 2.5 فلاش) قمة التطور في الذكاء الاصطناعي التوليدي من جوجل، وقد تم تطويرها بواسطة جوجل ديب مايند وتدريبها على بيانات متعددة الأنواع (نص، كود، صور، صوت، فيديو). تم تصميم نماذج جيميني لتقديم تفكير معقد وفهم غني: على سبيل المثال، يستطيع جيميني 2.5 برو حل المشكلات الصعبة عبر مدخلات متنوعة ويمتلك نافذة سياق تصل إلى مليون رمز للمستندات الطويلة. (بالمقارنة، يقتصر GPT-4 من OpenAI في العديد من أدوات المؤسسات على حوالي 128 ألف رمز). هذا السياق الضخم يسمح لجيميني بتحليل العقود الطويلة والنصوص المتعددة الساعات أو قواعد البيانات البرمجية بالكامل دون تقسيمها إلى أجزاء. تتميز نماذج جيميني بأنها متعددة الأنماط بشكل طبيعي، مما يعني أن جلسة واحدة يمكنها معالجة النصوص والصور والصوت والمزيد معًا - وهو ما يميزها عن النماذج التقليدية التي كانت تعمل بالنص فقط.

Google’s AI infrastructure provides the backbone for these models. Gemini Enterprise runs on the same reliable, AI-optimized cloud that powers Google Search and YouTube, leveraging NVIDIA GPUs and Google’s custom Tensor Processing Units (TPUs). In fact, Google’s latest TPU generation (code-named Ironwood) delivers a 10× performance boost over its predecessor, enabling fast, scalable inference for Gemini’s large models. This full-stack optimization – from purpose-built hardware up to the AI platform – is central to Google’s approach. As Google Cloud CEO Thomas Kurian notes, true AI transformation requires a complete stack; with Gemini Enterprise, Google controls everything from “TPUs to [its] world-class Gemini models” to the application layer. This tight integration is why nine of the top 10 AI research labs and countless AI startups already use Google’s cloud for generative AI.

على مستوى النموذج، تقدم Google عدة طبقات من نماذج Gemini لتحقيق توازن بين الأداء والتكلفة. تركز النماذج "Flash" (مثل Gemini 2.5 Flash) على السرعة والقدرة على تحمل التكاليف، حيث تنتج نتائج بمئات الرموز في الثانية مع حد أدنى من التأخير. ولا تزال تحتفظ بقوة في الاستدلال، مع حد معرفة في يناير 2025 ودعم لنتائج طويلة (حتى 65 ألف رمز). بينما النماذج "Pro" (مثل Gemini 2.5 Pro، إلخ.) تعظم الجودة والاستدلال لأصعب المهام، على حساب تدفق أبطأ. على سبيل المثال، تتفوق مخرجات Gemini 2.5 Pro في الترميز المعقد والاستدلال العلمي واسترجاع المعرفة "الإبرة في كومة القش". وكان النموذج الأعلى في معيار LMArena لقدرات النص والرؤية لأكثر من 6 أشهر. تشترك نماذج Flash وPro في نفس حدود السياق الشاسعة (≈1 مليون رمز) والدعم متعدد الوسائط، لذا يمكن للشركات اختيار استخدامها حسب الحالة: Flash للمحادثات التفاعلية السريعة وPro للتحليلات المتعمقة أو عمليات العمل الحرجة. تأتي جميع نماذج Gemini مع دعم مدمج لميزات التوجيه المتقدمة مثل وضع "التفكير" (عملية استدلال خطوة بخطوة) واستخدام الأدوات (مثل تنفيذ الشفرة أو البحث عبر الإنترنت) لزيادة الدقة. باختصار، يجمع النظام بين بحوث الذكاء الاصطناعي المتقدمة من Google مع بنية سحابية محسّنة للسرعة على نطاق واسع - مما يضمن أن الشركات الكبيرة يمكنها نشر الذكاء الاصطناعي متعدد الوسائط لآلاف الموظفين بأداء عالي.

المكونات الأساسية الستة للمنصة

بخلاف النماذج نفسها، صممت جوجل منصة جيميني إنتربرايز كـ منصة متعددة الطبقات تحتوي على ستة مكونات أساسية تعمل معًا:

  1. نماذج التأسيس: كما تم مناقشته، الوصول إلى عائلة نماذج جيميني الكاملة، بما في ذلك الطبقات المحسّنة لأحدث عمليات التفكير (مثل جيميني 2.5 برو)، تشكل طبقة الذكاء للنظام. تتولى هذه النماذج فهم اللغة الطبيعية، والإنتاج، والتفكير لجميع الاستفسارات والوكلاء.
  2. ورشة العمل للوكلاء بدون برمجة: واجهة بصرية بدون أكواد أو بأكواد بسيطة تسمح للمستخدمين (حتى غير المبرمجين) ببناء وكلاء ذكاء اصطناعي مخصصين وتنظيم تدفقات العمل متعددة الخطوات. من خلال هذه الورشة مصمم الوكلاء، يمكن لمحلل الأعمال أو المسوق ربط المهام معًا (مثل "بحث → تحليل → مسودة → تنفيذ") ببساطة عن طريق تكوين الكتل بدلاً من كتابة الأكواد. هذا يقلل بشكل كبير من حاجز الأتمتة باستخدام الذكاء الاصطناعي – “لا تحتاج لتعلم بايثون” لإنشاء وكيل، كما أشار أحد المحللين. تقدم الورشة قوالب وكتل بناء لتحديد أهداف الوكيل، وإرفاق مصادر البيانات، وتحديد استخدام الأدوات في تدفق بصري.
  3. وكلاء مبنيون مسبقًا وسوق: لتوفير القيمة من اليوم الأول، تتضمن جيميني إنتربرايز معرض للوكلاء الذين بنته جوجل لتلبية احتياجات المؤسسات الشائعة. تشمل الأمثلة وكيل “البحث العميق” الذي يمكنه التحقيق في مواضيع معقدة عبر المعرفة المؤسسية، ووكيل “علوم البيانات” الذي يحلل مجموعات البيانات للحصول على رؤى، ووكيل خدمة العملاء للتعامل مع استفسارات الدعم. بالإضافة إلى ذلك، أطلقت جوجل سوق الوكلاء (نظام شريك) مع آلاف الوكلاء الخارجيين المعتمدين الذين يمكن للمؤسسات استخدامها. قام شركاء مثل سيلزفورس، أتلانسيان (جيرا/كونفلونس)، جيت لاب، شوبيفاي، والعديد من الآخرين ببناء وكلاء متخصصين أو تكاملات مدرجة في هذا السوق. يعني هذا الكتالوج المفتوح أن المؤسسات يمكنها “اكتشاف، تصفية، ونشر” الوكلاء الجاهزين لمجالات مختلفة، جميعهم تم التحقق من أمانهم وتوافقهم. إنها خطوة مهمة في نظام البيئة: أكثر من 100,000 شريك جوجل كلاود يدعمون منصة جيميني إنتربرايز، مما يضمن عدم تقييد الشركات بأدوات مورد واحد.
  4. الموصلات وتكامل البيانات: وكيل الذكاء الاصطناعي جيد بقدر مدى الوصول إلى السياق والبيانات. توفر جيميني إنتربرايز موصلات أصلية لأكثر من 100 مصدر بيانات مؤسسي وتطبيقات SaaS. تقوم هذه المحولات بتوصيل الذكاء الاصطناعي بشكل آمن بالمحتوى المؤسسي "أينما كان" – سواء كان بيانات غوغل ورك سبيس (درايف، جيميل، مستندات)، بيانات مايكروسوفت 365 (شير بوينت، تيمز، أوتلوك)، أو تطبيقات الأعمال مثل سيلز فورس، SAP، سيرفيس ناو، جيرا، كونفلونس، قواعد البيانات، إلخ. يمكن للمنصة توحيد الاستفسارات عبر مصادر متعددة وتطبيق ضوابط الأذونات لكل نظام بحيث تكون النتائج “مدركة للأذونات”. تحت الغطاء، تستخدم جيميني إنتربرايز البحث في Vertex AI للفهرسة من أجل البحث الموحد عبر المحتوى الهيكلي وغير الهيكلي، مع خيارات لتوحيد الاستفسارات في الوقت الفعلي أو إدخال البيانات في فهرس لاسترجاع أسرع. يمكن للمؤسسات اختيار حسب المصدر: على سبيل المثال، التوحيد المباشر للأنظمة المحدثة بشكل متكرر، أو الإدخال المجدول للمستودعات الثابتة. النتيجة هي رسم بياني للمعرفة المؤسسية يمتد عبر الأنظمة المعزولة. عمليًا، يعني هذا أن الموظف يمكنه طلب سؤال لجيميني إنتربرايز وستقوم بجمع الحقائق من شير بوينت، سيلز فورس، سلاسل البريد الإلكتروني، وسجلات قواعد البيانات، ثم تركيب إجابة مستندة إلى تلك المصادر. هذه القدرة القوية للبحث داخل الشبكة هي واحدة من أكبر نقاط البيع للمنصة – فهي تحول المعرفة المؤسسية التي كانت "محبوسة" سابقًا إلى إجابات يمكن الوصول إليها.
  5. الحوكمة المركزية والأمان: يتم إدارة جميع هؤلاء الوكلاء والاتصالات بالبيانات تحت إطار حوكمة موحد. يحصل المديرون على لوحة تحكم مركزية لتصور، تأمين، وتدقيق كل وكيل واتصال بيانات في المنظمة. يمكن تعيين ضوابط الوصول الدقيقة بحيث يكون للوكلاء فقط الوصول الأقل امتيازًا المطلوب لمهامهم (منع وكيل الموارد البشرية من سحب بيانات المالية، على سبيل المثال). يتم تسجيل سجلات التدقيق لجميع إجراءات الوكلاء والمطالبات، ويمكن تصديرها أو مراقبتها في الوقت الفعلي. تقدم جوجل أيضًا أدوات لتصنيف البيانات الحساسة (من خلال التكامل مع واجهات برمجة التطبيقات DLP وفهارس البيانات)، بحيث يتعامل جيميني مع أمور مثل معلومات التعريف الشخصية أو المعلومات الصحية بشكل مناسب. باختصار، الحوكمة هي "من الدرجة الأولى" في المنصة – استجابة لمخاوف المؤسسات حول الذكاء الاصطناعي غير المنضبط. تقدم جوجل حتى “درع النموذج”، وهي خدمة مدارة تقوم بفحص المطالبات والاستجابات لمخاطر الأمان/الخصوصية (مثل حقن المطالبات أو تسرب البيانات) قبل أن تصل إلى النموذج. تضيف هذه الطبقات من السلامة حواجز دفاعية حول نموذج اللغة الكبير. سنناقش الأمان والامتثال بالتفصيل لاحقًا، ولكن يكفي القول بأن البنية ليست مجرد نموذج وواجهة برمجة التطبيقات – إنها “من الدرجة الأولى للمؤسسات” مع ضوابط إدارية مضمنة، وخطافات امتثال، وتدقيق في كل طبقة.
  6. النظام المفتوح والقابلية للتمديد: وأخيرًا، جيميني إنتربرايز بنيت على مبدأ الانفتاح والتمدد. تعمل عبر السحب المتعددة والبيئات الهجينة (بما في ذلك دعم التوزيع السحابي لجوجل للعمليات المحلية أو عند الحافة للبيانات الحساسة). تؤكد جوجل أن جيميني يمكن أن يعمل “بسلاسة في بيئات مايكروسوفت 365 وشير بوينت”، وليس فقط في تطبيقات جوجل نفسها. تدعم المنصة المعايير المفتوحة الناشئة – على سبيل المثال، تعاونت جوجل في بروتوكول الاتصال للوكلاء (Agent2Agent) بحيث يمكن للوكلاء من موردين أو سحب مختلفة التحدث مع بعضهم البعض، ومعيار واجهة برمجة التطبيقات للوكلاء (بروتوكول سياق النموذج) لمشاركة السياق بين الأنظمة. بالنسبة للمطورين، فتحت جوجل مصدر CLI لجيميني وإطار التمديد الخاص به بحيث يمكن لأي شخص بناء مكونات إضافية تدمج جيميني في أدواتهم. هذا النهج المفتوح استراتيجي: تعرف جوجل أن نجاح الذكاء الاصطناعي المؤسسي سيتطلب تكاملًا واسعًا، لذا فإنها تضع جيميني إنتربرايز كـ “نسيج الذكاء الاصطناعي” الذي يمكن أن ينسج بين العديد من التطبيقات والخدمات السحابية. مع أكثر من 100 ألف شريك وبروتوكولات متعددة المنصات، النظام البيئي هو جزء أساسي من البنية – وليس فكرة لاحقة.

من خلال دمج هذه الطبقات معًا، يوفر Gemini Enterprise واجهة آمنة واحدة (مركز الدردشة والوكلاء) حيث يمكن للموظفين الوصول إلى جميع القدرات. يمكنهم طرح سؤال بلغة طبيعية والحصول على إجابة موثوقة مع مراجع، أو استدعاء وكيل مخصص لتنفيذ سير عمل متعدد الخطوات. خلف الكواليس، يتدفق الطلب عبر المكونات المذكورة أعلاه: حيث يجلب الموصلات ذات الصلة البيانات، ويقوم نموذج Gemini بالتحليل والرد، وتنسق أي إجراءات للوكيل مع فحوصات الحوكمة. تسمي Google Gemini Enterprise "البوابة الجديدة للذكاء الاصطناعي في مكان العمل" لأنها تهدف إلى أن تكون نقطة الدخول لجميع المهام المعتمدة على الذكاء الاصطناعي في المؤسسة. بدلاً من أن يكون الذكاء الاصطناعي مبعثرًا في صوامع (أداة واحدة للرمز، أخرى للدعم، وهكذا)، رؤيا Google هي منصة واحدة "تتجاوز المهام البسيطة لأتمتة سير عمل كامل" بأمان وعلى نطاق واسع. باختصار، يدمج هذا الهيكل نماذج الذكاء الاصطناعي المتطورة مع تكامل وتحكم المؤسسة، مما يمكن من تبني الذكاء الاصطناعي على مستوى المؤسسة بالكامل.

خيارات النشر: Vertex AI، Workspace، والموصلات

جيمني إنتربرايز مرن في كيفية وأماكن النشر. تقدم Google مسارات متعددة لجلب الذكاء الاصطناعي التوليدي إلى بيئة المؤسسة - سواء عبر Google Cloud، داخل تطبيقات Google Workspace، أو حتى متكاملًا مع منتجات الطرف الثالث من خلال الموصلات.

  1. Google Cloud Vertex AI (نشر السحابة المدارة): بالنسبة للمنظمات التي تبني تطبيقات مخصصة أو ترغب في تحكم محكم، توفر Vertex AI نماذج جيميني كخدمة. تعرض Vertex AI Gemini API نماذج جيميني (وغيرها من نماذج الأساس من Google) عبر منصة Google Cloud، مما يتيح للمطورين استدعاء النماذج مع ضوابط مؤسسية (حسابات الخدمة، أذونات IAM، إلخ). هذا الخيار مثالي إذا كنت ترغب في تضمين قدرات جيميني في تطبيقك الخاص أو الباك إند. يأتي مع النظام البيئي الكامل لـ Google Cloud – التسجيل/المراقبة، حصص الاستخدام، التوسع عند الطلب، والتكامل مع أدوات مثل Vertex AI RAG Engine لجيل المعزز بالاسترجاع. يمكن للمؤسسات اختيار نقاط نهاية إقليمية مختلفة (الولايات المتحدة، الاتحاد الأوروبي، آسيا) لإقامة البيانات عند استخدام Vertex AI. يتيح Google نشرًا هجينًا وعلى الموقع لنماذج جيميني عبر Google Distributed Cloud (للعملاء الذين لديهم سيادة صارمة على البيانات). بالشراكة مع بائعي الأجهزة (مثل وحدات معالجة الرسوميات NVIDIA Blackwell)، يمكن لـ Google تثبيت حزمة تقديم جيميني بشكل فعال في مركز بيانات المنظمة الخاص أو في موقع حافة آمن. هذا يُعتبر فرقًا كبيرًا – في حين أن الافتراضي هو السحابة، يمكن للصناعات المنظمة (الحكومة، المالية، الرعاية الصحية) اختيار نسخة Gemini Enterprise معزولة تحت سيطرتهم.
  2. Google Workspace مع جيميني (مدمج في تطبيقات الإنتاجية): تقوم Google أيضًا بدمج مساعدة جيميني AI مباشرة في تطبيقات Google Workspace (المستندات، الجداول، العروض التقديمية، البريد الإلكتروني، الاجتماع، إلخ)، مما يجلب الجيل AI للمستخدمين النهائيين دون أي ترميز. إذا كانت المؤسسة تستخدم Google Workspace، فإن العديد من ميزات جيميني متاحة من خلال واجهة المستخدم التي يعرفها المستخدمون بالفعل. على سبيل المثال، في مستندات Google وGmail، يمكن للمستخدمين استدعاء "ساعدني في الكتابة" المدعوم بجيميني لكتابة المحتوى أو تحسين النص. في Google Slides، يمكنهم استخدام "ساعدني في التصميم" لإنشاء صور مخصصة عبر نموذج Imagen (توليد الصور لجيميني). في الجداول، يمكن لجيميني إنشاء جداول ذكية أو ملء الأعمدة تلقائيًا باستخدام استدلال AI. يدمج Google Meet جيميني لميزات في الوقت الحقيقي مثل ترجمة الكلام في الترجمة الفورية مع الحفاظ على نغمة المتحدث، تحسين جودة الفيديو، وحتى مساعد "خذ ملاحظات لي" الذي يولد ملاحظات الاجتماع تلقائيًا. كل هذه الميزات جزء من Google Workspace مع جيميني، والتي طرحتها Google عبر مستوياتها المؤسسية. من منظور المسؤول، يمكن تمكين أو تعطيل تطبيق Gemini كخدمة أساسية في Workspaceworkspaceupdates.googleblog.com. تبقى البيانات من Workspace داخل تلك البيئة – على سبيل المثال، إذا لخص جيميني مستندًا على Drive لشركة لأحد المستخدمين، فإنه يحترم أذونات المشاركة ولا يكشف المحتوى للآخرين دون الوصول. قامت Google بتسويق هذه التحسينات AI تحت اسم "Duet AI"، ولكن تحت السطح، هو نموذج جيميني الذي يقوم بالعمل الشاق. هذه الدمج العميق في أدوات الإنتاجية اليومية يضع جيميني Enterprise ضد Microsoft’s Office 365 Copilot (المزيد عن ذلك في مدونة حالات الاستخدام). يعني ذلك أن المستخدمين يمكنهم الحصول على مساعدة AI مباشرة في تدفق العمل – كتابة رسائل البريد الإلكتروني، تحليل الجداول، إنشاء العروض التقديمية – بدلاً من الحاجة إلى تطبيق منفصل.
  3. تطبيق “Gemini Enterprise” والموصلات الخارجية: تقدم Google أيضًا جيميني Enterprise كتطبيق ويب مستقل (واجهة دردشة بالإضافة إلى وحدة تحكم الإدارة) لأولئك الذين يرغبون في الحصول على مساعد AI للشركة على الإنترنت. يمكن للموظفين الذهاب إلى هذا التطبيق والدردشة مع جيميني لطرح الأسئلة، إنشاء المحتوى، أو تنفيذ المهام – في الأساس بوت ChatGPT خاص للشركة يستند إلى بياناتها الخاصة. يتصل هذا التطبيق Gemini Enterprise بالبيانات الداخلية من خلال موصلات مدمجة مسبقًا لأدوات مثل Confluence وJira وSharePoint وServiceNow، إلخ. تقوم الموصلات بمزامنة المحتوى باستمرار (مع خيارات لجدولة مزامنة كاملة أو تدريجية) في فهرس قابل للبحث لجيمينيcloud.google.com. النتيجة هي بحث إنترانت ذكي قوي: يمكن للموظفين الاستفسار عن كل شيء من السياسات في Confluence إلى التذاكر في Jira أو الملفات على محرك الشبكة، جميعها من مربع دردشة واحد. بشكل حاسم، يحترم جيميني Enterprise حقوق الوصول لكل مستخدم – لن يسترجع ويعرض المحتوى إلا إذا كان المستخدم الذي يستفسر مسموحًا له برؤيته، بفضل التكامل مع أنظمة الهوية وACL. بالإضافة إلى ذلك، تدعم المنصة الموصلات إلى المعرفة الخارجية – على سبيل المثال، يمكن لأداة Google Search grounding tool المدمجة جلب معلومات ويب عامة محدثة عندما يكون ذلك مناسبًا. هذا يمكن أن يكون مفيدًا للأسئلة التي تمزج بين السياقات الداخلية والخارجية (مثل "قارن نمو أرباحنا في الربع الثالث بمعايير الصناعة" – حيث يمكن جلب بيانات الصناعة عبر Google Search). يمكن نشر تطبيق جيميني Enterprise المستقل عبر Google Cloud Console (للإداريين) ثم الوصول إليه من قبل المستخدمين عبر المتصفح. يصبح بشكل فعال المساعد AI الموحد للشركة، مما يلغي الحاجة إلى روبوتات دردشة منفصلة لكل قسم. شهدت Google استخدام العملاء الأوائل له في سيناريوهات متنوعة – من مساعد ممرض يختصر ملاحظات تسليم المرضى (في HCA Healthcare) إلى روبوت دعم التجزئة الذي يساعد العملاء على الخدمة الذاتية (في Best Buy).
  4. واجهة برمجة التطبيقات للمطورين (Google AI للمطورين): كمكمل لـ Vertex AI، أطلقت Google واجهة Gemini Developer API عبر خدمات مطوري Google AI. توفر هذه الواجهة نقطة نهاية مستضافة بسيطة لنماذج جيميني دون الحاجة إلى مشروع Google Cloud كامل. تستهدف النماذج الأولية السريعة والحالات الأقل تعقيدًا – "أسرع مسار لبناء وتوسيع التطبيقات المدعومة بجيميني"، وفقًا لـ Google. معظم القدرات متشابهة بين واجهة برمجة التطبيقات للمطورين وVertex AI، وتقدم Google الآن SDK موحد لـ Gen AI (google-genai) يمكنه استدعاء أي من الخلفيات بتغييرات بسيطة في الكود. بشكل أساسي، يمكن للمؤسسة أن تبدأ البناء باستخدام واجهة برمجة التطبيقات للمطورين (التي تستخدم مفاتيح API للمصادقة) ثم الانتقال لاحقًا إلى Vertex AI إذا احتاجوا إلى المزيد من ضوابط المؤسسات أو أرادوا التكامل مع خدمات GCP الأخرى. بالنسبة للمؤسسات، يُفضل عادةً مسار Vertex للإنتاج (بسبب تكامل شبكة VPC، المفاتيح المدارة من قبل المستخدم، إلخ)، لكن واجهة برمجة التطبيقات للمطورين هي خيار مفيد للتجارب الأولية أو لمزودي SaaS الذين يرغبون في دمج جيميني بسرعة (مشابهة لكيفية استخدام واجهة برمجة التطبيقات لـ OpenAI).

باختصار، تلتقي Google مع الشركات حيثما كانوا: إذا كنت تريد مساعد AI جاهز للموظفين، فعّل تطبيق Gemini (ومزايا Workspace). إذا كنت تريد واجهات برمجة التطبيقات لدمج الذكاء الاصطناعي في تطبيقاتك الخاصة، استخدم Vertex AI أو واجهة برمجة التطبيقات للمطورين. إذا كنت تحتاج إلى حلول هجينة أو محلية لأسباب تنظيمية، تقدم Google ذلك عبر السحابة الموزعة. وبفضل الدعم الواسع للاتصالات، يمكن لتطبيق Gemini Enterprise العمل حتى فوق الأنظمة غير التابعة لـ Google (مثل شركة تستخدم Microsoft 365 بشكل رئيسي يمكنها رغم ذلك نشر Gemini Enterprise كمساعد تراكبي متصل بـ SharePoint وOutlook، إلخ). هذه المرونة في النشر هي جانب أساسي من استراتيجية Google لدخول السوق – فهي تدرك أن العملاء الكبار لديهم مناظر تكنولوجيا معلومات غير متجانسة وشهية مختلفة للمخاطر المتعلقة بالسحابة. ولا سيما، يحصل عملاء Google Workspace على العديد من ميزات Gemini ضمن اشتراكاتهم الحالية (خاصة إذا كان لديهم الإضافة Gemini Enterprise أو Ultra)، مما يمكن أن يسرع من التبني عبر الأدوات التي يستخدمها الموظفون يوميًا.

واجهات برمجة التطبيقات Gemini وآليات التخصيص

بينما توفر Gemini Enterprise أدوات بدون كود لمستخدمي الأعمال، فإنها تقدم أيضًا واجهات برمجة تطبيقات قوية وخيارات تخصيص للمطورين وفرق تكنولوجيا المعلومات لتكييف الذكاء الاصطناعي مع احتياجات مؤسستهم. دعونا نحلل كيف يمكن للمرء تخصيص سلوك Gemini وتوسيع وظائفه:

موحدة GenAI SDK وواجهات برمجة التطبيقات: توفر Google مجموعة تطوير برمجيات موحدة (مكتبة google-genai) التي تسمح للمطورين باستدعاء نماذج Gemini في بيئات متنوعة (السحابة أو المحلية) بطرق متسقة. سواء كنت تستخدم نقطة نهاية Vertex AI أو واجهة برمجة التطبيقات المباشرة للمطورين، فإن مجموعة تطوير البرمجيات تتولى مهمة التحقق من الهوية ونقاط النهاية - ببساطة تحدد النموذج (مثل "gemini-2.0-flash" أو "gemini-2.5-pro") وترسل التعليمات. هذا مشابه لنهج OpenAI، مما يجعله سهل التبني للفرق التي تعرف بالفعل واجهات برمجة التطبيقات على نمط GPT لتبني Gemini. في الواقع، تتضمن مجموعة تطوير البرمجيات من Google حتى طبقة توافق مع OpenAI لتبسيط نقل الكود. تأتي الاستجابات من Gemini مع بنية غنية (استخدام الرموز، بيانات النموذج الوصفية، إلخ)، وتدعم واجهة برمجة التطبيقات كل من الأنماط "completion" للمطالبات والدردشة (رسائل مع أدوار). الأهم أن مجموعة تطوير البرمجيات وواجهة برمجة التطبيقات تدعمان أنماط خاصة مثل التعامل مع السياق الطويل (تمكين تلك المدخلات بملايين الرموز عبر تحميلات ملفات دفعة) والبث (للحصول على مخرجات رمز برمز للتطبيقات الفورية).

تخصيص الموجه – تعليمات النظام والتأصيل: لتخصيص سلوك النموذج دون إعادة التدريب، يدعم Gemini تعليمات على مستوى النظام وبيانات التأصيل. كما هو الحال مع رسالة النظام في OpenAI، يمكن للمطورين تقديم “موجه نظام” يوجه شخصية النموذج أو قواعد المحادثة. على سبيل المثال، يمكن للمؤسسة ضبط تعليمات نظام مستمرة مثل “أنت مساعد لشركة ACME Corp. أنت دائمًا تجيب وفقًا لسياسات ومعرفة ACME. إذا كنت لا تعرف الإجابة، قل ذلك.” هذا يضمن الاتساق والالتزام بإرشادات الشركة عبر جميع المحادثات. من جانب التأصيل، تتيح Google توليدًا معززًا بالاسترجاع (RAG) عبر فهرس البحث المدمج في المنصة وأدوات مستقلة. في Vertex AI، يوجد محرك RAG مُدار يقوم بتنسيق استرجاع المستندات ذات الصلة (من BigQuery، Cloud Storage، إلخ) وتغذيتها في الموجه. عمليًا، عندما يسأل المستخدم سؤالًا، يمكن للنظام إرفاق مقتطفات ذات صلة من بيانات المؤسسة إلى سياق النموذج، مما يجعل الرد “مؤصلًا” في حقائق حقيقية. واجهة الدردشة في Gemini Enterprise تقوم بذلك خلف الكواليس للعديد من الاستفسارات، وتعيد إجابات مع إشارات مرجعية تربط بالمستندات المصدر. يمكن للمطورين الذين يدمجون Gemini في تطبيقات أخرى تكرار ذلك باستخدام واجهة برمجة تطبيقات Vertex RAG أو خط أنابيب الاسترجاع الخاص بهم (مثل استخدام تضمينات المتجه - لاحظ أن Gemini يقدم نموذجًا للتضمينات أيضًا للبحث الدلالي). بالإضافة إلى ذلك، يحتوي Gemini على أداة مدمجة لتأصيل البحث على الويب المباشر - يمكنه استدعاء بحث Google لجلب معلومات محدثة في الوقت الفعلي. هذا مفيد للأسئلة حول الأحداث الأخيرة أو الإحصائيات غير الموجودة في بيانات التدريب (التي تحتوي على حد معرفي في يناير 2025 لـ Gemini 2.5). آليات التأصيل والاسترجاع هي أدوات تخصيص رئيسية - تسمح للمؤسسات بحقن المعرفة الخاصة في إجابات النموذج دون تغيير أوزان النموذج، والحصول على مخرجات يمكن تتبعها مع مراجع المصدر للامتثال.

Fine-Tuning and Prompt Tuning: For organizations that require the model to adopt a specific style or incorporate additional training data, Google supports model tuning on Gemini (currently in controlled availability). In Vertex AI, teams can perform supervised fine-tuning on Gemini models using their own labeled examples. For instance, a company might fine-tune a Gemini variant on its past customer support transcripts so that the model learns domain-specific QA pairs and jargon. Google recommends techniques like LoRA (Low-Rank Adaptation) for efficient fine-tuning of these large models. LoRA allows adding new knowledge or style with a relatively small number of additional parameters, avoiding the need to retrain the entire huge model. Developers prepare training data (prompt and ideal completion pairs) and use Vertex’s tuning service to produce a custom checkpoint. This tuned model can then be hosted and used via the API (noting that some largest models might not support fine-tune in all regions yet). In addition to full supervised fine-tuning, Google supports prompt tuning – essentially learning an optimal prefix prompt that guides the model, without changing model weights. This can achieve some of the benefits of fine-tuning (e.g. consistently following a desired format or policy) at lower risk. Moreover, function calling is available: developers can define “tools” or functions (e.g. an API to book a meeting room) that Gemini can invoke when appropriate in a conversation. This is similar to OpenAI’s function calling mechanism. It enables extending Gemini’s capabilities by having it call external functions with generated parameters – effectively letting the AI perform actions like looking up database info, triggering workflows, etc., in a controlled way. For example, one could integrate a “Create JIRA Ticket” function; when a user asks the assistant to log an IT issue, Gemini can populate and execute that function.

تنسيق الوكيل وأدوات المطورين: بالإضافة إلى استدعاءات النماذج الخام، توفر جوجل إطار تنسيق الوكيل (Agentspace، الذي أصبح الآن جزءًا من Gemini Enterprise) لبناء وكلاء متعدد الخطوات يستخدمون النموذج بالإضافة إلى الأدوات. يمكن للمطورين كتابة برامج نصية للوكيل أو استخدام واجهة مصمم الوكيل لتحديد كيفية تعامل الوكيل مع المهمة - على سبيل المثال، “الخطوة 1: البحث في قاعدة المعرفة. الخطوة 2: تلخيص النتائج. الخطوة 3: طلب توضيح من المستخدم إذا لزم الأمر. الخطوة 4: إعداد مخرج.” يتولى وقت تشغيل الوكيل التعامل مع تكرار هذه الخطوات، واستدعاء نموذج جيميني أو الأدوات في كل خطوة، وإدارة الحالة (هذا يشبه سلسلة LangChain، ولكن على منصة جوجل المُدارة). توفر جوجل مجموعة تطوير الوكيل (ADK) مكتبات وأنماطًا لإنشاء مثل هذه الترتيبات، وتقوم جوجل بمواءمتها مع الأطر المفتوحة (على سبيل المثال، لديها أمثلة مع تكامل LangChain).

بالنسبة لمهام البرمجة، تقدم جوجل Gemini Code Assist (تطور لنماذج Codey السابقة) لتقديم اقتراحات برمجية ذكية في بيئات التطوير المتكاملة. ولعشاق سطر الأوامر، يُعد Gemini CLI المذكور سابقًا رفيقًا قويًا للمطورين: حيث يتيح للمطورين التحدث مع Gemini من خلال الطرفية لإنشاء التعليمات البرمجية، وشرح الأخطاء، والتعامل مع الموارد السحابية، إلخ. ومع إضافات CLI الجديدة، يمكن للمطورين حتى دمج Gemini في تدفقات عمل DevOps الخاصة بهم – على سبيل المثال، يمكن أن تسمح إضافة لـ Gemini بجلب سجلات السحابة أو تشغيل مجموعة اختبارات عند الطلب. وقد قامت شركات أدوات التطوير الكبرى مثل Atlassian وMongoDB وPostman وStripe وغيرها ببناء إضافات CLI حتى يتمكن Gemini من التواصل مع خدماتها من خلال سطر الأوامر. وهذا يحول سطر الأوامر فعليًا إلى "مركز أوامر شخصي" للمطورين، مدعومًا بالذكاء الاصطناعي.

أخيرًا، تتوفر حزم تطوير البرمجيات (SDKs) للغات مختلفة (بايثون، جافا سكريبت، Go) بحيث يمكن للمطورين تضمين جيميني في تطبيقاتهم. ومع دعم بروتوكول سياق النموذج (MCP) والمعايير الناشئة، يصبح دمج جيميني مع أنظمة أو وكلاء الذكاء الاصطناعي الأخرى أسهل. كما تعمل جوجل على معايير لـ المعاملات الوكيلة – مثل بروتوكول دفع الوكيل (AP2) للقيام بإجراءات مالية آمنة بواسطة الوكلاء – مما يشير إلى قدرات مستقبلية حيث يمكن لوكلاء الذكاء الاصطناعي إتمام مهام مثل الشراء أو إدخال البيانات بطريقة محكومة.

باختصار، يعتبر Gemini Enterprise قابلاً للتخصيص بشكل كبير: سواء من خلال هندسة النماذج، أو التأسيس باستخدام بياناتك، أو الضبط الخفيف، أو بناء وكلاء معقدين باستخدام الأدوات، تمتلك الشركات العديد من الخيارات لتوجيه الذكاء الاصطناعي بما يتماشى مع سير العمل الخاص بها. توفر جوجل ليس فقط النماذج، بل أيضًا البنية لحقن السياق ودمج الإجراءات، وهو أمر حيوي للاستخدام في الأعمال الحقيقية (حيث أن الذكاء الاصطناعي الكامل غالبًا لا يكفي – تحتاج إلى ربطه بقواعد البيانات، وواجهات برمجة التطبيقات، والسياسات). من خلال تقديم هذه الآليات التخصيصية، تمكن جوجل الشركات من إنشاء مساعدات ذكاء اصطناعي متخصصة جدًا في مجالها (على سبيل المثال، بوت "تحليل الامتثال التنظيمي" أو بوت "استعلامات SAP المالية") التي لا تزال تستفيد من الذكاء العام لنموذج Gemini. ويمكن القيام بكل هذا مع الحفاظ على أمان النموذج الأساسي – حيث يمكن تصفية ومدققة المدخلات والمخرجات، ولا يتم استخدام البيانات الخاصة المستخدمة في التعليمات لإعادة تدريب نماذج جوجل بدون إذن support.google.com.

إطار الأمان والإدارة والامتثال

بالنسبة لاعتماد المؤسسات، فإن الثقة مهمة بقدر أهمية القدرة الخام. لقد قامت Google بتصميم Gemini Enterprise بإجراءات أمان وامتثال مكثفة، بهدف تلبية المتطلبات الصارمة لتكنولوجيا المعلومات في الشركات. دعونا نوضح كيف يتم حماية البيانات وما الشهادات/ميزات الثقة المتوفرة:

الخصوصية وعزل البيانات: تؤكد Google على أن بيانات العملاء لا تُستخدم لتدريب نماذج Gemini الأساسية ولا تكون مرئية للعملاء الآخرين. في تنفيذ Google Workspace، أي محتوى يقدمه المستخدم إلى Gemini (مثل مستند للتلخيص) لا يُستخدم لتحسين النموذج و"لا يتم مراجعته من قبل البشر"، مما يوفر ضمانًا للخصوصية support.google.com. في شروط Google Cloud's Vertex AI، تقدم Google أيضًا التزامات عزل البيانات - تبقى البيانات داخل مستأجر العميل وتُستخدم فقط لإنشاء المخرجات لذلك العميل. هذا يعالج قلقًا شائعًا لدى الشركات حول الذكاء الاصطناعي التوليدي: الشركات لا ترغب في أن يتم استخدام مطالباتها الحساسة أو المخرجات لتحديثات نموذج البائع. نهج Google هنا مشابه لـ Microsoft’s Copilot (الذي يعد أيضًا بعدم استخدام بيانات العملاء في Office 365 للتدريب). بالإضافة إلى ذلك، تُشفّر جميع تبادلات البيانات (أثناء النقل وعند الراحة). بشكل افتراضي، يتم تخزين المحتوى المفهرس بواسطة موصلات Gemini Enterprise مشفرًا بمفاتيح تديرها Google، ولكن يمكن للعملاء اختيار مفاتيح تشفير تديرها العملاء (CMEK) لمزيد من التحكم. يتوفر دعم CMEK عند استخدام نقاط النهاية الإقليمية في الولايات المتحدة أو الاتحاد الأوروبي لواجهات برمجة تطبيقات Gemini. بعض العملاء يدمجون حتى مديري المفاتيح الخارجية/HSMs بحيث يجب على خوادم Google طلب فك التشفير من نظام العميل، مما يوفر طبقة إضافية من حراسة المفاتيح.

التحكم في الوصول وتسجيل الدخول الموحد: يربط جيميني إنتربرايز بأنظمة الهوية وتسجيل الدخول الموحد للمؤسسات، بحيث يكون توثيق المستخدم متسقًا مع سياسات الوصول الحالية للشركة. يستفيد من هوية جوجل كلاود أو تسجيل الدخول الموحد SAML/OAuth المتحد، مما يعني أن المستخدمين يسجلون الدخول باستخدام بيانات اعتماد الشركة. بمجرد التوثيق، يتم إسناد كل استفسار أو إجراء وكيل إلى هوية مستخدم للتدقيق. تفرض المنصة أذونات المستخدم عند استرداد أي بيانات - على سبيل المثال، إذا طلبت جين دو من المساعد العثور على "حالة المشروع Foo"، وكانت هذه المعلومات موجودة في مجلد Drive أو مساحة Confluence لا تمتلك حق الوصول إليها، فلن يشمل جيميني تلك المعلومات في الإجابة. يمنع هذا الآلية المستجيبة المدركة للأذونات من تسرب البيانات عبر الأقسام. يمكن للمسؤولين أيضًا تعيين سياسات مستندة إلى الأدوار حول الوكلاء الذين يمكن لمجموعة معينة استخدامها أو ما هي الموصلات المفعلة. على سبيل المثال، يمكن للمسؤول تعطيل استخدام "وكيل نشر تويتر" لمعظم المستخدمين أو يتطلب فقط أن يتمكن موظفي الموارد البشرية من استعلام مخزن بيانات الموارد البشرية. بالإضافة إلى ذلك، يمكن تفعيل سجلات شفافية الوصول من جوجل (ميزة في جوجل كلاود) - وهذا يوفر سجلاً غير قابل للتغيير لأي وصول قد يكون لدي مسؤولي جوجل أو العمليات الآلية إلى محتواك، مما يعزز الثقة في عمليات جوجل.

Model Output Safety: To handle the well-known risks of LLMs (like hallucinations or inappropriate content), Gemini Enterprise uses multi-layered safeguards. Model Armor, as mentioned, is a cloud service that does prompt and response scanning for security issues (malicious instructions, data exfiltration attempts, etc.). It can redact or block certain inputs/outputs in real-time before they cause harm. Google also allows admins to configure content moderation settings for Gemini – e.g. defining what the AI should do if a prompt requests disallowed content. These settings align with Google’s AI safety policies (to prevent hate speech, self-harm advice, etc.). There is a “safety guidance” system and toxicity filters by default. However, Google warns (and any expert knows) that no AI is 100% hallucination-free. They encourage implementing validation steps for critical use cases. For example, if an agent is set to execute autonomous actions like sending an email or approving an invoice, it’s wise to use human-in-the-loop review or at least a test run. Enterprises are advised to establish “guardrail” policies: e.g. requiring certain agent-generated outputs to be approved by a manager before applying, or preventing the AI from giving financial advice outright. The platform supports these controls (for instance, an admin could disable code execution tools globally, or require that the finance agent runs in “proposal mode” only). Logging of all AI actions also ensures any incidents can be traced and analyzed. Google has also built a feedback loop – users can thumbs-up/down answers in the interface, and these signals help improve the relevance (either via fine-tuning or search tuning) over time.

الشهادات الامتثالية: عملت جوجل على مواءمة Gemini Enterprise مع المعايير الامتثالية الرئيسية. نظرًا لأن المنصة تبني على أسس Google Cloud وWorkspace، فإنها ترث العديد من الشهادات الموجودة لدى جوجل. اعتبارًا من أواخر عام 2024، أعلنت جوجل أن تطبيق Gemini (الويب والجوال) حصل على امتثال HIPAA وحقق شهادات ISO/IEC 27001، 27017، 27018، 27701 (معايير أمن المعلومات وخصوصية السحابة)، بالإضافة إلى ISO 9001 (إدارة الجودة) وISO 42001 - المعيار الجديد لنظام إدارة الذكاء الاصطناعي. في الواقع، أشارت جوجل إلى أن Gemini كان أول عرض ذكاء اصطناعي إنتاجي يتم اعتماده على ISO 42001، مما يشير إلى أنه تم تدقيقه من أجل تطوير الذكاء الاصطناعي المسؤول وإدارة المخاطر. بالإضافة إلى ذلك، فإن خدمة Gemini تتوافق مع SOC 2 وSOC 3 (مدققة لأمن وتوافر وضوابط السرية). بالنسبة للعملاء في القطاع العام الأمريكي، قدمت جوجل في أواخر عام 2024 طلبًا للحصول على تفويض FedRAMP High لـ Gemini - مما يعني أنها في طريقها لتكون معتمدة للاستخدام مع بيانات الحكومة حتى المستوى الحساس للغاية. بينما قد يكون التفويض FedRAMP معلقًا، فإن البنية التحتية التي تعمل عليها جوجل معتمدة من FedRAMP، وتخطط لإدراج Gemini Enterprise في عمليات التدقيق المستقبلية. في وثائق Google Cloud، يُذكر أن Gemini Enterprise سيتم تضمينه في عمليات التدقيق الخاصة بالشهادات القادمة نظرًا لأنه يستخدم نفس الضوابط الأساسية مثل خدمات Google Cloud الأخرى. بالنسبة للعملاء في مجال الرعاية الصحية، فإن دعم HIPAA أمر بالغ الأهمية - تؤكد جوجل أن Workspace مع Gemini يمكن أن يدعم الأحمال العمل المنظمة بموجب HIPAA (مع وجود اتفاقية شراكة أعمال صحيحة). باختصار، المنصة تتماشى مع قوائم التحقق الامتثالية (ISO، SOC، HIPAA، GDPR، إلخ) التي تتطلبها المؤسسات والصناعات المنظمة. يجب على المؤسسات مراجعة التفاصيل الخاصة (على سبيل المثال، في الإطلاق أشار مستند إلى أن Gemini في متصفح Chrome لم يكن بعد متوافقًا مع FedRAMP)، ولكن الاتجاه هو أن Gemini Enterprise سيلبي أو يتجاوز موقف الامتثال العام لسحابة جوجل.

ضوابط البيانات الجغرافية: تتيح Gemini Enterprise خيارات إقامة البيانات – يمكن للمسؤولين اختيار تخزين البيانات المفهرسة في مواقع متعددة المناطق في الولايات المتحدة أو الاتحاد الأوروبي لتلبية متطلبات محلية البيانات. يمكن أيضًا تكوين معالجة النموذج (مثل خدمة استفسارات المستخدمين في الاتحاد الأوروبي في مراكز بيانات الاتحاد الأوروبي) اعتمادًا على تحديد المناطق. هذا مهم للامتثال للائحة العامة لحماية البيانات (GDPR). وأيضًا، يمكن استخدام ضوابط خدمة VPC لتقييد واجهة برمجة التطبيقات (API) الخاصة بـGemini بحيث تقبل فقط الحركة من شبكات السحابة الخاصة بالشركة، مما يقلل من مخاطر تسرب البيانات. وسجلات شفافية الوصول، كما ذكر، يمكن أن توفر رؤية إلى وصول Google الخاص إلى البيانات (والذي عادة ما يكون صفرًا، باستثناء الأنظمة الآلية).

أفضل ممارسات الحوكمة: تقدم Google إرشادات للعملاء حول إعداد مجلس حوكمة AI، مراحل تجريبية، وتقييم المخاطر عند نشر Gemini. ينصحون بنشر مرحلي: اختبار في بيئة معزولة، ثم عمليات محدودة بإشراف بشري، ثم نشر موسع مع مراقبة. كما يبرزون أهمية إدارة التغيير – مثل وجود سياسة لكيفية التعامل مع تحديثات النماذج (نظرًا لأن نماذج الأساس قد يتم تحديثها من قبل Google بإصدارات جديدة) وكيفية إعادة التحقق من المطالبات أو الوكلاء الحيويين عند حدوث ذلك. القيد على المورد هو خطر آخر يذكرونه – بينما تعد Google بالانفتاح، يجب على المؤسسة ضمان قدرتها على تصدير تكوينات الوكلاء ومكتبات المطالبات إذا احتاجوا يومًا للهجرة. استخدام Google للمعايير المفتوحة (مثل Agent2Agent) يهدف جزئيًا إلى تسهيل مثل هذه الانتقالات، ولكن من الحكمة أن تتفاوض المؤسسات على حقوق تعاقدية لبيانات المطالبات والوكلاء الخاصة بهم. من ناحية أخرى، فإن التكامل العميق لـ Google عبر السحابة والبيئة وبياناتها يعني أن هناك قيمة كبيرة تتحقق إذا اعتمدت المجموعة بالكامل – مما قد يجعل التبديل لاحقًا أكثر صعوبة (سيناريو احتكار النظام البيئي الكلاسيكي، وليس خاصًا بـ Google).

باختصار، وضعت جوجل تفكيرًا كبيرًا في كسب ثقة الشركات: يأتي جيميني إنتربرايز مع "مجموعة شاملة من شهادات الخصوصية والأمان" والتحكمات، وهو مصمم للإشراف الإداري وحماية البيانات منذ اليوم الأول. لقد قام مختبرو الشركات الأوائل (مثل البنوك والمنظمات الصحية) بتأكيد هذه الميزات في التجارب، ولهذا السبب نرى دراسات حالة مثل Banco BV و HCA Healthcare مرتاحين لوضع الذكاء الاصطناعي في العمليات الأساسية. بالطبع، تبني الذكاء الاصطناعي التوليدي يتطلب استخدامًا مسؤولاً – يجب على الشركات تطبيق سياساتها الخاصة (أدوات جوجل تساعد لكنها لا تضمن مثلاً أن الموظف لن يشارك شيئًا حساسًا في الموجه). ولكن مقارنة بفوضى روبوتات الدردشة الاستهلاكية، يوفر جيميني إنتربرايز بيئة محكومة وموثوقة حيث يمكن استغلال بيانات الشركات بأمان. كما تقول جوجل بوضوح، فإنه يقدم ميزات "ثقة مدمجة" لجعل المنظمات واثقة في نشر الذكاء الاصطناعي.

أدوات التطوير والتكامل

Gemini Enterprise هو منصة تطوير بقدر ما هو منتج للمستخدم النهائي. لقد أصدرت Google مجموعة غنية من الأدوات وSDKs وخيارات التكامل لمساعدة المطورين وفرق تكنولوجيا المعلومات على البناء على Gemini ودمجه في أنظمة متنوعة. لقد قمنا بلمس بعضها (مثل SDKs وCLI وغيرها)، لكن دعونا نلخص الأدوات الرئيسية للمطورين:

  • حزم تطوير الذكاء الاصطناعي من Google (واجهات برمجة التطبيقات بلغات متعددة): توفر المكتبات الرسمية لـ Python وJavaScript/TypeScript وGo وغيرها للمطورين إمكانية استدعاء نماذج Gemini ببضع سطور من الكود. تتولى هذه المكتبات معالجة التجزئة، والاتصال المتدفق، ومعالجة الأخطاء. هناك أيضًا واجهة برمجة تطبيقات REST وواجهة gRPC لأولئك الذين يفضلون الاستدعاءات المباشرة. تتضمن مرجع واجهة برمجة التطبيقات أمثلة لتوليد المحتوى، والدردشة، والتضمين، وحتى نقاط النهاية المتخصصة (مثل نقطة نهاية توليد الصور لنموذج Imagen، ونقطة نهاية تحويل الصوت إلى نص، إلخ.) ai.google.devai.google.dev. بالإضافة إلى ذلك، تقدم Google كتاب طبخ على GitHub مع أمثلة جاهزة وتصميمات للمطالبات للمهام الشائعة (تلخيص، أسئلة وأجوبة، تصنيف، إلخ.) يمكن للمطورين تعديلها.
  • القوالب ومسرعات الحلول: نشرت Google Cloud مخططات حلول الذكاء الاصطناعي (عبر مركز الهندسة المعمارية وGitHub) التي توضح كيفية دمج Gemini مع خدمات GCP الأخرى. على سبيل المثال، قد تتضمن الهندسة المرجعية لروبوت دردشة مدعوم بالذكاء الاصطناعي Vertex AI (Gemini) + Cloud Search + Dialogflow CX للصوت، إلخ. تقدم شركاء Google (مثل SADA وDeloitte وAccenture) أيضًا قوالب – مثل وكيل معد مسبقًا لأتمتة مراكز الاتصال أو وكيل “مدرب المبيعات” الذي يتكامل مع بيانات CRM. توفر هذه القوالب نقطة انطلاق للمطورين، يمكنهم بعدها تخصيصها في مصمم الوكيل أو عبر الكود.
  • تنسيق الوكلاء وأدوات سير العمل: يتضمن إطار عمل Agentspace من Google (الآن جزء من Gemini Enterprise) كلاً من منشئ بصري ومكتبات لإدارة سير عمل الوكلاء. يمكن للمطورين تعريف “مهارات” وكيل مخصصة تتضمن تسلسلات من المطالبات واستدعاءات الأدوات والقرارات. على سبيل المثال، قد تكون مهارة الوكيل: “إذا سأل المستخدم سؤالًا، قم أولاً بالبحث في قاعدة المعرفة (استدعاء الأداة)، ثم أضف النتائج + السؤال إلى نموذج Gemini (المطالبة)، ثم إذا كانت الثقة منخفضة، قم بالتصعيد إلى الإنسان.” يمكن تكوين هذه الإعدادات بشكل تصريحي. هدف Google هو جعل تنسيق السلوكيات المعقدة للذكاء الاصطناعي أسهل من تجميع سكربتات Python معًا. يتولى النظام تتبع السياق بين الخطوات (مع نوافذ مليون رمز، يمكن تمرير السياق الوسيط بالكامل). هذا هو بشكل فعال رد Google على الأطر مثل LangChain/Chain of Thought – لكنه يقدم كخدمة سحابية مُدارة. من الجدير بالذكر أن Google تعمل مع المجتمع (تم توثيق تكامل LangChain، ويتم تطوير بروتوكول Agent2Agent وبروتوكول Model Context بشكل مشترك مع مدخلات من الآخرين).
  • Gemini CLI والإضافات: لقد قمنا بتغطية CLI من منظور التخصيص، ولكن من وجهة نظر الأدوات: يتيح Gemini CLI (أداة مفتوحة المصدر على geminicli.com) للمطورين الدردشة مع نموذج Gemini في المحطة الطرفية الخاصة بهم وأتمتة مهام التطوير. أفادت Google بأن أكثر من مليون مطور جربوه في غضون 3 أشهر من إطلاقه – أصبح شائعًا جدًا للحصول على مساعدة سريعة في الكود أو إدارة السحابة عبر اللغة الطبيعية. مع إضافات CLI، يمكن لمطور دمج أي خدمة أو API للرد على الأوامر المخصصة. على سبيل المثال، قامت Atlassian ببناء إضافة CLI بحيث يمكن للمطور كتابة، “@jira create bug ticket for failing login test” وسيستخدم Gemini CLI إضافة Atlassian لإنشاء مشكلة JIRA بالفعل بعد تأكيد التفاصيل. هذا يظهر كيف يعمل Gemini كغراء بين النية الطبيعية وعمليات المطور الحقيقية. يمكن للشركات أيضًا إنشاء إضافات CLI الخاصة بها – مثل واحدة تعرف كيفية إعداد بيئة تطوير قياسية أو جلب مقاييس داخلية محددة عند الطلب. تعمل جميع هذه الإضافات محليًا أو في بيئة المستخدم، مما يضمن الأمان (لا يتم إرسال الأسرار إلى النموذج؛ بل إن إخراج النموذج يحفز منطق الإضافة المحلية).
  • التكاملات في بيئات التطوير والتطبيقات: تقوم Google بتكامل Gemini في واجهات متنوعة. على سبيل المثال، Cloud Shell (المحطة الطرفية عبر الإنترنت من Google Cloud) تحتوي على لوحة مساعد الذكاء الاصطناعي باستخدام Gemini للمساعدة في اقتراح الأوامر، وتصحيح الأكواد، إلخ. هناك إضافات ل VS Code و JetBrains IDEs تقدم إكمال الكود الشبيه بـ “Copilot” والدردشة (تحت اسم “Duet AI for Cloud”). في Google Sheets، يتيح تكامل AppSheet إنشاء تطبيقات مدعومة بالذكاء الاصطناعي (يمكن لـ AppSheet استخدام Gemini لتحليل البيانات غير المنظمة أو توليد الصيغ فورًا). هناك أيضًا تكامل Apigee – أداة إدارة API من Google يمكنها تضمين Model Armor واستدعاءات Gemini في سير عمل API، مما يعني أن المطورين يمكنهم وضع فحص الذكاء الاصطناعي أو خطوة توليد الاستجابة أمام أي API. بشكل أساسي، تقوم Google بنسج Gemini في العديد من جوانب نظامها البيئي، مما يمنح المطورين خيارات للربط في أي نقطة تكون أكثر فائدة.
  • أدوات المراقبة وتصحيح الأخطاء: يوفر Vertex AI مراقبة في الوقت الحقيقي لاستخدام النموذج – يمكن للمطورين رؤية عدد الرموز التي استخدمتها كل طلبية، ووقت الاستجابة، وأي أخطاء. ستسجل السجلات حتى المطالبات (إذا تم الاشتراك في ذلك)، وهو ما يمكن أن يكون حاسمًا لتصحيح الأخطاء لمعرفة لماذا استجاب الوكيل بطريقة معينة. هناك أدوات لـ تقييم جودة المطالبات وإجراء اختبارات A/B لإصدارات مختلفة من المطالبات. كما نشرت Google دليل “هندسة المطالبات” وأفضل الممارسات في وثائقها، ودمجت حتى بعض ميزات تحسين المطالبات (مثل تخزين السياق لإعادة استخدام تخصيص الرموز بكفاءة، وأدوات حساب الرموز للتأكد من بقاء المطالبة ضمن الحدود) ai.google.dev.
  • المجتمع والدعم: لدى Google منتدى مجتمع (discuss.ai.google.dev) وبرامج مثل Google Cloud Innovators خصيصًا لمطوري الذكاء الاصطناعي. أطلقت أيضًا منصة Google Skills Boost مع تدريب مجاني على Gemini Enterprise وتطوير الذكاء الاصطناعي. برنامج GEAR (Gemini Enterprise Agent Ready) هو سباق تعليمي لتأهيل المطورين في بناء وكلاء الذكاء الاصطناعي، بهدف تدريب مليون مطور على أدوات Gemini. هذا مشابه لما فعلته Microsoft مع شهادات Power Platform – تحاول Google تنمية مجتمع ماهر حول منصة الذكاء الاصطناعي الخاصة بها. للحصول على دعم المؤسسات، يتمتع عملاء Gemini Enterprise بإمكانية الوصول إلى خطط دعم Google Cloud، وتقوم Google أيضًا بتأسيس فريق “Delta” النخبة (خبراء الذكاء الاصطناعي) الذين يمكنهم الاندماج مع فرق العملاء للعمليات المعقدة.

كل هذه الأدوات والبرامج للمطورين تشير إلى أن جوجل ترى Gemini Enterprise ليس فقط كمنتج ثابت، بل كمنصة حية سيتمكن المطورون من توسيعها والمشاركة في إنشائها. بالنسبة لقائد منتج أو صانع قرار في التقنية للمؤسسات، فإن الاستثمار في Gemini Enterprise لا يعني فقط الحصول على روبوت محادثة، بل يعني الحصول على أساس لتطوير الذكاء الاصطناعي المخصص، مدعوم من جوجل. يمكن للمنصة أن ترتبط بخطوط التكامل المستمر، بحيرات البيانات، ومحركات سير العمل لديك، بفضل نقاط التكامل. هذا مهم جدًا من الناحية الإستراتيجية: إنه يمكن أن يساعد في تحصين جهود الذكاء الاصطناعي للمؤسسة في المستقبل. بدلاً من تجارب الذكاء الاصطناعي المتفرقة هنا وهناك، جوجل تدفع نحو منصة موحدة حيث يمكن لجميع تلك التجارب أن تتلاقى، وتشارك الموارد (وقواعد الامتثال)، وتتم إدارتها مركزيًا.

الخاتمة

في هذا الغوص العميق الفني، رأينا أن Gemini Enterprise هو أكثر بكثير من مجرد واجهة برمجة تطبيقات LLM. إنه منصة شاملة للذكاء الاصطناعي للشركات تدمج بين النماذج المتطورة (عائلة Gemini) والبنية التحتية العملية المطلوبة في المؤسسات الكبيرة – موصلات البيانات، ومرونة النشر، والأمان القوي، والتخصيص الغني. من الناحية الهندسية، تستفيد من الابتكار الكامل لشركة جوجل: من السيليكون المخصص في مراكز البيانات، إلى النماذج متعددة الأنماط الرائدة عالميًا، وصولاً إلى الأدوات البديهية التي تسمح لأي موظف ببناء وكيل ذكاء اصطناعي. هذا التكامل الرأسي يوفر مزايا في الأداء، الحجم، والموثوقية (كما يتضح من معالجة جوجل لـ 1.3 كوادريليون من الرموز شهريًا عبر منصات الذكاء الاصطناعي الخاصة بها).

من أجل النشر، يمكن لـ Gemini Enterprise أن يتناسب مع استراتيجيات تكنولوجيا المعلومات المختلفة - سواء كنت تعتمد كليًا على Google Cloud، أو لديك بيئة هجينة، أو حتى كنت عميلًا رئيسيًا لـ Microsoft SaaS، يمكنك نشره بطريقة تكمل بيئتك. تجعل واجهات برمجة التطبيقات و SDKs منه إضافة طبيعية لأي مجموعة تطبيقات حديثة، وتكامل مساحة العمل يعني أن التأثير على المستخدم يمكن أن يكون فوريًا (الذكاء الاصطناعي في البريد الإلكتروني، والمستندات، والاجتماعات، دون الحاجة إلى كتابة سطر واحد من التعليمات البرمجية).

من المهم أن Google دمجت الحوكمة المؤسسية في كل طبقة: حيث تبقى البيانات تحت السيطرة المؤسسية، ويمكن تدقيق الإجراءات، ويمكن تكوين النظام للامتثال للوائح الصارمة. تعرض مجموعة الشهادات وميزات الشفافية (مثل الشفافية في الوصول، CMEK) التزام Google بتلبية متطلبات الثقة للمؤسسات. تم التحقق من ذلك بواسطة المستخدمين الأوائل في الصناعات الحساسة، مثل مقدمي الرعاية الصحية الذين يثقون به في معلومات المرضى (بموجب HIPAA)، والبنوك التي تستخدمه في التحليلات، مما يعكس الكثير.

من منظور المطور، توفر Gemini Enterprise ملعبًا غنيًا للابتكار. سواء من خلال تصميم الوكلاء بدون كود أو التكاملات الكاملة بالكود، يمكن للمطورين تعديل المنصة لحل مشاكلهم الفريدة. يمكنهم بناء وكيل يتجاوز الفجوات بين الأنظمة - على سبيل المثال، يقرأ من CRM، يستفسر قاعدة بيانات، ويرسل بريدًا إلكترونيًا - كل ذلك يتم تنظيمه بذكاء Gemini. وبفضل أدوات مثل Gemini CLI وإطار الامتداد، يمكن حتى تحسين تدفقات عمل المطورين بفضل الذكاء الاصطناعي (إنه مدهش بشكل كبير: الذكاء الاصطناعي يساعد في بناء حلول الذكاء الاصطناعي).

باختصار، يعد جيميني إنتربرايز جهدًا جريئًا من Google لتقديم نسيج AI متكامل للشركات. تقنيًا، يقف عند تقاطع براعة النماذج اللغوية الكبيرة، وبحث الشركات، وأتمتة سير العمل - وهي مجالات كانت منفصلة سابقًا. من خلال توحيدها، تهدف Google إلى تمكين "التحول الحقيقي للأعمال" بما يتجاوز الدردشات البسيطة blog.google. بالطبع، لا يوجد منصة مثالية أو سحرية. لتحقيق النجاح مع جيميني، سيتطلب الأمر تخطيطًا صحيحًا (تجارب، تدريب المستخدمين، إشراف). ولكن الأدوات متوفرة لمواجهة التحديات.

بالنسبة لقادة المنتجات والمهندسين المعماريين في المؤسسات، النقطة المهمة هي أن جوجل قد جمعت مجموعة أدوات شاملة لإدخال الذكاء الاصطناعي التوليدي في كل عملية عمل - مع العمق الفني (في النماذج والبنية التحتية) وميزات المؤسسة (في الأمان والتخصيص) المطلوبة. في المدونة القادمة، سنستكشف كيف يتفوق هذا النظام الأساسي في الاستخدامات التجارية الحقيقية وضد المنافسين مثل Copilot من Microsoft وOpenAI وAnthropic وآخرين في المشهد الاستراتيجي. ولكن من وجهة نظر هندسية، فإن Gemini Enterprise هو بلا شك مرحلة مهمة في منصات الذكاء الاصطناعي للمؤسسات، حيث يجمع بين أبحاث الذكاء الاصطناعي لجوجل وقدرات السحابة في عرض متكامل. وكما وصفه سوندار بيتشاي، فإنه مصمم ليكون “الباب الأمامي الجديد للذكاء الاصطناعي في مكان العمل”، حيث يجلب القوة الكاملة للذكاء الاصطناعي لجوجل لكل موظف بطريقة آمنة، سياقية، وقابلة للتوسع.

المصادر:

  • جوجل كلاود – ما هو جيميني إنتربرايز؟
  • جوجل كلاود – تقديم جيميني إنتربرايز (توماس كورين)
  • مدونة جوجل – إعلان جيميني إنتربرايز (س. بيتشاي، أكتوبر 2025)
  • رويترز – جوجل تطلق منصة الذكاء الاصطناعي جيميني إنتربرايز
  • مستندات جوجل كلاود – بطاقة نموذج جيميني 2.5 برو
  • تيم أي آي – فهم النماذج المختلفة لجيميني
  • منتدى ويندوز (إعادة نشر محلل) – منصة جيميني إنتربرايز الشاملة للذكاء الاصطناعي
  • سادا (شريك جوجل) – 5 أشياء يجب معرفتها عن جيميني إنتربرايز
  • دعم جوجل – العمل مع الأسئلة الشائعة لجيمينيsupport.google.com
  • جوجل كلاود – الامتثال والأمان (جيميني إنتربرايز)
  • مدونة جوجل ورك سبيس – شهادات تطبيق جيميني
  • آيفون في كندا – جيميني إنتربرايز يهدف إلى كوبيلايت/أوبن أي آي
Graduated from Emory University with a bachelor's degree and lived and worked in the United States for ten years. He has successively worked for private equity and venture capital institutions in the United States, and later joined the early-stage investment team of Qiji ZhenFund, where he has been engaged in long-term research on AIGC and Agent directions. In 2025, Macaron AI will be launched along with the founding team, dedicated to enhancing the daily life experience through technology.

Apply to become Macaron's first friends