توسيع نطاق الذكاء الاصطناعي من التجربة إلى الإنتاج: استراتيجيات النجاح نسخ 2
المؤلف: بوكسو لي في ماكارون
المقدمة: هناك قول شائع في عالم الذكاء الاصطناعي: "إثبات المفهوم سهل، لكن الإنتاج صعب." لقد تمكنت العديد من المنظمات من بناء نماذج أولية واعدة للذكاء الاصطناعي أو تشغيل مشاريع تجريبية في بيئات معزولة، فقط لتجدها تتوقف قبل أن تحقق تأثيرًا حقيقيًا على الأعمال. الأرقام مذهلة: وجدت شركة جارتنر أن فقط 48% من مشاريع الذكاء الاصطناعي تنتقل من النموذج الأولي إلى الإنتاج في المتوسط، وتستغرق تلك التي تفعل ذلك حوالي 8 أشهر للانتقال. وعلاوة على ذلك، يتوقعون أن ما لا يقل عن 30% من جميع مشاريع الذكاء الاصطناعي التوليدي سيتم التخلي عنها في مرحلة إثبات المفهوم بحلول عام 2025 بسبب مشاكل مثل جودة البيانات السيئة، نقص ضوابط المخاطر، تزايد التكاليف أو القيمة غير الواضحة. تتوافق هذه الأرقام مع أبحاث أخرى تشير إلى أن الغالبية العظمى من مبادرات الذكاء الاصطناعي تفشل في التوسع. باختصار، هناك مشكلة "الميل الأخير" مع الذكاء الاصطناعي: جسر الفجوة بين عرض ناجح في المختبر ونظام موثوق به يتم دمجه في العمليات اليومية.
لماذا يُعتبر توسيع نطاق الذكاء الاصطناعي تحديًا كبيرًا؟ أولاً، الانتقال من تجربة محدودة إلى بيئة إنتاجية يُدخل العديد من التعقيدات. في التجربة، قد يقوم فريق علم البيانات بتشغيل نموذج على مجموعة بيانات ثابتة ويظهر أنه يمكن أن يتنبأ أو يصنف بشكل جيد. ولكن في الإنتاج، قد يحتاج هذا النموذج إلى التعامل مع أحجام بيانات أكبر بكثير، تدفقات بيانات في الوقت الحقيقي، أو توزيعات بيانات جديدة لم تكن موجودة في التجربة. كما أن السياق التشغيلي مختلف - يجب أن تُغذي مخرجات النموذج في العمليات التجارية، أنظمة تكنولوجيا المعلومات، وأن تكون مفهومة ومستخدمة من قبل غير المتخصصين في علم البيانات. يجب أن يعمل بشكل موثوق، وغالبًا تحت متطلبات زمنية ضيقة أو على بنية تحتية اقتصادية. هذه المطالب تتطلب هندسة قوية (غالبًا تُسمى MLOps - عمليات تعلم الآلة) التي لا تزال العديد من المنظمات تسعى لفهمها. من الدلالات أن الشركات التي لديها معدلات فشل عالية في الذكاء الاصطناعي غالبًا ما تشير إلى نقص هذه الأنابيب. في إحدى الاستطلاعات، كان فقط حوالي 1 من كل 4 شركات لديها ممارسات أو أدوات MLOps ناضجة لإدارة النماذج، والذين لم يكن لديهم ذلك واجهوا صعوبة في الانتقال من أنظمة التجارب اليدوية.
تحدٍ آخر هو الحوكمة والمخاطر. خلال التجربة الأولية، يمكن قبول أن يرتكب النموذج أخطاء عرضية أو أن يتم التحقق من النتائج يدويًا. ولكن في الإنتاج، خاصة في المجالات الحساسة، يمكن أن تكون لقرارات الذكاء الاصطناعي عواقب حقيقية. في بيئة الإنتاج، يجب أن يلتزم نظام الذكاء الاصطناعي بالمعايير التنظيمية والأخلاقية، وأن يكون لديه وسائل أمان للأخطاء. العديد من مشاريع الذكاء الاصطناعي تتعثر في هذه المرحلة - يعمل النموذج، لكن المنظمة لا تشعر بالراحة في نشره على نطاق واسع دون ضمانات على الامتثال، والعدالة، والشفافية، إلخ. هذا هو أحد الأسباب التي جعلت ما يقرب من نصف المنظمات تحدد "عدم كفاية ضوابط المخاطر" كعائق رئيسي أمام توسيع حلول الذكاء الاصطناعي. إنهم يعلمون أن الخطأ في الإنتاج يمكن أن يكون مكلفًا أو ضارًا، لذا تبقى التجارب في حالة "تجريبية" دائمة ما لم تُعالج هذه المخاوف.
على الرغم من هذه العقبات، تمكنت مجموعة متزايدة من المنظمات من اجتياز التحول من المرحلة التجريبية إلى الإنتاج بنجاح. تجاربهم توفر دليلًا استراتيجيًا لتوسيع نطاق الذكاء الاصطناعي بفعالية:
١. صمم للإنتاج من اليوم الأول: الفرق التي تتوسع في نهاية المطاف غالبًا ما تقترب من الطيار بعقلية الإنتاج. هذا يعني استخدام مجموعات بيانات واقعية، والنظر في نقاط التكامل في وقت مبكر، وتحديد معايير النجاح المرتبطة بالنشر (وليس فقط مقاييس الدقة غير المتصلة بالإنترنت). على سبيل المثال، إذا كنت تقوم بتجربة ذكاء اصطناعي لأتمتة دعم العملاء، فقس ليس فقط دقته في الإجابة على الأسئلة، بل أيضًا كيف سيتم دمجه في نظام الدردشة الحية، وكيف سيتم تصعيد الأمور إلى الوكلاء البشر، وما إذا كان يمكنه التعامل مع الأحمال القصوى. من خلال التفكير في هذه الجوانب مبكرًا، تتجنب إنشاء إثبات مفهوم يعمل فقط في بيئة معزولة. إحدى أفضل الممارسات هي إشراك أفراد تكنولوجيا المعلومات/عمليات التطوير في المشروع الأولي للذكاء الاصطناعي جنبًا إلى جنب مع علماء البيانات. سيساهمون في أشياء مثل الأمان، السجلات، واجهات برمجة التطبيقات، والبنية التحتية لتشكيل حل يمكن نشره. من الحكمة أيضًا توثيق الافتراضات والمتطلبات أثناء التجربة (مثل "إعادة تدريب النموذج كل X أسبوعًا"، "يجب أن يكون الرد تحت ٢٠٠ مللي ثانية") حتى يعرف الجميع ما هو مطلوب لنشر الإنتاج. ٢. استثمر في بنية تحتية قابلة للتوسع وعمليات التعلم الآلي: أساس تقني قوي ضروري للذكاء الاصطناعي في الإنتاج. يتضمن ذلك:
- خطوط البيانات: خطوط تلقائية وقابلة للتوسع لجلب البيانات ومعالجتها وتغذيتها باستمرار للنظام الذكي. في بيئات الإنتاج، يمكن لانجراف البيانات أو فشل الخطوط أن يؤثر على أداء النموذج. يستخدم المتبنون الرائدون أدوات جدولة ومراقبة تدفق البيانات، لضمان حصول النموذج دائمًا على بيانات نظيفة وفي الوقت المناسب. كما يقومون بتحديد نسخ البيانات والحفاظ على مجموعات بيانات التدريب لضمان إمكانية إعادة تدريب النماذج عند الحاجة.
- نشر النماذج ومراقبتها: باستخدام أطر عمل MLOps، يتم نشر النماذج كجزء من عملية مراقبة؛ يعتبر استخدام الحاويات (مثل Docker/Kubernetes) أمرًا شائعًا لضمان الاتساق عبر البيئات المختلفة. بعد النشر، يتم مراقبة صحة النموذج - حيث يتم تتبع مقاييس مثل زمن الاستجابة، معدلات الخطأ، وتوزيعات التوقعات. إذا حدثت شذوذات (على سبيل المثال، إذا تغيرت توقعات النموذج فجأة)، يتم إطلاق إنذارات للمهندسين للتحقيق أو العودة إلى نسخة سابقة من النموذج. لوحات المعلومات التحليلية والضوابط الآلية تساعد في هذا - على سبيل المثال، قد تحتوي منصة مؤسسية على قاعدة لتنبيه تلقائي إذا انخفضت ثقة النموذج إلى ما دون عتبة معينة لفترة طويلة.
- التكامل المستمر/النشر المستمر (CI/CD) للذكاء الاصطناعي: التعامل مع نماذج الذكاء الاصطناعي مثل الكود في هندسة البرمجيات. يعني ذلك أن النسخ الجديدة للنماذج تخضع لاختبارات تلقائية (على بيانات محجوزة أو سيناريوهات محاكاة للإنتاج) قبل أن يتم نشرها، كما يوجد آلية للعودة إذا كان أداء النموذج الجديد ضعيفًا. بعض الفرق المتقدمة تمارس "النشر الظلي" حيث يعمل نموذج جديد بالتوازي مع النموذج القديم لمقارنة النتائج لفترة قبل التحول الكامل.
- بنية تحتية مرنة: استخدام خدمات السحابة أو بنية تحتية قابلة للتوسع للتعامل مع النمو. تبدأ العديد من الشركات بتجربة على خادم واحد أو جهاز محلي. للإنتاج، قد تحتاج إلى التوسع التلقائي على السحابة للتعامل مع الزيادات في الاستخدام. لحسن الحظ، تقدم خدمات السحابة الذكية الحديثة (مثل Google's Vertex AI أو Amazon Bedrock) حلولاً مُدارة لنشر وتوسيع النماذج، ومعالجة النسخ، وحتى تقديم تكرار متعدد المناطق. استخدام هذه الحلول يوفر الكثير من الجهد الهندسي. الخلاصة هي أن توسيع الذكاء الاصطناعي بموثوقية يتطلب مجموعة تقنية تتجاوز النموذج نفسه؛ تستثمر المنظمات الذكية في هذه المجموعة، إما ببناء أدوات مفتوحة المصدر أو الاستفادة من منصات MLOps التجارية.
- التأكيد على جودة البيانات وإعادة التدريب: العديد من التجارب هي واحدة فقط - يتم تدريب نموذج مرة واحدة على بيانات تاريخية وهذا كل شيء. في الإنتاج، ومع ذلك، البيانات تتطور باستمرار، ويمكن أن تصبح النماذج قديمة أو أقل دقة إذا لم يتم الحفاظ عليها. يتضمن توسيع الذكاء الاصطناعي بنجاح إعداد عمليات لإعادة تدريب النموذج أو التكيف بشكل دوري مع دخول بيانات جديدة. يمكن أن يكون ذلك إعادة تدريب شهرية، أو حتى تعلم مستمر إذا كان مناسبًا. من المهم أن تنفذ المنظمات خطوات التحقق لضمان أن النموذج المُعاد تدريبه هو بالفعل تحسن (وإذا لم يكن كذلك، فإنها تلتزم بالنسخة الأقدم حتى تُحَل المشاكل). ضمان وجود خط لجمع أو تصنيف البيانات الحقيقية من الإنتاج هو أيضًا ذو قيمة - على سبيل المثال، التقاط الحالات التي كان فيها النموذج غير مؤكد أو حيث اختلف مع الإنسان، وإعادة تلك إلى التدريب. تعتبر الشركات التي توسع الذكاء الاصطناعي أنها دورة حياة، وليست مشروعًا لمرة واحدة. يخصصون الموارد باستمرار لتنسيق "البيانات الجاهزة للذكاء الاصطناعي"، مراقبة انحراف البيانات، وتحسين جودة البيانات للنموذج. تشير غارتنر إلى أنه بحلول عام 2025، سيكون السبب الرئيسي للتخلي عن مشاريع GenAI هو ضعف جودة البيانات؛ يتوقع القادة هذا من خلال معالجة مشاكل البيانات مبكرًا وباستمرار.
- دمج الأمن والتحكم في الوصول والحكم: في وضع التجربة، قد يستخدم علماء البيانات امتيازات المدير، أوراق الاعتماد الثابتة، أو مجموعات البيانات العامة لجعل الأمور تعمل بسرعة. لكن نظام الذكاء الاصطناعي في الإنتاج يحتاج إلى الالتزام بمعايير الأمان والامتثال للمؤسسة. يعني ذلك التكامل مع أنظمة المصادقة، فرض التحكم في الوصول القائم على الأدوار (على سبيل المثال، يمكن لأشخاص معينين فقط الموافقة على تغييرات النموذج أو مشاهدة البيانات الحساسة)، وضمان حفظ سجلات التدقيق لأي قرارات مدفوعة بالذكاء الاصطناعي. مثال على أفضل الممارسات هو نهج StackAI، منصة أتمتة الذكاء الاصطناعي للمؤسسات، التي تضمن أن كل عملية عمل "آمنة، متوافقة، وخاضعة للحكم" بميزات مثل تكامل تسجيل الدخول الفردي (SSO)، التحكم في الوصول القائم على الأدوار (RBAC)، سجلات التدقيق، وحتى خيارات إقامة البيانات للمعلومات الحساسة. عند توسيع الذكاء الاصطناعي، يجب على الشركات العمل عن كثب مع فرق الأمن المعلوماتي والامتثال لإجراء تقييمات المخاطر وتنفيذ الضوابط اللازمة. هذا لا يمنع فقط حوادث الأمان الكارثية ولكن يبني أيضًا الثقة مع أصحاب المصلحة (الداخليين والخارجيين) بأن النظام الذكي مُدار بشكل جيد. يمتد الحكم أيضًا إلى وجود إطار عمل للذكاء الاصطناعي الأخلاقي - على سبيل المثال، توثيق كيفية اتخاذ النموذج للقرارات، وجود مسار تصعيد إذا أنتج الذكاء الاصطناعي نتيجة مشكوك فيها، ومراجعة تأثير الذكاء الاصطناعي على النتائج بانتظام (للتحقق من التحيز أو الأخطاء). هذه الإجراءات تضمن أنه عندما يتم توسيع نطاق الذكاء الاصطناعي، فإنه لا يزيد من المخاطر بشكل غير مقصود.
- تحسين وتكييف الأداء: قد لا يكون النموذج الذي يعمل في التجربة كفؤًا في استخدام الموارد أو سريعًا بما فيه الكفاية للاستخدام على نطاق واسع. غالبًا ما يتطلب التوسيع تحسين نموذج الذكاء الاصطناعي والبنية التحتية من أجل الأداء والتكلفة. يمكن أن يتضمن ذلك تقنيات مثل ضغط النموذج (مثل تقطير نموذج معقد كبير إلى نموذج أصغر)، استخدام استراتيجيات التخزين المؤقت، أو التبديل إلى أجهزة متخصصة (مثل وحدات معالجة الرسوميات أو وحدات معالجة المهام) للاستدلال. الشركات التي تنجح في نشر الذكاء الاصطناعي على نطاق واسع غالبًا ما تكرر في نموذجها لجعله أكثر رشاقة وأسرع بمجرد أن تلاحظ أنماط الاستخدام في العالم الحقيقي. كما أنها تولي اهتمامًا لمراقبة التكلفة - من السهل أن تتصاعد تكاليف السحابة أو رسوم استخدام API عندما يتم استخدام خدمة الذكاء الاصطناعي بشكل كبير. يساعد بناء لوحات معلومات التكلفة وحسابات العائد على الاستثمار في ضمان بقاء الحل الموسع اقتصاديًا. بشكل مشجع، انخفضت تكلفة الاستدلال بالذكاء الاصطناعي؛ على سبيل المثال، انخفضت تكلفة الحوسبة لتحقيق مستوى معين من أداء نماذج اللغة (قابلة للمقارنة بـ GPT-3.5) بنسبة 280× بين أواخر عام 2022 وأواخر عام 2024. بسبب تحسينات النموذج والأجهزة. يعني ذلك أن توسيع حل الذكاء الاصطناعي في عام 2025 قد يكون أرخص بكثير مما كان عليه قبل بضع سنوات فقط. ومع ذلك، فإن الإشراف هو المفتاح - تتبع المنظمات مقاييس مثل التكلفة لكل توقع أو استخدام الخادم، وتقوم بتحسين البنية التحتية حسب الحاجة (مثل إيقاف تشغيل مثيلات النموذج غير المستخدمة أو استخدام المعالجة المجمعة للمهام عالية الإنتاجية).
- التخطيط للإشراف البشري والاستمرارية: لا ينبغي نشر أي نظام ذكاء اصطناعي على نطاق واسع دون وضوح حول الأدوار البشرية في العملية. تحدد عمليات النشر الناجحة متى وكيف سيتدخل البشر أو يعززون الذكاء الاصطناعي. على سبيل المثال، قد تنشئ شركة تقوم بتوسيع مولد محتوى ذكاء اصطناعي للتسويق عملية عمل حيث يتم مراجعة المسودات التي يعدها الذكاء الاصطناعي من قبل محرر بشري قبل النشر. أو قد يقوم نظام ذكاء اصطناعي طبي بتحديد حالات عدم اليقين العالية للمراجعة اليدوية. بعيدًا عن كونها خطوة للخلف، فإن هذا النوع من الحماية البشرية هو في الغالب ما يجعل النشر الأوسع ممكنًا - فهو يعطي الثقة بأن الأخطاء لن تمر دون فحص. مع مرور الوقت، كما يثبت الذكاء الاصطناعي نفسه، يمكن تقليل مستوى الإشراف بشكل مناسب، ولكن من الحكمة البدء بشبكة أمان. بالإضافة إلى ذلك، تعين المنظمات ملكية واضحة لخدمة الذكاء الاصطناعي. في الإنتاج، يحتاج شخص ما (أو فريق ما) إلى أن يكون في وضع الاستعداد للنظام الذكي مثل أي برنامج حيوي آخر. تحديد من هو المسؤول عن صيانة الذكاء الاصطناعي، من يستجيب إذا حدث خطأ ما في الساعة 3 صباحًا، وكيف يتم جمع ومعالجة ملاحظات المستخدم سيضمن أن النظام لديه دعم مستمر. هذه الملكية التشغيلية هي المكان الذي يتعثر فيه العديد من التجارب - لم يكن لديهم "موطن" في قسم تكنولوجيا المعلومات أو الأعمال بمجرد أن انتهى فريق علوم البيانات من التجربة. غالبًا ما يتضمن التوسيع الناجح نقل الملكية من فريق بحث وتطوير بحت إلى فريق منتج أو تكنولوجيا المعلومات الذي سيعامل الحل الذكي كمنتج/خدمة دائمة.
الخلاصة: تحويل الحلول الذكية من مرحلة التجربة إلى الإنتاج يمثل تحدياً متعدد الأبعاد، ولكن يمكن مواجهته بالنهج والعقلية الصحيحة. تتبع المنظمات التي تنجح في ذلك نمطًا متكررًا: هي تعامل الحلول الذكية كمنتجات وليس كمشاريع. وهذا يعني البناء مع وضع المستخدم النهائي وطول الأمد في الاعتبار، واستثمار الجهد اللازم في الهندسة والحكم، والتحسين المستمر بعد النشر. كما يعني تجنب الوقوع في فخ "جحيم التجارب" من خلال الاستعداد للاستثمار فيما يتجاوز التجربة العلمية للبيانات – في التدريب والبنية التحتية وتغييرات العمليات – لتحقيق القيمة الفعلية في الميدان.
بالنسبة للشركات في الولايات المتحدة وآسيا على حد سواء، حيث تكون الضغوط التنافسية شديدة، فإن حل لغز التوسع يعد أمرًا حاسمًا. يمكن أن يعني الفرق بين بقاء الذكاء الاصطناعي كتجربة رائعة وبين أن يصبح محركًا أساسيًا للكفاءة أو الإيرادات. الجهد بالتأكيد ليس بسيطًا؛ كما رأينا، يتضمن مواجهة جاهزية البيانات، وتوسيع نطاق الهندسة، وجاهزية المنظمة في نفس الوقت. لكن العائد يستحق ذلك. عندما تقوم بنشر نظام ذكاء اصطناعي بنجاح يحسن، على سبيل المثال، الاحتفاظ بالعملاء من خلال عروض مخصصة تلقائية، أو يقلل من وقت تعطل التصنيع بنسبة 30٪ من خلال الصيانة التنبؤية، فإن هذا التأثير يؤثر على الأرباح ويمكن حتى أن يعيد تشكيل ديناميكيات السوق.
بشكل مشجع، فإن النظام البيئي حول توسيع نطاق الذكاء الاصطناعي ينضج. هناك الآن منصات وخدمات سحابية كاملة تهدف إلى تسهيل الطريق للإنتاج، مع وجود مجتمعات تشارك أفضل الممارسات في MLOps، ومكونات جاهزة للمراقبة والأمان وغير ذلك. شركات مثل Macaron AI قامت ببناء حلولها مع مراعاة القابلية للتوسع وثقة المستخدم من البداية، مما يظهر أن المنتجات الجديدة للذكاء الاصطناعي يتم بناؤها جاهزة للإنتاج افتراضيًا. كل هذه الاتجاهات تعني أن الشركات التي تبدأ في هذه الرحلة تحظى بدعم أكثر من أي وقت مضى.
باختصار، سد الفجوة بين التجربة والإنتاج في مجال الذكاء الاصطناعي يعتبر تحدياً لكنه ممكن التحقيق. من خلال التخطيط المبكر، بناء أسس قوية لإدارة عمليات تعلم الآلة، التركيز على البيانات والجودة، تأمين وحوكمة الحل، تحسين الأداء، وإبقاء البشر في الحلقة، يمكنك إعداد مشروع الذكاء الاصطناعي للنجاح في العالم الحقيقي. المؤسسات التي تتقن هذا ستتمكن من استغلال القيمة الحقيقية للذكاء الاصطناعي - الانتقال من العروض المثيرة إلى أنظمة قابلة للتوسع تحول طريقة عملها. أما الذين لا يفعلون ذلك، فسيجدون أنفسهم مع الكثير من "مشاريع معارض العلوم في الذكاء الاصطناعي" ولكن القليل ليظهر في النتائج النهائية. التوسع هو الخطوة الأخيرة التي تحول الوعد إلى عائد. مع الإرشادات السابقة، يمكن للمؤسسات التنقل في هذه الخطوة وضمان أن مبادرات الذكاء الاصطناعي تحقق النتائج التحويلية التي يأمل الجميع فيها.










