مراقبة الوكلاء والتحليلات بالإضافة إلى مقاييس الأمان في watsonx.governance.

شخصان يجلسان على مكتب وينظران إلى كمبيوتر محمول، مع نافذة تطل على المدينة في الخلفية.

مؤلف

Neil Leblanc

watsonx.governance Go-To-Market Lead

IBM

غالبًا ما يسأل قادة المخاطر والامتثال وفِرَق الأمن ومالكو الذكاء الاصطناعي هذين السؤالين: "هل يمكنني معرفة ما يفعله وكلاء الذكاء الاصطناعي بالضبط في بيئة الإنتاج؟" و"هل يمكنني الحصول على رؤية موحَّدة لحوكمة الذكاء الاصطناعي ووضعه الأمني؟".

مع watsonx.governance، الإجابة عن كِلا السؤالين الآن هي نعم.

  1. مراقبة الوكلاء والرؤى: منح المؤسسات رؤية واضحة لسلوكيات وإجراءات وقرارات الذكاء الاصطناعي الوكيل في الإنتاج.
  2. المقاييس الأمنية في وحدة تحكُّم الحوكمة: دمج رؤى Guardium AI Security مباشرةً في سير عمل الحوكمة الخاص بك.

معًا، ستوفر هذه الميزات حلًا شاملاً للثقة في الذكاء الاصطناعي -السياسات والحماية والأداء- دون الحاجة إلى مطاردة الجداول أو التنقل بين النوافذ.

مراقبة الوكلاء: ضمان شفافية الوكلاء ونشرهم بثقة

تتجه المؤسسات نحو وكلاء الذكاء الاصطناعي باعتبارهم الحدود الجديدة للإنتاجية. على عكس النماذج التقليدية التي تكتفي بإنتاج المخرجات، يمكن للوكلاء اتخاذ الإجراءات مثل ربط المهام والاستفادة من أنظمة متعددة. ويُتيح هذا أتمتة سير العمل المتكرر وتسريع اتخاذ القرار وتمكين الفِرَق من التركيز على الأعمال الأعلى قيمة.

ولكن مع هذا الوعد تظهر مخاطر جديدة. يعمل الوكلاء بمستوى أعلى من الاستقلالية، ما يجعل من الصعب معرفة كيفية اتخاذ القرارات وضمان تصرُّفهم بالشكل المطلوب. المراقبة اليوم غالبًا ما تكون بطيئة ويدوية ومجزأة، ما يترك المطورين دون الأدوات اللازمة لبناء الثقة أو تتبُّع الأداء أو ضبط أنظمتهم بدقة. ودون بنية تحتية للحوكمة قابلة للتوسع، تواجه المؤسسات صعوبة في تقييم الذكاء الاصطناعي الوكيل والتحكم فيه وتوسيع نطاقه بثقة.

لمواجهة هذا التحدي، ستقدِّم watsonx.governance في الإصدارات القادمة ميزة مراقبة الوكلاء واستخلاص الرؤى في watsonx.governance. تعمل هذه القدرة الجديدة على مراقبة التطبيقات في الإنتاج. من خلال تتبُّع القرارات والسلوكيات والأداء في الوقت الفعلي، تُصدر Agent Insights تنبيهات عندما تتجاوز الرؤى العتبات. يُتيح ذلك الإدارة الاستباقية واستكشاف الأخطاء وإصلاحها بشكل أسرع وثقة أعلى في النتائج القائمة على الوكلاء.

أبرز التحسينات في حوكمة الوكلاء

  • التقييمات داخل الحلقة: مقاييس محدَّثة لتقييم أداء وكلاء الذكاء الاصطناعي بدقة (من حيث الجودة والسلوك). يوفر هذا الأمر الوقت من خلال زيادة الكفاءة، عبر عرض جميع مقاييس الأداء مجمَّعة على مستوى المحادثة والتفاعل والأداة في مكان واحد، ما يقدِّم صورة كاملة عن أداء الوكلاء. 
  • تعزيز الجودة والدقة: في الربع الأول من عام 2026، سنقدِّم رؤى قابلة للتنفيذ من خلال تحليل السبب الأساسي. سيساعد هذا الفرق على قياس ما ينجح، ومقارنة الأداء على مدار الوقت، وتحسين الذكاء الاصطناعي والوكلاء وضبطهم بشكل مستمر.
  • تتبُّع التجارب في الوقت الحقيقي: تقييم ومقارنة عدة محاولات لتطبيقاتك القائمة على الوكلاء، مع جمع جميع التغييرات والمقاييس والمخرجات في مكان واحد. لا يؤدي هذا إلى تسريع الوقت اللازم للإنتاج -من خلال توفير هيكلية ورؤية واضحة لعملية تطوير الوكلاء مع جميع التغييرات والمقاييس والمخرجات- فحسب، بل يُسهم أيضًا في تحسين الكفاءة، ما يقلل من الضوضاء من خلال التركيز فقط على المقاييس الأكثر أهمية لمشروعك من خلال تصنيفات مخصصة مصممة خصيصًا لمقاييس نجاح مشروعك - ما يضمن اتخاذ قرارات أسرع وتحقيق أداء محسَّن للوكلاء.
  • التقارير: لوحات معلومات مدمجة وتنبيهات آلية عند خروج وكلاء الذكاء الاصطناعي عن نطاق التشغيل المقصود، لمساعدة الفِرَق على اختبار الوكلاء واعتمادهم وتوسيع نطاقهم بسرعة أكبر. ويضمن ذلك القدرة على الإدارة الاستباقية عبر لوحة معلومات تحليلات الوكلاء (Agent Insights Dashboard)، مع متابعة وتحليل توجهات الأداء مع مرور الوقت. كما أنه يقلل من المخاطر في الوقت الفعلي، ويزيد الثقة من خلال التأكد من إشعارك فورًا إذا ارتكب وكيل خطأ أو أخطأ في المعلومات، ما يُتيح التدخل والتصحيح في الوقت المناسب.

كيف يساعدك

  • يحصل مسؤولو المخاطر والامتثال على الطمأنينة بأن الوكلاء يلتزمون بالنطاق المعتمد، وأن القرارات قابلة للتدقيق.
  • يساعد فِرَق عمليات الذكاء الاصطناعي/التعلم الآلي والمطورين على حل استكشاف المشكلات وإصلاحها بسرعة أكبر وتحسين الكفاءة وضمان نتائج موثوق بها.
  • يحصل قادة الأعمال على ثقة أكبر لتوسيع برامج الذكاء الاصطناعي الوكيل بمسؤولية، وتحقيق أقصى عائد استثمار.

مثال من العالم الحقيقي:

قد يحاول وكيل الذكاء الاصطناعي المسؤول عن أتمتة المشتريات الموافقة على عقد مورِّد خارج نطاق صلاحياته. مع تفعيل المراقبة، يتم تمييز هذا الإجراء في الوقت الفعلي، ما يُتيح للفِرَق التحقيق وضبط السياسات أو تحسين الوكيل قبل أن يتسبب في مشكلات لاحقة.

مقاييس الأمان: تعرَّف على المخاطر، واتخِذ القرار بشكل أسرع

غالبًا ما يُنظر إلى حوكمة الذكاء الاصطناعي وأمان الذكاء الاصطناعي كمسارين متوازيين من العمل. يتغير ذلك مع تكامل Guardium AI Security الجديد داخل وحدة تحكُّم watsonx.governance. يمكن لقادة المخاطر والامتثال الاطِّلاع على الوضع الأمني المباشر مباشرةً في المكان الذي يوافقون فيه على حالات الاستخدام ويديرونها.

الطرق التي نجمع بها بين الحوكمة والأمن معًا:

  • لوحة أمان لكل حالة استخدام: تعرض كل حالة استخدام للذكاء الاصطناعي بطاقة أمان مختصرة تشمل نتائج فحص الثغرات والاختبارات الاختراقية، والكشف في الوقت الفعلي (مثل محاولات حقن المطالبات)، وتوجهات الأداء على مدى 7 أيام و30 يومًا.
  • لوحة معلومات الأمان على مستوى البرنامج: عرض تجميعي عبر حالات الاستخدام، والنتائج المفتوحة حسب الخطورة، ونشاط الهجوم بمرور الوقت، وحالة المعالجة.
  • خارطة طريق لتوسيع التغطية: تركِّز مقاييس اليوم الأول على الثغرات، والاختبارات الاختراقية، والتنبيهات، مع إضافة التكوينات الخطأ وإشارات أخرى قريبًا.

كيف يساعدك:

  • يُتيح للفرق المختصة بالمخاطر والامتثال تسريع التقييمات من خلال بيانات الأمان المباشرة التي تمنح رؤية فورية للثغرات الحرجة.
  • يمكن للفِرَق الأمنية التي تستخدم Guardium للاكتشاف المتعمق والحماية مشاركة المقاييس الأساسية بسهولة مع الأطراف المعنية في حوكمة الذكاء الاصطناعي. يرى مالكو الذكاء الاصطناعي مقاييس قابلة للتنفيذ مرتبطة بحالات الاستخدام الخاصة بهم، ما يوفر رؤية كاملة للثغرات الأمنية والمخاطر التي تجب معالجتها.

مثال من العالم الحقيقي:

يتم تسجيل وكيل الذكاء الاصطناعي الذي يدير تذاكر تكنولوجيا المعلومات ويتم تصنيفه حسب مستوى المخاطر في الحوكمة. يختبره Guardium باستمرار بحثًا عن إساءة الاستخدام أو التسرب. الآن، تظهر النتائج عالية الخطورة، وتواريخ الاختبارات الاختراقية، والمحاولات المحظورة مباشرة بجانب سجل المخاطر - ما يجعل عمليات الموافقة أسرع ومع معرفة كاملة بالسياق.

خارطة طريق واحدة، مصدر واحد للحقيقة

كِلتا الميزتين الجديدتين مستندتان إلى المبدأ نفسه: يجب أن يعمل برنامج الذكاء الاصطناعي الخاص بك على مصدر موحَّد ووحيد للبيانات. ستتطور مراقبة الوكلاء مع وجود كتالوج وكلاء مُحكم، وضوابط تحسين الأداء، وقابلية ملاحظة أكثر تفصيلًا لضمان موثوقية وكلاء الذكاء الاصطناعي ومسؤوليتهم وتوافقهم.

ستستمر مقاييس الأمان في التوسع لتشمل أكثر من مجرد الثغرات والتنبيهات، حيث ستشمل التكوينات الخطأ وتكاملات أعمق مع Guardium.

وستعملان معًا على جمع الأمان والحوكمة في مسار موحَّد؛ لتمكين المؤسسات من إدارة الذكاء الاصطناعي وتوسيع نطاقه بسرعة وأمان وثقة.

الاستعداد لبناء ذكاء اصطناعي محكم وآمن وجدير بالثقة

إذا كنت تستخدم watsonx.governance بالفعل، ترقَّب الإصدار واستعدّ لتفعيل هذه الميزات على أهم حالات استخدام الذكاء الاصطناعي لديك فور توفرها.

 يمكن لفريق IBM الخاص بك مساعدتك على تحديد المسار الأنسب للمضي قدمًا، والاستعداد لبناء ذكاء اصطناعي محكم وآمن وموثوق به باستخدام هذه القدرات القادمة.

توسيع نطاق الذكاء الاصطناعي الموثوق به باستخدام watsonx.governance