غالبًا ما يسأل قادة المخاطر والامتثال وفِرَق الأمن ومالكو الذكاء الاصطناعي هذين السؤالين: "هل يمكنني معرفة ما يفعله وكلاء الذكاء الاصطناعي بالضبط في بيئة الإنتاج؟" و"هل يمكنني الحصول على رؤية موحَّدة لحوكمة الذكاء الاصطناعي ووضعه الأمني؟".
مع watsonx.governance، الإجابة عن كِلا السؤالين الآن هي نعم.
معًا، ستوفر هذه الميزات حلًا شاملاً للثقة في الذكاء الاصطناعي -السياسات والحماية والأداء- دون الحاجة إلى مطاردة الجداول أو التنقل بين النوافذ.
تتجه المؤسسات نحو وكلاء الذكاء الاصطناعي باعتبارهم الحدود الجديدة للإنتاجية. على عكس النماذج التقليدية التي تكتفي بإنتاج المخرجات، يمكن للوكلاء اتخاذ الإجراءات مثل ربط المهام والاستفادة من أنظمة متعددة. ويُتيح هذا أتمتة سير العمل المتكرر وتسريع اتخاذ القرار وتمكين الفِرَق من التركيز على الأعمال الأعلى قيمة.
ولكن مع هذا الوعد تظهر مخاطر جديدة. يعمل الوكلاء بمستوى أعلى من الاستقلالية، ما يجعل من الصعب معرفة كيفية اتخاذ القرارات وضمان تصرُّفهم بالشكل المطلوب. المراقبة اليوم غالبًا ما تكون بطيئة ويدوية ومجزأة، ما يترك المطورين دون الأدوات اللازمة لبناء الثقة أو تتبُّع الأداء أو ضبط أنظمتهم بدقة. ودون بنية تحتية للحوكمة قابلة للتوسع، تواجه المؤسسات صعوبة في تقييم الذكاء الاصطناعي الوكيل والتحكم فيه وتوسيع نطاقه بثقة.
لمواجهة هذا التحدي، ستقدِّم watsonx.governance في الإصدارات القادمة ميزة مراقبة الوكلاء واستخلاص الرؤى في watsonx.governance. تعمل هذه القدرة الجديدة على مراقبة التطبيقات في الإنتاج. من خلال تتبُّع القرارات والسلوكيات والأداء في الوقت الفعلي، تُصدر Agent Insights تنبيهات عندما تتجاوز الرؤى العتبات. يُتيح ذلك الإدارة الاستباقية واستكشاف الأخطاء وإصلاحها بشكل أسرع وثقة أعلى في النتائج القائمة على الوكلاء.
قد يحاول وكيل الذكاء الاصطناعي المسؤول عن أتمتة المشتريات الموافقة على عقد مورِّد خارج نطاق صلاحياته. مع تفعيل المراقبة، يتم تمييز هذا الإجراء في الوقت الفعلي، ما يُتيح للفِرَق التحقيق وضبط السياسات أو تحسين الوكيل قبل أن يتسبب في مشكلات لاحقة.
غالبًا ما يُنظر إلى حوكمة الذكاء الاصطناعي وأمان الذكاء الاصطناعي كمسارين متوازيين من العمل. يتغير ذلك مع تكامل Guardium AI Security الجديد داخل وحدة تحكُّم watsonx.governance. يمكن لقادة المخاطر والامتثال الاطِّلاع على الوضع الأمني المباشر مباشرةً في المكان الذي يوافقون فيه على حالات الاستخدام ويديرونها.
يتم تسجيل وكيل الذكاء الاصطناعي الذي يدير تذاكر تكنولوجيا المعلومات ويتم تصنيفه حسب مستوى المخاطر في الحوكمة. يختبره Guardium باستمرار بحثًا عن إساءة الاستخدام أو التسرب. الآن، تظهر النتائج عالية الخطورة، وتواريخ الاختبارات الاختراقية، والمحاولات المحظورة مباشرة بجانب سجل المخاطر - ما يجعل عمليات الموافقة أسرع ومع معرفة كاملة بالسياق.
كِلتا الميزتين الجديدتين مستندتان إلى المبدأ نفسه: يجب أن يعمل برنامج الذكاء الاصطناعي الخاص بك على مصدر موحَّد ووحيد للبيانات. ستتطور مراقبة الوكلاء مع وجود كتالوج وكلاء مُحكم، وضوابط تحسين الأداء، وقابلية ملاحظة أكثر تفصيلًا لضمان موثوقية وكلاء الذكاء الاصطناعي ومسؤوليتهم وتوافقهم.
ستستمر مقاييس الأمان في التوسع لتشمل أكثر من مجرد الثغرات والتنبيهات، حيث ستشمل التكوينات الخطأ وتكاملات أعمق مع Guardium.
وستعملان معًا على جمع الأمان والحوكمة في مسار موحَّد؛ لتمكين المؤسسات من إدارة الذكاء الاصطناعي وتوسيع نطاقه بسرعة وأمان وثقة.
إذا كنت تستخدم watsonx.governance بالفعل، ترقَّب الإصدار واستعدّ لتفعيل هذه الميزات على أهم حالات استخدام الذكاء الاصطناعي لديك فور توفرها.
يمكن لفريق IBM الخاص بك مساعدتك على تحديد المسار الأنسب للمضي قدمًا، والاستعداد لبناء ذكاء اصطناعي محكم وآمن وموثوق به باستخدام هذه القدرات القادمة.
توسيع نطاق الذكاء الاصطناعي الموثوق به باستخدام watsonx.governance