مال و أعمال

NRI Secure تطلق AI Blue Team، وهي خدمة مراقبة أمنية للأنظمة التي تستخدم الذكاء الاصطناعي التوليدي بواسطة Investing.com



طوكيو – (بزنيس واير): أطلقت شركة “إن آر آي سيكيور تكنولوجيز” المحدودة (المكتب الرئيسي: تشيودا وارد، طوكيو؛ الرئيس: شونيتشي تاتيواكي، “إن آر آي سيكيور”)، اليوم خدمة جديدة تحمل اسم “AI Blue Team، وهي خدمة توفر الأمن مراقبة الأنظمة التي تستخدم الذكاء الاصطناعي التوليدي.

يتميز هذا البيان الصحفي بالوسائط المتعددة. شاهد الإصدار الكامل هنا: https://www.businesswire.com/news/home/20240708670268/en/

شكل. إجراءات مشتركة بين الفريق الأزرق للذكاء الاصطناعي والفريق الأحمر للذكاء الاصطناعي لتعزيز أمن الأنظمة التي تستخدم الذكاء الاصطناعي (الرسم البياني: بزنيس واير)

استخدام AI Blue Team بالاشتراك مع AI Red Team، وهي خدمة تقييم الأمان التي تم إصدارها في ديسمبر 2023، تحدد نقاط الضعف الحالية الخاصة بالنظام، مما يتيح مراقبة شاملة ومستمرة للتدابير الأمنية على الأنظمة التي تستخدم نماذج اللغات الكبيرة (LLM). []1 []2

المخاطر التي يطرحها الذكاء الاصطناعي التوليدي

في السنوات الأخيرة، تزايد استخدام الذكاء الاصطناعي في مختلف المجالات. مع قيام المزيد من المنصات بتطبيق الذكاء الاصطناعي بطرق مبتكرة، تظهر نقاط ضعف جديدة خاصة بتطورات الذكاء الاصطناعي.

مع زيادة استخدام الذكاء الاصطناعي التوليدي ونماذج اللغات الكبيرة (LLMs) في الخدمات الناشئة، وخاصة تلك التي تركز على الكفاءة التشغيلية، يجب اتخاذ اعتبارات خاصة وتدابير أمنية جديدة. تواجه LLM عددًا كبيرًا من التهديدات مثل الحقن الفوري، والتسرب الفوري، والهلوسة، والكشف عن المعلومات الحساسة، ومخاطر التحيز، وإخراج المحتوى غير المناسب []3 []4 []5 []6

نظرة عامة ومميزات فريق AI Blue

تولي NRI Secure أهمية قصوى للكشف الدقيق عن نقاط الضعف والمخاطر المرتبطة بها، وعلى التراكم المستمر لمعلومات التهديدات، والمعلومات التي تم جمعها وتحليلها حول التهديدات الأمنية لتطبيقها في عمليات المراقبة. ومع جمع المزيد من معلومات التهديدات وتحليلها ومعالجتها، يستطيع فريق AI Blue Team الاستجابة لتقنيات الهجوم الجديدة ونقاط الضعف المكتشفة بدقة متزايدة. من خلال إقران خدمة AI Blue Team مع خدمة AI Red Team، يمكن جمع معلومات التهديدات المتخصصة من الأنظمة التي تستخدم الذكاء الاصطناعي التوليدي. الغرض من هذه الخدمة هو دعم إدارة المخاطر المرتبطة بـ LLM من خلال المراقبة المستمرة، حتى تتمكن الشركات والمؤسسات من التركيز على تحسين الكفاءة التشغيلية وتحويل الأعمال باستخدام LLM بشكل آمن.

قبل تقديم فريق الذكاء الاصطناعي الأزرق إلى مؤسسة جديدة، يتم إجراء تقييم خدمة فريق الذكاء الاصطناعي الأحمر أولاً. ومن خلال تطبيق المعلومات التي تم جمعها من نتائج تقييم خدمة الفريق الأحمر للذكاء الاصطناعي على نظام العميل على خدمة الفريق الأزرق للذكاء الاصطناعي، يمكن اتخاذ تدابير مضادة فعالة ضد التهديدات التي يصعب التعامل معها باستخدام حلول دفاع الذكاء الاصطناعي الأخرى. السمتان الرئيسيتان لهذه الخدمة هما كما يلي.

1. تجنب مخاطر الذكاء الاصطناعي واسعة الانتشار والجديدة من خلال المراقبة المستمرة لأنظمة الذكاء الاصطناعي التوليدية

ترتبط المعلومات المتعلقة بالإدخال/الإخراج بين Geneative AI والنظام المبني عليه بواجهات برمجة التطبيقات الخاصة بالاكتشاف التي توفرها خدمة AI Blue Team Service. عند اكتشاف مدخلات/مخرجات ضارة، يتم إخطار الأطراف المناسبة داخل المؤسسة التي تستخدم خدمة AI Blue Team Service. []7

بالإضافة إلى المراقبة والاستجابة للتهديدات الخاصة بـ LLMs، يقوم محللو NRI Secure بدراسة اتجاهات الهجوم بعناية من نتائج التقييم لتجميع معلومات التهديدات، وبالتالي الاستجابة بشكل أكثر فعالية للتهديدات الناشئة وأساليب الهجوم وتوفير تحديثات وتحسينات مستمرة لفريق AI Blue. خدمة. يمكن أيضًا للعميل الوصول إلى لوحة معلومات المراقبة التي يراجعها ويراقبها محلل NRI Secure باستخدام AI Blue Team Service، لذلك من الممكن تأكيد حالة الاكتشاف مباشرة من قبل كلا الطرفين في الوقت الفعلي.

2. الدفاع ضد الثغرات الأمنية الخاصة بالنظام التي اكتشفها فريق الذكاء الاصطناعي الأحمر وتعزيز الحماية

في مجال تطوير الأنظمة التي تستخدم الذكاء الاصطناعي التوليدي، يمكن إدخال نقاط ضعف خاصة بالنظام اعتمادًا على طرق استخدام الذكاء الاصطناعي ومستويات تفويض السلطة. لا يمكن معالجة هذه الأنواع من نقاط الضعف من خلال حلول دفاعية عامة وتتطلب إجراءات مضادة فردية.

استجابةً لنقاط الضعف المحددة في نظام الذكاء الاصطناعي التي تم اكتشافها من خلال التقييمات الأمنية لخدمة الفريق الأحمر للذكاء الاصطناعي، تقوم خدمة الفريق الأزرق للذكاء الاصطناعي بتجميع معلومات التهديدات، سواء الخاصة بالعميل، بالإضافة إلى معلومات التهديدات ذات الأغراض العامة، لتخصيص وتنفيذ معظم المعلومات المتعلقة بالتهديدات. تدابير أمنية فعالة. ومن المتوقع أن يؤدي هذا النهج المخصص إلى تعزيز مستوى الحماية لنظام العميل بأكمله من خلال حماية هذا النظام من التهديدات والهجمات المتخصصة، ومن استغلال نقاط الضعف الكامنة والكامنة.

لمزيد من المعلومات حول هذه الخدمة، يرجى زيارة https://www.nri-secure.com/security-solutions/ai-blue-team-service

سوف تستمر NRI Secure في تقديم مجموعة متنوعة من المنتجات والخدمات لدعم إجراءات أمن المعلومات الخاصة بالشركات والمنظمات، للمساهمة في تحقيق بيئة ومجتمع آمنين لنظام المعلومات.

1 فريق الذكاء الاصطناعي الأحمر: خدمة تقييم الأمان للأنظمة والخدمات الجديدة التي تستخدم الذكاء الاصطناعي التوليدي. راجع الموقع التالي لمزيد من المعلومات. https://www.nri-secure.com/service/assessment/ai-red-team
2 نموذج اللغة الكبير (LLM): نموذج معالجة لغة طبيعية تم تدريبه على كميات كبيرة من البيانات النصية.
3 الحقن الفوري: محاولة أحد المهاجمين للتلاعب بالمدخلات تطالبك بالحصول على معلومات غير متوقعة أو غير مناسبة من النموذج.
4 التسرب الفوري: محاولة أحد المهاجمين للتلاعب بالمدخلات تطالب بسرقة التوجيهات أو المعلومات الحساسة المحددة أصلاً في LLM.
5 الهلوسة: الظاهرة التي يقوم فيها الذكاء الاصطناعي بتوليد معلومات غير حقيقية.
6 خطر التحيز: الظاهرة التي يؤدي فيها التحيز في بيانات التدريب أو تصميم الخوارزميات إلى اتخاذ قرارات أو تنبؤات متحيزة.
7 برمجة التطبيقات واجهه المستخدم (NASDAQ:) (API): تقنية تجعل بعض ميزات البرنامج متاحة لبرامج أخرى.

استفسارات وسائل الإعلام:
العلاقات العامة، NRI SecureTechnologies, Ltd.
البريد الإلكتروني: info@nri-secure.com

المصدر: NRI SecureTechnologies, Ltd.



اعلانات الباك لينك

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى