تكشف تقديم طلب الاكتتاب العام لشركة Rubrik عن لجنة حكومة الذكاء الاصطناعي. تعتاد عليه.

تموأت في تقديم الاكتتاب العام لشركة Rubrik هذا الأسبوع - بين أجزاء العدد والبيانات المالية - كانت حصة تكشف عن كيفية تفكير شركة إدارة البيانات في الذكاء الاصطناعي الجيلي والمخاطر التي ترافق التقنية الجديدة: لقد أنشأت Rubrik بصمت لجنة حكومة للرقابة على كيفية تنفيذ الذكاء الاصطناعي في أعمالها.

وفقًا لنموذج S-1، تتضمن لجنة حكومة الذكاء الاصطناعي الجديدة مديرين من فرق الهندسة والمنتج والقانون وأمن المعلومات في Rubrik. ستقوم الفرق معًا بتقييم المخاطر القانونية والأمنية والتجارية المحتملة لاستخدام أدوات الذكاء الصناعي الجيلي والتأمل في 'الخطوات التي يمكن اتخاذها للتخفيف من أي مخاطر من هذا القبيل'، وتقول الصيغة.

للوضوح، Rubrik ليست شركة تعتمد على الذكاء الاصطناعي كجوهر لها - منتجها الوحيد للذكاء الاصطناعي، وهو روبي شاتبوت الذي أطلقته في نوفمبر 2023، يعتمد على واجهات برمجة تطبيقات مايكروسوفت وOpenAI. ولكن مثل الكثيرين الآخرين، يفكر Rubrik (والمستثمرون الحاليون والمستقبليون له) في مستقبل سيكون فيه للذكاء الاصطناعي دور متزايد في أعماله. إليك لماذا يجب أن نتوقع حركات أخرى مثل هذه مستقبلاً.

زيادة الضوابط التنظيمية

تقوم بعض الشركات بتبني ممارسات أفضل للاصطناعي لاتخاذ مبادرة، ولكن سيجبر البعض الآخر على القيام بذلك بواسطة تشريعات مثل قانون الذكاء الاصطناعي في الاتحاد الأوروبي.

تم تسمية 'أول قانون شامل للذكاء الصناعي في العالم'، التشريعات النموذجية - المتوقع أن تصبح قانونًا في الكتلة في وقت لاحق من هذا العام - تحظر بعض حالات استخدام الذكاء الاصطناعي التي يُعتبر أنها تشكل 'مخاطر لا يمكن قبولها'، وتعرف تطبيقات 'المخاطر العالية' الأخرى. كما تحدد المشروع قواعد الحكم تهدف إلى تقليل المخاطر التي قد تتسبب في زيادة الأضرار مثل التحيز والتمييز. من المرجح أن يتم تبني هذا النهج الذي يقيم المخاطر على نطاق واسع من قبل الشركات الباحثة عن طريق مُعتدل لاتخاذ الذكاء الصناعي.

يتوقع المحامي المختص في الخصوصية وحماية البيانات إدواردو أوستاران، شريك في شركة Hogan Lovells International LLP، أن يعزز قانون الذكاء الاصطناعي في الاتحاد الأوروبي والتزاماته المتعددة الحاجة إلى حكومة AI، وهو ما سيتطلب بدوره لجانا. 'بخلاف دورها الاستراتيجي لوضع برنامج حكومة AI والإشراف عليه، من منظور تشغيلي، تعتبر لجان حكومة الذكاء الاصطناعي أداة رئيسية في معالجة وتقليل المخاطر'، قال. 'وذلك لأن اللجان المؤسسة بشكل سليم وبموارد كافية يجب أن تكون قادرة على التنبؤ بجميع مجالات المخاطر والعمل مع الأعمال للتعامل معها قبل أن تتجسد. من ناحية، ستكون لجنة حكومة الذكاء الاصطناعي أساسًا لجميع الجهود الأخرى للحكومة وتوفير الضمانات اللازمة لتجنب الثغرات في التصميم'.

في ورقة سياسية حديثة حول تداعيات قانون الذكاء الاصطناعي في الاتحاد الأوروبي على حوكمة الشركات، أكدتاستشارية ESG والامتثال كاثرينا ميللر على تأسيس الشركات لجان حكومة AI كإجراء امتثال.

فحص قانوني

الامتثال ليس مقصورًا على إرضاء الجهات التنظيمية. للقانون الأوروبي للذكاء الاصطناعي أسنان، و'العقوبات على عدم الامتثال لقانون الذكاء الاصطناعي ذات أهمية'، حسبما لاحظت شركة المحاماة البريطانية الأمريكية نورتون روز فولبرايت.

يتجاوز نطاقه أيضًا خارج أوروبا. 'قد تخضع الشركات التي تعمل خارج إقليم الاتحاد الأوروبي لأحكام قانون الذكاء الاصطناعي إذا قامت بأنشطة تتعلق بالذكاء الاصطناعي تشمل المستخدمين أو البيانات الأوروبيين'، حذرت الشركة القانونية. إذا كان يُظهر شيء ما شبيهاً بلائحة الحماية العامة للبيانات، فإن التشريع سيكون له تأثير عالمي، خاصة في ظل التعاون المتزايد بين الاتحاد الأوروبي والولايات المتحدة على الذكاء الاصطناعي'.

يمكن أن تضع أدوات الذكاء الاصطناعي الشركة في مشاكل خارج الأخرى. رفض Rubrik مشاركة التعليقات مع TechCrunch، على الأرجح بسبب فترة صمتها العامة للاكتتاب العام، ولكن يذكر التقرير الخاص بالشركة أن لجنة حكومة الذكاء الاصطناعي تقيم مجموعة واسعة من المخاطر.

تشمل معايير الاختيار والتحليل النظر في كيفية استخدام أدوات الذكاء الصناعي الجيلية يمكن أن يثير مسائل تتعلق بالمعلومات السرية والبيانات الشخصية والخصوصية وبيانات العملاء والالتزامات العقدية، وبرامج مصدر مفتوح، وحقوق الملكية الفكرية والأخرى، والشفافية، ودقة وموثوقية الناتج، والأمان.

عليك أن تضع في اعتبارك أن رغبة Rubrik في تغطية القواعد القانونية يمكن أن يرجع إلى مجموعة متنوعة من الأسباب الأخرى. قد يكون، على سبيل المثال، أيضًا هناك لإظهار أنه يتوقع المسائل بشكل مسؤول، وهو أمر حيوي نظرًا لأن Rubrik تعاملت سابقاً ليس فقط مع تسريب بيانات وقرصنة، ولكن أيضًا مع دعاوى بخصوص الملكية الفكرية.

مسألة بصرية

لن تنظر الشركات باستخدام الذكاء الصناعي على نطاق تجنب المخاطر فقط. سيوجد فرص يريدها هم وعملاؤهم ألا يفوتونها. هذا هو سبب تنفيذ أدوات الذكاء الجيلي على الرغم من وجود عيوب واضحة مثل 'الهلوسات' (أي انحياز لتزوير المعلومات).

ستكون هناك توازنًا دقيقًا يجب على الشركات تحقيقه. من جهة، يمكن أن يعزز الاعتراف بتوظيفهم للذكاء الصناعي تقييماتهم المالية، بغض النظر عن مدى حقيقة استخدامهم للذكاء الصناعي أو عن أي فرق يحرزونها لخط القاع. ومن ناحية أخرى، سيتعين عليهم أن يطمئنوا العقول بشأن المخاطر المحتملة.

'نحن في هذه النقطة الرئيسية من تطور الذكاء الاصطناعي حيث يعتمد مستقبل الذكاء الاصطناعي بشكل كبير على ما إذا كان الجمهور سيثق بالنظم الذكية والشركات التي تستخدمها'، كتب مستشار الخصوصية في مزود برامج الخصوصية والأمان Adomas Siudika في مدونة عن هذا الموضوع.

من المحتمل أن تكون إنشاء لجان حكومة AI على الأقل واحدة من الطرق لمحاولة المساعدة على جب الثقة.