مدونة أخلاقيات الذكاء الاصطناعي الخاصة بمجموعة "ليجي" و"سانديك من ليجي

 
 

جدول المحتويات

 

ملاحظة: إذا ظهر الدليل التلقائي فارغًا، يُرجى النقر بزر الماوس الأيمن في Word → "تحديث الحقل".

 

 
 
 

1 - الديباجة ونطاق التطبيق

تحدد هذه المدونة المبادئ والعمليات والضوابط الملزمة لتطوير ومشتريات وتشغيل واستخدام الذكاء الاصطناعي في مجموعة LEGIER. وهي تنطبق على مستوى المجموعة على الموظفين والمديرين ومعالجي العقود والموردين والشركاء.

وهي تدمج المبادئ التوجيهية الحالية للمجموعة (حماية البيانات، وعمليات الخدمات الرقمية، والحوكمة المؤسسية، والاستدامة، وسياسة حقوق الإنسان، وبيان الرق الحديث) وتوسعها لتشمل المتطلبات الخاصة بالذكاء الاصطناعي.

 

الهدف هو تمكين الفوائد والابتكار، وجعل المخاطر قابلة للإدارة وحماية حقوق المستخدمين والعملاء وعامة الناس.

 

2- القيم الأساسية والمبادئ التوجيهية

 

  • الكرامة الإنسانية والحقوق الأساسية الوقوف فوق الكفاءة الاقتصادية. الذكاء الاصطناعي يخدم الناس - وليس العكس.
  • المطابقة القانونية: الامتثال لـ قانون الاتحاد الأوروبي للذكاء الاصطناعياللائحة العامة لحماية البيانات العامةإدارة الشؤون الإدارية والمعايير الخاصة بالقطاع. عدم استخدام الممارسات المحظورة.
  • المسؤولية والمساءلة: يتم تعيين مالك مسؤول عن كل نظام ذكاء اصطناعي؛ وتكون القرارات قابلة للتتبع والطعن.
  • التناسب: التوازن بين الغرض والمخاطر وكثافة التدخل والأثر الاجتماعي.
  • الشفافية والتفسير: معلومات ووثائق وقنوات اتصال كافية حول الوظائف وحالات البيانات والقيود المفروضة على البيانات.
  • الإنصاف والشمول: اختبار التحيز المنهجي، وحماية الفئات الضعيفة، وإمكانية الوصول، وتعدد اللغات.
  • الأمان والمرونة: الأمان حسب التصميم، والدفاع المتعمق، والتقوية والمراقبة المستمرة.
  • الاستدامة: كفاءة النماذج ومراكز البيانات (الطاقة، PUE/CFE)، عرض دورة حياة البيانات/النماذج.
 
 

3. الحوكمة والمسؤوليات (مجلس أخلاقيات الذكاء الاصطناعي، RACI)

 

مجلس أخلاقيات الذكاء الاصطناعي (AIEB): متعدد التخصصات (التقنية، والقانونية/الامتثال، وحماية البيانات، والأمن، والتحرير/المنتج، والأفراد). المهام: تحديث السياسات، وإصدار الموافقات (خاصةً عالية المخاطر)، والبت في التعارضات، ومراقبة التقارير.

الأدوار: مالك حالة الاستخدام، ومالك النموذج، ومشرف البيانات، ومشرف البيانات، ومسؤول حماية البيانات، ومسؤول الأمان، والمحرر المسؤول، ومالك الخدمة، ومسؤول المشتريات.

اللجان والبوابات: موافقة الوكالة الدولية للطاقة الذرية قبل بدء التشغيل؛ المجلس الاستشاري للتغييرات الجوهرية؛ المراجعات الإدارية السنوية.

مبدأ RACI: تحديد واضح للمسؤولية عن كل نشاط (مسؤول، خاضع للمساءلة، استشاري، مطلع).

 

4 - الإطار القانوني والتوحيد القياسي (قانون الاتحاد الأوروبي للذكاء الاصطناعي، واللائحة العامة لحماية البيانات، وقانون حقوق النشر، والقانون التجاري)

 
  • قانون الاتحاد الأوروبي للذكاء الاصطناعي: إطار عمل قائم على المخاطر مع محظورات والتزامات للأنظمة عالية المخاطر والتوثيق والتسجيل والحوكمة والتزامات الشفافية؛ التطبيق المتدرج اعتبارًا من 2025/2026.
  • الناتج المحلي الإجمالي: الأسس القانونية (المادة 6/9)، وحقوق أصحاب البيانات، والخصوصية حسب التصميم/التقصير، وتقييم أثر حماية البيانات، وعمليات النقل إلى بلد ثالث (المادة 44 وما يليها).
  • DSA: عمليات المنصة للإخطار، والشكاوى، وتقارير الشفافية، وتقييمات المخاطر للمنصات الكبيرة.
  • حقوق النشر والحقوق المجاورة/الحقوق الشخصية: سلاسل تراخيص واضحة، حقوق الصورة/الاسم، حقوق ملكية طرف ثالث.
  • المتطلبات الخاصة بالصناعة (مثل قانون الطيران/القانون البحري/الصحة) يجب الامتثال له أيضاً.
 

5. تصنيف المخاطر وتقييم أثر الذكاء الاصطناعي (AIIA)

 
 

التصنيف:

  1. الممارسات المحظورة (غير مسموح بها)
  2. الأنظمة عالية المخاطر (التزامات صارمة)
  3. مخاطر محدودة (الشفافية)
  4. تقليل المخاطر إلى الحد الأدنى

إجراء AIIA: الوصف الغرض/النطاق، وأصحاب المصلحة، والأساس القانوني، ومصادر البيانات، وتحليل المخاطر (القانونية، والأخلاقية، والسلامة، والتحيز، والأثر البيئي)، وخطة التخفيف، والقرار (موافقة مجلس الصناعة والتجارة الخارجية).

إعادة التقييمات: بالنسبة للتغييرات الجوهرية، سنويًا بالنسبة للتغييرات عالية المخاطر؛ التوثيق في السجل المركزي.

 

6. أخلاقيات البيانات وحماية البيانات (الأساس القانوني، تقييم الأثر البيئي، ملفات تعريف الارتباط، البلد الثالث)

 
  • تقليل البيانات والحد من الغرض منها; يُفضل التجهيل/إخفاء الهوية الشخصية.
  • الشفافية: معلومات حماية البيانات والمعلومات وقنوات الحذف؛ إمكانية النقل؛ خيارات الاعتراض.
  • ملفات تعريف الارتباط/التتبع: إدارة الموافقات؛ الإلغاء؛ إخفاء هوية عنوان IP؛ الأدوات المعتمدة فقط.
  • التحويلات من بلد ثالث: فقط مع وجود ضمانات مناسبة (SCCC/كفاية)؛ الاختبار المنتظم للمعالجات الفرعية.
  • DPIA: إلزامي للمعالجة عالية الخطورة؛ توثيق التدابير التقنية/التنظيمية (TOMs).
 
 

7- دورة حياة النماذج والبيانات (دورة حياة تعلم الآلة وبطاقات البيانات وبطاقات النماذج)

 

دورة حياة البيانات: الاستحواذ ← التنسيق ← التوسيم ← التوسيم ← بوابات الجودة ← الإصدار ← الاحتفاظ/الحذف.

دورة حياة النموذج: تعريف المشكلة ← تحديد المشكلة ← اختيار البنية ← التدريب/التنظيم ← التقييم (دون اتصال بالإنترنت/عبر الإنترنت) ← الإصدار ← التشغيل ← المراقبة ← إعادة التدريب/التقاعد.

بطاقات البيانات: الأصل، والتمثيل، والجودة، ونتائج التحيز، والقيود المفروضة على الاستخدام.

البطاقات النموذجية: الغرض، وبيانات التدريب، والمقاييس، والمقاييس، والقيود، وأنماط الخطأ المتوقعة، وما يجب فعله/ما لا يجب فعله.

المصدر وقابلية التكرار: التجزئة، وإصدارات البيانات/النماذج، وعمليات التحقق من خط الأنابيب.

 

8 - الشفافية وقابلية الشرح وتعليمات المستخدم

 
  • وضع العلامات للتفاعل مع الذكاء الاصطناعي والمحتوى الذي ينشئه الذكاء الاصطناعي.
  • قابلية التفسير: استخدم تفسيرات مصممة حسب الحالة وملائمة للشخص العادي (محلي/عالمي).
  • إرشادات المستخدم: الغرض، والعوامل المؤثرة الرئيسية، والحدود؛ والتغذية الراجعة وطرق التصحيح.
 

9 - المهام البشرية في الحلقة والمهام الإشرافية

 
  • الرقابة البشرية كمعيار للقرارات ذات الصلة (خاصةً المخاطر العالية).
  • مبدأ العيون الأربع للمهام الحساسة تحريريًا/اجتماعيًا.
  • وظائف التجاوز/الإلغاء؛ مسارات التصعيد؛ التوثيق.
 

10. الأمان والمتانة وإعادة التشبيك (الحقن الفوري واختراق الحماية)

 
  • نمذجة التهديدات (STRIDE + خاص بالذكاء الاصطناعي): الحقن الفوري، وتسميم بيانات التدريب، وسرقة النماذج، وتسريب حماية البيانات.
  • اختبارات الفريق الأحمر والاختبارات العدائية؛ منع اختراق الحماية؛ الحد من المعدل؛ تصفية الإخراج؛ المسح السري.
  • المتانة: المطالبات الاحتياطية، وحواجز الحماية، وخطط التراجع، والإصدارات الكانارية، واختبارات الفوضى من أجل السلامة.
 

11- سلسلة التوريد وحقوق الإنسان والعمالة العادلة (الرق الحديث، LkSG-analogue)

 
  • العناية الواجبة بحقوق الإنسان تحليل المخاطر، ومدونة قواعد سلوك الموردين، والالتزامات التعاقدية، وعمليات التدقيق، والإجراءات العلاجية.
  • العبودية الحديثة: الإعلان السنوي، والتوعية، وقنوات الإبلاغ.
  • معايير العمل: الأجر العادل وساعات العمل والحماية الصحية وحماية المبلغين عن المخالفات.
 

12. إدارة التحيز والإنصاف والشمول (العملاء الضعفاء، إمكانية الوصول)

 
  • فحوصات التحيز تحليلات مجموعة البيانات، والموازنة، ومجموعات الاختبار المختلفة، ومقاييس الإنصاف؛ والتخفيف الموثق.
  • العملاء المعرضون للخطر: أهداف الحماية، والقنوات البديلة، واللغة الواضحة، وعدم استغلال نقاط الضعف المعرفية.
  • إمكانية الوصول: WCAG-التوافق؛ تعدد اللغات؛ النهج الشامل.
 

13- الذكاء الاصطناعي التوليدي، وإثبات المنشأ ووضع العلامات (C2PA، العلامة المائية)

 
  • وضع العلامات: تسميات/بيانات وصفية مرئية لمحتوى الذكاء الاصطناعي؛ تلميح للتفاعلات.
  • ضمانات المنشأ: C2PA-السياق، والتوقيعات/العلامات المائية بقدر الإمكان من الناحية الفنية.
  • حقوق التأليف والنشر/حماية الخدمات: توضيح التراخيص؛ والامتثال لبيانات التدريب؛ وتوثيق سلسلة الحقوق.
 

14- المحتوى والإشراف وعمليات DSA (الإبلاغ والشكاوى والشفافية)

 
  • قنوات الإبلاغ: الإبلاغ عن المستخدمين ذوي العتبة المنخفضة؛ المعالجة ذات الأولوية للمحتوى غير القانوني.
  • عمليات الشكاوى: شفافية التبرير والاعتراض والتصعيد.
  • تقارير الشفافية: النشر الدوري للأرقام والتدابير الرئيسية ذات الصلة.
 

15- الاستخدام الخاص بالمجال (الأخبار، والبيانات، والصحة، والطيران، واليخوت، والعقارات، والدفع/التداول/التداول/التداول/الاستئمان/العملة والسيارات)

 
  • الأخبار/النشر: المساعدة في البحث والترجمة والإشراف؛ وضع علامات واضحة للمحتوى التوليدي.
  • بيانات سكانديك: البنية التحتية الآمنة للذكاء الاصطناعي/الحاسب الآلي وفصل العميل ونظام إدارة الأمن والسلامة/نظام إدارة المحتوى (HSM/KMS) وإمكانية المراقبة والامتثال.
  • الصحة: الاستخدام المستند إلى الأدلة، والقرار النهائي البشري، وعدم وجود تشخيصات غير مجربة.
  • الطيران/اليخوت: عمليات السلامة، والإشراف البشري، وإجراءات الطوارئ.
  • التركة: نماذج التقييم مع فحوصات الإنصاف؛ تكامل الحوكمة البيئية والاجتماعية والمؤسسية.
  • الدفع/التداول/التداول/الاستئمان/العملة: منع الاحتيال، اعرف عميلك/غسيل الأموال، ومراقبة السوق، والقرارات القابلة للتفسير.
  • السيارات: خدمات مخصصة مع حماية صارمة للبيانات.
 

16- الأطراف الثالثة والمشتريات وإدارة مخاطر البائعين والمشتريات والبائعين

 
  • بذل العناية الواجبة قبل التعيين: مستوى الأمان/حماية البيانات، ومواقع البيانات، والمعالجات الفرعية، والشهادات.
  • العقود: حقوق التدقيق والشفافية وبنود الشفافية والمعالجة ومقاييس اتفاقية مستوى الخدمة/اتفاقية مستوى الخدمة/اتفاقية مستوى الخدمة.
  • الرصد: مؤشرات الأداء الرئيسية للأداء، وتبادل النتائج/الحوادث، وخطط الخروج.
 

17 - التشغيل والمراقبة وخطط الطوارئ وإعادة التشغيل

 
  • العملية: إمكانية المراقبة (السجلات، والمقاييس، والتتبعات)، وإدارة SLO/SLI، وتخطيط السعة.
  • حالة طارئة دفاتر التشغيل، واختبارات التعافي من الكوارث، وأوقات الاسترداد، وخطط التواصل
  • إدارة التهيئة/الإدارة السرية: أقل امتيازات وتناوب وتصلب.
 

18. الحوادث وسبل الانتصاف (الأخلاقيات، وحماية البيانات، والأمن)

 
  • الحوادث الأخلاقية: التمييز غير المرغوب فيه، والتضليل، والأصل غير الواضح - تدابير فورية ومراجعة AIEB.
  • حوادث حماية البيانات: عمليات الإبلاغ إلى إدارة عمليات حفظ السلام/الإشراف؛ معلومات للأطراف المتضررة؛ تحليل الأسباب الجذرية.
  • الحوادث الأمنية إجراءات CSIRT، والطب الشرعي، والدروس المستفادة، والتدابير الوقائية.
 

19- المقاييس ومؤشرات الأداء الرئيسية والضمان (داخلي/خارجي)

 
  • مؤشرات الأداء الرئيسية الإلزامية: تغطية 100 حالة من حالات استخدام الذكاء الاصطناعي المنتج للذكاء الاصطناعي في 100 حالة من حالات استخدام الذكاء الاصطناعي المنتج؛ متوسط الوقت اللازم لمعالجة الشكاوى أقل من 14 يومًا؛ معدل تدريب أكثر من 95 حالة من حالات استخدام الذكاء الاصطناعي المنتج؛ عدم وجود نتائج تدقيق حرجة مفتوحة.
  • مقاييس الإنصاف: الأثر المتباين والاحتمالات المتساوية (استخدام الاحتمالات الخاصة بالحالة).
  • الاستدامة: أرقام الطاقة/الاستهلاك الفعلي/الكربون لمراكز البيانات؛ كفاءة النماذج.
 

20 - التدريب والتوعية والتغيير الثقافي

 
  • تدريب إلزامي (سنوي): أخلاقيات الذكاء الاصطناعي، وحماية البيانات، والأمن، وأخلاقيات وسائل الإعلام؛ وحدات خاصة بالمجموعة المستهدفة.
  • حملات التوعية: أدلة إرشادية، وجلسات استشارية، وساعات استشارية؛ ومجتمعات الممارسة الداخلية.
  • الثقافة: القيادة كقدوة، وثقافة الخطأ، ومكافأة السلوك المسؤول.
 

21- التنفيذ وخارطة الطريق (من 0-6 / 6-12 / 12-24 شهراً)

 
  • من 0-6 أشهر: قائمة جرد حالات استخدام الذكاء الاصطناعي؛ وعملية تقييم الذكاء الاصطناعي؛ والحد الأدنى من الضوابط؛ وموجة التدريب؛ وفحص الموردين.
  • من 6 إلى 12 شهرًا: بدء العمل بالفريق الأحمر؛ تقارير الشفافية الأولى؛ برنامج الطاقة؛ وضع اللمسات الأخيرة على مؤشر تقييم المخاطر قبل الشحن.
  • من 12 إلى 24 شهرًا: المواءمة مع ISO/IEC-42001؛ الضمان المحدود؛ التحسين المستمر؛ إعداد تقرير التقييم الذاتي الموحد/التقرير الأوروبي للتقارير الاقتصادية والاجتماعية (إن أمكن).
 

22 - القوائم ومصفوفة RACI

 
  • مالك حالة الاستخدام (أ): الغرض، والفوائد، ومؤشرات الأداء الرئيسية، والميزانية، وإعادة التقييم.
  • الطراز-المالك (R): البيانات/التدريب/التقييم، بطاقة النموذج، مراقبة الانجراف.
  • مسؤول حماية البيانات (C/A لحماية البيانات): الأساس القانوني، وتقييم الأثر البيئي، وحقوق أصحاب البيانات.
  • قائد الأمن (C): نمذجة التهديدات، والفرق الحمراء، و TOMs.
  • المحرر المسؤول (ج): أخلاقيات الإعلام والتوسيم وسجل التصحيح.
  • مالك الخدمة (ص): التشغيل، إدارة الحوادث، إدارة عمليات التشغيل ومنظمة العمل SLO
  • قائد المشتريات (R/C): الأطراف الثالثة والعقود وخطط الخروج
 

23. القوائم المرجعية (اختصار AIIA، وإصدار البيانات، وبوابة بدء التشغيل)

 
  • الفحص السريع لـ AIIA الغرض؟ الأساس القانوني؟ الأطراف المتأثرة؟ المخاطر (القانونية/الأخلاقية/الأمنية/الأمنية/التحيز/البيئية)؟ التخفيف؟ ضوابط HIL؟
  • إصدار البيانات: مصدر قانوني؟ التقليل؟ الاحتفاظ؟ الوصول؟ بلد ثالث؟
  • انطلق-بالبوابة المباشرة هل اكتملت القطع الأثرية (بطاقات البيانات/النماذج، والسجلات)؟ هل تمت معالجة نتائج الفريق الأحمر؟ هل تم إعداد المراقبة/الاستعراض؟
 

24- النماذج والقوالب (البطاقة النموذجية، بطاقة البيانات، تقرير الحادث)

 
  • نموذج-قالب-بطاقة-قالب: الغرض، والبيانات، والتدريب، والمعايير، والقيود، والمخاطر، والأشخاص المسؤولين، وجهات الاتصال.
  • قالب بطاقة البيانات-قالب البيانات: الأصل، والترخيص، والجودة، والجودة، والتمثيل، والتحقق من التحيز، والقيود المفروضة على الاستخدام.
  • نموذج تقرير الحادث: الحادث، والآثار، والأشخاص المتضررين، والتدابير الفورية، والسبب الجذري، والعلاج، والدروس المستفادة.
 

25 مسرد المصطلحات والمراجع

 

مسرد المصطلحات: نظام الذكاء الاصطناعي، والذكاء الاصطناعي التوليدي، والذكاء الاصطناعي التوليدي، والنظام عالي المخاطر، وAIIA، وHIL، وC2PA، والفريق الأحمر، وDPIA، وRACI، وSLO/SLI.

المراجع:

 
 

ملاحظة: تُكمّل مدونة الذكاء الاصطناعي هذه المبادئ التوجيهية الحالية لـ LEGIER، مثل، من بين أمور أخرى: (حماية البيانات، والخدمات الرقمية، وحقوق الإنسان/سلسلة التوريد، وحوكمة الشركات، والاستدامة، والرق الحديث). وهي جزء لا يتجزأ من إطار الامتثال لمجموعة LEGIER (LEGIER Beteiligungs mbH).