קוד האתיקה של LEGIER וקבוצת "SANDIC by LEGIER" בתחום הבינה המלאכותית
תוֹכֶן הָעִניָנִים
הודעה: אם הספרייה האוטומטית נראית ריקה, אנא לחצו לחיצה ימנית ב-Word ← "עדכון שדה".
- 1. הקדמה והיקף
- 2. ערכים מרכזיים ועקרונות מנחים
- 3. ממשל ואחריות (מועצת האתיקה של בינה מלאכותית, RACI)
- 4. מסגרת משפטית ורגולטורית (חוק הבינה המלאכותית של האיחוד האירופי, GDPR, DSA, חוק זכויות יוצרים, משפט מסחרי)
- 5. סיווג סיכונים והערכת השפעות בינה מלאכותית (AIIA)
- 6. אתיקה של נתונים והגנת נתונים (בסיסים משפטיים, DPIA, קובצי Cookie, מדינה שלישית)
- 7. מחזור חיים של מודל ונתונים (מחזור חיים של למידה אלקטרונית, כרטיסי נתונים, כרטיסי מודל)
- 8. שקיפות, הסבר והוראות שימוש
- 9. תפקידי ניהול ופיקוח
- 10. אבטחה, חוסן ו-Red Teaming (הזרקה מיידית, פריצות פריצה)
- 11. שרשרת אספקה, זכויות אדם ועבודה הוגנת (עבדות מודרנית, אנלוגית ל-LkSG)
- 12. ניהול הטיות, הוגנות והכלה (לקוחות פגיעים, נגישות)
- 13. בינה מלאכותית גנרטיבית, הוכחת מקור ותיוג (C2PA, סימון מים)
- 14. תהליכי תוכן, ניהול ו-DSA (דיווח, תלונות, שקיפות)
- 15. שימוש ספציפי לתחום (חדשות, נתונים, בריאות, תעופה, יאכטות, נדל"ן, תשלום/מסחר/נאמנות/מטבעות, מכוניות)
- 16. צדדים שלישיים, רכש וניהול סיכוני ספקים
- 17. תוכניות תפעול, צפייה, חירום והתאוששות
- 18. תקריות וטיפול (אתיקה, הגנת מידע, אבטחה)
- 19. מדדים, מדדי ביצועים והבטחת ביצועים (פנימיים/חיצוניים)
- 20. הכשרה, מודעות ושינוי תרבותי
- 21. יישום ומפת דרכים (0–6 / 6–12 / 12–24 חודשים)
- 22. מטריצת תפקידים ו-RACI
- 23. רשימות בדיקה (תקציר AIIA, פרסום נתונים, שער הפעלה)
- 24. טפסים ותבניות (כרטיס לדוגמה, כרטיס נתונים, דוח אירוע)
- 25. מילון מונחים והפניות
1. הקדמה והיקף
קוד זה קובע עקרונות, תהליכים ובקרות מחייבים לפיתוח, רכש, תפעול ושימוש בבינה מלאכותית בתוך קבוצת LEGIER. הוא חל על כלל הקבוצה על עובדים, מנהלים, מעבדים, ספקים ושותפים.
היא משלבת מדיניות ארגונית קיימת (הגנה על נתונים, תהליכי שירותים דיגיטליים, ממשל תאגידי, קיימות, מדיניות זכויות אדם, הצהרת עבדות מודרנית) ומרחיבה אותן כך שיכללו דרישות ספציפיות לבינה מלאכותית.
יַעַד היא לאפשר יתרונות וחדשנות, לנהל סיכונים ולהגן על זכויות המשתמשים, הלקוחות והציבור הרחב.
2. ערכים מרכזיים ועקרונות מנחים
- כבוד האדם וזכויות יסוד קודמים ליעילות כלכלית. בינה מלאכותית משרתת אנשים - לעולם לא להיפך.
- תאימות לחוק: עמידה בדרישות חוק הבינה המלאכותית של האיחוד האירופי, GDPR, דירוג רשת (DSA) ותקנים ספציפיים למגזר. אין להשתמש בשיטות אסורות.
- אחריות ואחריות: לכל מערכת בינה מלאכותית מוקצה בעלים אחראי; ההחלטות שקופות וניתנות לערעור.
- פרופורציונליות: איזון בין מטרה, סיכון, עוצמת ההתערבות והשפעה חברתית.
- שקיפות והסבר: מידע, תיעוד וערוצי תקשורת מתאימים בנוגע לפונקציונליות, זמינות נתונים ומגבלות.
- הוגנות והכלה: בדיקות הטיה שיטתיות, הגנה על קבוצות פגיעות, נגישות ורב-לשוניות.
- ביטחון וחוסן: אבטחה מובנית, הגנה מעמיקה, הקשחה וניטור מתמשכים.
- קיימות: יעילות מודלים ומרכזי נתונים (אנרגיה, PUE/CFE), תצוגת מחזור חיים של נתונים/מודלים.
3. ממשל ואחריות (מועצת האתיקה של בינה מלאכותית, RACI)
מועצת האתיקה של בינה מלאכותית (AIEB): רב-תחומי (טכנולוגיה, משפט/ציות, הגנת מידע, אבטחה, עריכה/מוצר, משאבי אנוש). תחומי אחריות: עדכון מדיניות, הנפקת אישורים (במיוחד כאלה בסיכון גבוה), פתרון סכסוכים ומעקב אחר דוחות.
גָלִיל: בעל מקרה שימוש, בעל מודל, אחראי נתונים, DPO, ראש אבטחה, עורך אחראי, בעל שירות, ראש רכש.
ועדות ושערים: אישור AIIA לפני עלייה לאוויר; ועדת ייעוץ לשינויים מהותיים; סקירות הנהלה שנתיות.
עקרון RACI: חלוקה ברורה של אחריות לכל פעילות (אחראי, דין וחשבון, התייעצות, מידע).
4. מסגרת משפטית ורגולטורית (חוק הבינה המלאכותית של האיחוד האירופי, GDPR, DSA, חוק זכויות יוצרים, משפט מסחרי)
- חוק הבינה המלאכותית של האיחוד האירופי: מסגרת מבוססת סיכונים עם איסורים, חובות למערכות בסיכון גבוה, דרישות תיעוד, רישום, ממשל ושקיפות; יישום מדורג החל משנת 2025/2026.
- GDPR: בסיסים משפטיים (סעיף 6/9), זכויות נושא המידע, פרטיות מעוצבת/ברירת מחדל, הערכת השפעה על הגנת מידע (DPIA), העברות מידע ממדינות שלישיות (סעיף 44 ואילך).
- שרת שיווק דיגיטלי: תהליכי פלטפורמה לדיווח, תלונות, דוחות שקיפות והערכת סיכונים עבור פלטפורמות גדולות.
- זכויות יוצרים וזכויות יוצרים נלוות / זכויות אישיות: שרשראות רישיון ברורות, זכויות תמונה/שם, זכויות בית של צד שלישי.
- דרישות ספציפיות לתעשייה (למשל, חוקי תעופה/ימי/בריאות) יש להקפיד גם כן.
5. סיווג סיכונים והערכת השפעות בינה מלאכותית (AIIA)
מִיוּן:
- פרקטיקות אסורות (אסורות)
- מערכות בסיכון גבוה (חובות מחמירות)
- סיכון מוגבל (שקיפות)
- סיכון מינימלי
תהליך AIIA: תיאור מטרה/היקף, בעלי עניין, בסיס משפטי, מקורות נתונים; ניתוח סיכונים (משפטי, אתי, בטיחותי, הטיה, השפעות סביבתיות); תוכנית הפחתה; החלטה (אישור AIEB).
הערכות מחדש: עבור שינויים מהותיים, שנתי עבור פריטים בסיכון גבוה; תיעוד במרשם המרכזי.
6. אתיקה של נתונים והגנת נתונים (בסיסים משפטיים, DPIA, קובצי Cookie, מדינה שלישית)
- מזעור נתונים והגבלת מטרה; עדיפות לפסאודונימיזציה/אנונימיזציה.
- שְׁקִיפוּת: מידע להגנת מידע, ערוצי מידע ומחיקת מידע; ניידות; אפשרויות התנגדות.
- קובצי Cookie/מעקב: ניהול הסכמה; ביטול; אנונימיזציה של כתובות IP; כלים מאושרים בלבד.
- העברות ממדינות שלישיות: רק עם ערבויות מתאימות (SCC/הלימות); ביקורות סדירות של מעבדי משנה.
- DPIA: חובה לעיבוד בסיכון גבוה; לתעד אמצעים טכניים/ארגוניים (TOMs).
7. מחזור חיים של מודל ונתונים (מחזור חיים של למידה אלקטרונית, כרטיסי נתונים, כרטיסי מודל)
מחזור חיי נתונים: רכישה ← אוצרות ← תיוג ← שערי איכות ← ניהול גרסאות ← שמירה/מחיקה.
מחזור חיי המודל: הגדרת בעיה ← בחירת ארכיטקטורה ← אימון/כוונון ← הערכה (לא מקוון/מקוון) ← שחרור ← תפעול ← ניטור ← אימון מחדש/פרישה.
כרטיסי נתונים: מקור, ייצוג, איכות, ממצאי הטיה, מגבלות שימוש.
כרטיסי דגם: מטרה, נתוני אימון, מדדים, מגבלות, דפוסי שגיאה צפויים, מה לעשות/לא לעשות.
מקור ושחזור: גיבוב (hashes), גרסאות נתונים/מודל, הוכחות צינור.
8. שקיפות, הסבר והוראות שימוש
- תיוג לאינטראקציה עם בינה מלאכותית ותוכן שנוצר על ידי בינה מלאכותית.
- הסבר: השתמשו בהסברים מותאמים למקרה וידידותיים למשתמש (מקומיים/גלובליים).
- הוראות למשתמש: מטרה, גורמי השפעה עיקריים, מגבלות; ערוצי משוב ותיקון.
9. תפקידי ניהול ופיקוח
- פיקוח אנושי כסטנדרט על החלטות רלוונטיות (במיוחד כאלה בסיכון גבוה).
- עקרון ארבע העיניים עבור מטלות רגישות מבחינה עריכתית/חברתית.
- פונקציות עקיפה/ביטול; נתיבי הסלמה; תיעוד.
10. אבטחה, חוסן ו-Red Teaming (הזרקה מיידית, פריצות פריצה)
- מידול איומים (ספציפי ל-STRIDE + בינה מלאכותית): הזרקה מיידית, הרעלת נתוני אימון, גניבת מודלים, דליפת פרטיות.
- בדיקות Red Teaming ובדיקות עוינות; מניעת פריצות; הגבלת קצב; מסנן פלט; סריקה סודית.
- חוסן: הנחיות גיבוי, מעקות בטיחות, תוכניות חזרה למצב אחר; שחרורי קנרי; בדיקות כאוס לבטיחות.
11. שרשרת אספקה, זכויות אדם ועבודה הוגנת (עבדות מודרנית, אנלוגית ל-LkSG)
- בדיקת נאותות של זכויות אדם: ניתוח סיכונים, קוד ספקים, התחייבויות חוזיות, ביקורות, תיקונים.
- עבדות מודרנית: הצהרה שנתית, העלאת מודעות, ערוצי דיווח.
- סטנדרטים של עבודה: שכר הוגן, שעות עבודה, הגנה על בריאות; הגנה על חושפי שחיתויות.
12. ניהול הטיות, הוגנות והכלה (לקוחות פגיעים, נגישות)
- מבחני הטיה: ניתוח מערך נתונים, איזון, קבוצות בדיקה שונות, מדדי הוגנות; מתעד הפחתות.
- לקוחות פגיעים: מטרות הגנה, ערוצים חלופיים, שפה ברורה; ללא ניצול חולשות קוגניטיביות.
- נְגִישׁוּת: WCAG-קונפורמיות; רב-לשוניות; תקשורת מכילה.
13. בינה מלאכותית גנרטיבית, הוכחת מקור ותיוג (C2PA, סימון מים)
- תִיוּג: תוויות/מטא-נתונים גלויים עבור תוכן בינה מלאכותית; התראה במהלך אינטראקציות.
- הוכחת מקור: C2PA-הקשר, חתימות/סימני מים במידת האפשר מבחינה טכנית.
- זכויות יוצרים/זכויות קשורות: הבהרת רישיונות; תאימות נתוני הדרכה; תיעוד שרשרת זכויות.
14. תהליכי תוכן, ניהול ו-DSA (דיווח, תלונות, שקיפות)
- ערוצי דיווח: דיווח משתמשים בסף נמוך; עיבוד תוכן לא חוקי בעדיפות גבוהה.
- תהליכי תלונות: הצדקה שקופה, התנגדות, הסלמה.
- דוחות שקיפות: פרסום תקופתי של נתונים ומדדים מרכזיים רלוונטיים.
15. שימוש ספציפי לתחום (חדשות, נתונים, בריאות, תעופה, יאכטות, נדל"ן, תשלום/מסחר/נאמנות/מטבעות, מכוניות)
- חדשות/פרסום: סיוע במחקר, תרגום, ניהול תוכן; תיוג ברור של תוכן יצירתי.
- נתוני סקנדיק: תשתית מאובטחת של בינה מלאכותית/HPC, ריבוי משתמשים, HSM/KMS, תצפית, ארטיפקטים של תאימות.
- בְּרִיאוּת: שימוש מבוסס ראיות, החלטה סופית בבני אדם, ללא אבחנות שלא נבדקו.
- תעופה/יאכטות: תהליכי בטיחות, פיקוח אנושי, נהלי חירום.
- נְכָסִים: מודלי הערכה עם בדיקות הוגנות; שילוב ESG.
- תשלום/מסחר/נאמנות/מטבע: מניעת הונאות, KYC/AML, מעקב שוק, החלטות מוסברות.
- מכוניות: שירותים מותאמים אישית עם הגנה קפדנית על מידע.
16. צדדים שלישיים, רכש וניהול סיכוני ספקים
- בדיקת נאותות לפני הקליטה: רמת אבטחה/פרטיות, מיקומי נתונים, מעבדי משנה, אישורים.
- חוזים: זכויות ביקורת, סעיפי שקיפות ותיקון, מדדי SLA/OLA.
- ניטור: מדדי ביצועים, חילופי ממצאים/אירועים, תוכניות יציאה.
17. תוכניות תפעול, צפייה, חירום והתאוששות
- מִבצָע: נצפיות (לוגים, מדדים, עקבות), ניהול SLO/SLI, תכנון קיבולת.
- חֵרוּם: ריצות, בדיקות DR, זמני התאוששות, תוכניות תקשורת.
- ניהול תצורה/סודות: פחות זכויות, רוטציות, הקשחה.
18. תקריות וטיפול (אתיקה, הגנת מידע, אבטחה)
- אירועים אתיים: אפליה לא רצויה, דיסאינפורמציה, מוצא לא ברור - צעדים מיידיים וסקירה של AIEB.
- אירועי הגנת מידע: תהליכי דיווח ל-DPO/רשויות פיקוח; מידע לנפגעים; ניתוח גורמי שורש.
- אירועי אבטחה: נהלי CSIRT, זיהוי פלילי, לקחים שנלמדו, אמצעי מניעה.
19. מדדים, מדדי ביצועים והבטחת ביצועים (פנימיים/חיצוניים)
- מדדי ביצועים (KPIs) חובה: כיסוי AIIA של 100% של מקרי שימוש פרודוקטיביים בבינה מלאכותית; זמן פתרון תלונות חציוני של פחות מ-14 ימים; שיעור הדרכה של >95%; 0 ממצאי ביקורת קריטיים פתוחים.
- מדדי הוגנות: השפעה לא דומה, סיכויים שווים (ספציפי למקרה שימוש).
- קיימות: מדדי אנרגיה/PUE/פחמן של מרכז נתונים; יעילות מודל.
20. הכשרה, מודעות ושינוי תרבותי
- הכשרה חובה (מדי שנה): אתיקה של בינה מלאכותית, הגנת מידע, אבטחה, אתיקה של תקשורת; מודולים ספציפיים לקבוצת יעד.
- קמפיינים להגברת ההעלאה: הנחיות, מפגשי שקית חומה, שעות ייעוץ; קהילות עיסוק פנימיות.
- תַרְבּוּת: פונקציית מודל לחיקוי של מנהיגות, תרבות של טעויות, תגמול על פעולה אחראית.
21. יישום ומפת דרכים (0–6 / 6–12 / 12–24 חודשים)
- 0–6 חודשים: מלאי של מקרי שימוש בבינה מלאכותית; תהליך AIIA; בקרות מינימליות; גל הדרכה; סינון ספקים.
- 6–12 חודשים: פריסת צוותים אדומים; דוחות שקיפות ראשוניים; תוכנית אנרגיה; סיום גיבוש RACI.
- 12–24 חודשים: יישור תקן ISO/IEC 42001; הבטחת רמת שליטה מוגבלת; שיפור מתמיד; הכנת CSRD/ESRS (אם רלוונטי).
22. מטריצת תפקידים ו-RACI
- בעל מקרה שימוש (א): מטרה, יתרונות, מדדי ביצועים (KPI), תקציב, הערכות מחדש.
- בעל המודל (R): נתונים/אימון/הערכה, כרטיס מודל, ניטור סחיפה.
- DPO (C/A להגנת מידע): בסיס משפטי, DPIA, זכויות נושא המידע.
- ראש אבטחה (C): מידול איומים, צוותים אדומים, TOMs.
- עורך אחראי (C): אתיקה תקשורתית, תיוג, רישום תיקונים.
- בעל השירות (R): תפעול, SLO, ניהול אירועים.
- ראש רכש (R/C): צדדים שלישיים, חוזים, תוכניות יציאה.
23. רשימות בדיקה (תקציר AIIA, פרסום נתונים, שער הפעלה)
- בדיקה מהירה של AIIA: מטרה? בסיס משפטי? אלו שנפגעו? סיכונים (משפטיים/אתיים/ביטחוניים/הטיים/סביבתיים)? אמצעי הפחתה? בקרות HIL?
- פרסום נתונים: האם המקור לגיטימי? מזעור? שמירה? גישה? מדינה שלישית?
- שער הפעלה: האם הממצאים הושלמו (כרטיסי נתונים/מודל, יומני רישום)? האם ממצאי הצוות האדום טופלו? האם ניטור/דריסת רגל הוקמו?
24. טפסים ותבניות (כרטיס לדוגמה, כרטיס נתונים, דוח אירוע)
- תבנית כרטיס דגם: מטרה, נתונים, הכשרה, מדדים, מגבלות, סיכונים, אנשים אחראים, איש קשר.
- תבנית כרטיס נתונים: מקור, רישיון, איכות, ייצוג, בדיקות הטיה, הגבלות שימוש.
- תבנית דיווח אירוע: אירוע, השפעה, מושפע, פעולה מיידית, שורש הבעיה, תרופה, לקחים שנלמדו.
25. מילון מונחים והפניות
אַגְרוֹן: מערכת בינה מלאכותית, בינה מלאכותית גנרית, מערכת בסיכון גבוה, AIIA, HIL, C2PA, teaming red, DPIA, RACI, SLO/SLI.
הפניות:
- חוק הבינה המלאכותית של האיחוד האירופי
- GDPR
- דירוג רשת (DSA)
- עקרונות הבינה המלאכותית של ה-OECD
- NIST AI RMF
- ISO/IEC 42001
- הנחיות פנימיות (הגנה על נתונים, תהליכי DSA, עבדות מודרנית, קיימות)
הודעה: קוד בינה מלאכותית זה משלים את המדיניות הקיימת של LEGIER, כולל אלו בנושאי הגנת נתונים, שירותים דיגיטליים, זכויות אדם/שרשרת אספקה, ממשל תאגידי, קיימות ועבדות מודרנית. זהו חלק בלתי נפרד ממסגרת התאימות של קבוצת LEGIER (LEGIER Beteiligungs mbH).