จรรยาบรรณด้าน AI ของกลุ่ม LEGIER และ “SANDIC by LEGIER”
สารบัญ
ประกาศ: หากไดเร็กทอรีอัตโนมัติปรากฏว่างเปล่า โปรดคลิกขวาใน Word → “อัปเดตฟิลด์”
- 1. คำนำและขอบเขต
- 2. ค่านิยมหลักและหลักการชี้นำ
- 3. การกำกับดูแลและความรับผิดชอบ (คณะกรรมการจริยธรรม AI, RACI)
- 4. กรอบกฎหมายและข้อบังคับ (พระราชบัญญัติ AI ของสหภาพยุโรป, GDPR, DSA, กฎหมายลิขสิทธิ์, กฎหมายการค้า)
- 5. การจำแนกความเสี่ยงและการประเมินผลกระทบของ AI (AIIA)
- 6. จริยธรรมข้อมูลและการคุ้มครองข้อมูล (ฐานทางกฎหมาย DPIA คุกกี้ ประเทศที่สาม)
- 7. วงจรชีวิตโมเดลและข้อมูล (วงจรชีวิต ML, การ์ดข้อมูล, การ์ดโมเดล)
- 8. ความโปร่งใส ความสามารถในการอธิบาย และคำแนะนำผู้ใช้
- 9. หน้าที่ความรับผิดชอบด้านมนุษย์และการควบคุมดูแล
- 10. ความปลอดภัย ความแข็งแกร่ง และการทำงานเป็นทีม (การฉีดทันที การเจลเบรก)
- 11. ห่วงโซ่อุปทาน สิทธิมนุษยชน และแรงงานที่เป็นธรรม (การค้าทาสสมัยใหม่, LkSG-analog)
- 12. การจัดการอคติ ความยุติธรรม และการรวม (ลูกค้าที่เปราะบาง การเข้าถึงได้)
- 13. AI เชิงสร้างสรรค์ หลักฐานแหล่งกำเนิด และการติดฉลาก (C2PA ลายน้ำ)
- 14. เนื้อหา การควบคุมดูแล และกระบวนการ DSA (การรายงาน การร้องเรียน ความโปร่งใส)
- 15. การใช้เฉพาะโดเมน (ข่าวสาร ข้อมูล สุขภาพ การบิน เรือยอทช์ มรดก การจ่ายเงิน/การค้า/ความน่าเชื่อถือ/เหรียญ รถยนต์)
- 16. บุคคลที่สาม การจัดซื้อ และการจัดการความเสี่ยงของผู้ขาย
- 17. แผนปฏิบัติการ การสังเกตการณ์ แผนฉุกเฉิน และแผนฟื้นฟู
- 18. เหตุการณ์และการเยียวยา (จริยธรรม การปกป้องข้อมูล ความปลอดภัย)
- 19. ตัวชี้วัด KPI และการรับรอง (ภายใน/ภายนอก)
- 20. การฝึกอบรม การตระหนักรู้ และการเปลี่ยนแปลงทางวัฒนธรรม
- 21. การดำเนินการและแผนงาน (0–6 / 6–12 / 12–24 เดือน)
- 22. บทบาทและเมทริกซ์ RACI
- 23. รายการตรวจสอบ (AIIA Brief, การเผยแพร่ข้อมูล, Go-Live Gate)
- 24. แบบฟอร์มและเทมเพลต (บัตรรุ่น, บัตรข้อมูล, รายงานเหตุการณ์)
- 25. คำศัพท์และเอกสารอ้างอิง
1. คำนำและขอบเขต
หลักจรรยาบรรณนี้กำหนดหลักการ กระบวนการ และการควบคุมที่มีผลผูกพันสำหรับการพัฒนา การจัดหา การดำเนินงาน และการใช้งาน AI ภายในกลุ่ม LEGIER โดยบังคับใช้ทั่วทั้งกลุ่ม ทั้งพนักงาน ผู้จัดการ ผู้ประมวลผล ซัพพลายเออร์ และพันธมิตร
โดยบูรณาการนโยบายองค์กรที่มีอยู่ (การปกป้องข้อมูล กระบวนการบริการดิจิทัล การกำกับดูแลกิจการ ความยั่งยืน นโยบายสิทธิมนุษยชน คำชี้แจงการค้ามนุษย์ยุคใหม่) และขยายให้ครอบคลุมข้อกำหนดเฉพาะของ AI
เป้าหมาย คือการสร้างประโยชน์และนวัตกรรม บริหารจัดการความเสี่ยง และปกป้องสิทธิของผู้ใช้ ลูกค้า และประชาชนทั่วไป
2. ค่านิยมหลักและหลักการชี้นำ
- ศักดิ์ศรีความเป็นมนุษย์และสิทธิขั้นพื้นฐาน ให้ความสำคัญมากกว่าประสิทธิภาพทางเศรษฐกิจ AI ช่วยเหลือผู้คน ไม่ใช่ในทางกลับกัน
- การปฏิบัติตามกฎหมาย: การปฏิบัติตาม พระราชบัญญัติ AI ของสหภาพยุโรป, จีดีพีอาร์, ดีเอสเอ และมาตรฐานเฉพาะภาคส่วน ห้ามใช้แนวปฏิบัติต้องห้าม
- ความรับผิดชอบและความรับผิดชอบ: มีการแต่งตั้งเจ้าของที่รับผิดชอบสำหรับระบบ AI แต่ละระบบ การตัดสินใจมีความโปร่งใสและสามารถโต้แย้งได้
- ความเป็นสัดส่วน: ความสมดุลระหว่างจุดประสงค์ ความเสี่ยง ความเข้มข้นของการแทรกแซง และผลกระทบทางสังคม
- ความโปร่งใสและการอธิบายได้: ข้อมูลที่เหมาะสม เอกสารประกอบ และช่องทางการสื่อสารเกี่ยวกับฟังก์ชัน ความพร้อมใช้งานของข้อมูล และข้อจำกัด
- ความยุติธรรมและการรวม: การทดสอบอคติอย่างเป็นระบบ การปกป้องกลุ่มเปราะบาง การเข้าถึง และการใช้หลายภาษา
- ความปลอดภัยและความยืดหยุ่น: ความปลอดภัยโดยการออกแบบ การป้องกันเชิงลึก การเสริมความแข็งแกร่งและการตรวจสอบอย่างต่อเนื่อง
- ความยั่งยืน: ประสิทธิภาพของโมเดลและศูนย์ข้อมูล (พลังงาน, PUE/CFE), มุมมองวงจรชีวิตของข้อมูล/โมเดล
3. การกำกับดูแลและความรับผิดชอบ (คณะกรรมการจริยธรรม AI, RACI)
คณะกรรมการจริยธรรม AI (AIEB): สหวิทยาการ (เทคโนโลยี กฎหมาย/การปฏิบัติตามกฎระเบียบ การคุ้มครองข้อมูล ความปลอดภัย บรรณาธิการ/ผลิตภัณฑ์ บุคลากร) หน้าที่ความรับผิดชอบ: อัปเดตนโยบาย อนุมัติประเด็น (โดยเฉพาะประเด็นที่มีความเสี่ยงสูง) แก้ไขข้อขัดแย้ง และติดตามรายงาน
ม้วน: เจ้าของกรณีการใช้งาน เจ้าของโมเดล ผู้ดูแลข้อมูล DPO หัวหน้าฝ่ายรักษาความปลอดภัย บรรณาธิการที่รับผิดชอบ เจ้าของบริการ หัวหน้าฝ่ายจัดซื้อ
คณะกรรมการและเกตเวย์: การอนุมัติของ AIIA ก่อนเริ่มใช้งาน; การเปลี่ยนแปลงคณะกรรมการที่ปรึกษาสำหรับการเปลี่ยนแปลงที่สำคัญ; การทบทวนการจัดการประจำปี
หลักการ RACI: การจัดสรรความรับผิดชอบสำหรับแต่ละกิจกรรมอย่างชัดเจน (ผู้รับผิดชอบ, ผู้รับผิดชอบ, ปรึกษาหารือ, ผู้ได้รับข้อมูล)
4. กรอบกฎหมายและข้อบังคับ (พระราชบัญญัติ AI ของสหภาพยุโรป, GDPR, DSA, กฎหมายลิขสิทธิ์, กฎหมายการค้า)
- พระราชบัญญัติ AI ของสหภาพยุโรป: กรอบการทำงานตามความเสี่ยงพร้อมข้อห้าม ภาระผูกพันสำหรับระบบความเสี่ยงสูง เอกสารประกอบ การบันทึก การกำกับดูแล และข้อกำหนดด้านความโปร่งใส การนำไปใช้แบบเป็นระยะตั้งแต่ปี 2568/2569
- จีดีพีอาร์: ฐานทางกฎหมาย (มาตรา 6/9) สิทธิของเจ้าของข้อมูล ความเป็นส่วนตัวตามการออกแบบ/ค่าเริ่มต้น การประเมินผลกระทบต่อการปกป้องข้อมูล (DPIA) การโอนข้อมูลไปยังประเทศที่สาม (มาตรา 44 เป็นต้นไป)
- ดีเอสเอ: กระบวนการแพลตฟอร์มสำหรับการรายงาน การร้องเรียน การรายงานความโปร่งใส และการประเมินความเสี่ยงสำหรับแพลตฟอร์มขนาดใหญ่
- ลิขสิทธิ์และลิขสิทธิ์เสริม/สิทธิส่วนบุคคล: ห่วงโซ่ใบอนุญาตที่ชัดเจน สิทธิ์ภาพ/ชื่อ สิทธิ์บ้านของบุคคลที่สาม
- ข้อกำหนดเฉพาะอุตสาหกรรม (เช่น กฎหมายการบิน/เดินเรือ/สุขภาพ) จะต้องได้รับการปฏิบัติตามด้วย
5. การจำแนกความเสี่ยงและการประเมินผลกระทบของ AI (AIIA)
การจำแนกประเภท:
- การปฏิบัติที่ต้องห้าม (ไม่อนุญาต)
- ระบบความเสี่ยงสูง (มีภาระผูกพันอย่างเคร่งครัด)
- ความเสี่ยงจำกัด (ความโปร่งใส)
- ความเสี่ยงน้อยที่สุด
กระบวนการ AIIA: คำอธิบายวัตถุประสงค์/ขอบเขต ผู้มีส่วนได้ส่วนเสีย พื้นฐานทางกฎหมาย แหล่งข้อมูล การวิเคราะห์ความเสี่ยง (ทางกฎหมาย จริยธรรม ความปลอดภัย อคติ ผลกระทบต่อสิ่งแวดล้อม) แผนการบรรเทาผลกระทบ การตัดสินใจ (การอนุมัติของ AIEB)
การประเมินใหม่: สำหรับการเปลี่ยนแปลงวัสดุเป็นประจำทุกปีสำหรับรายการที่มีความเสี่ยงสูง เอกสารอยู่ในทะเบียนกลาง
6. จริยธรรมข้อมูลและการคุ้มครองข้อมูล (ฐานทางกฎหมาย DPIA คุกกี้ ประเทศที่สาม)
- การลดขนาดข้อมูลและการจำกัดวัตถุประสงค์ แนะนำให้ใช้ชื่อปลอม/ไม่ระบุชื่อ
- ความโปร่งใส: ข้อมูลการคุ้มครองข้อมูล ช่องทางข้อมูลและการลบข้อมูล ความสามารถในการพกพา ตัวเลือกการคัดค้าน
- คุกกี้/การติดตาม: การจัดการความยินยอม การเพิกถอน การทำให้ IP ไม่ระบุตัวตน มีเพียงเครื่องมือที่ได้รับการอนุมัติเท่านั้น
- การโอนไปยังประเทศที่สาม: มีการรับประกันที่เหมาะสมเท่านั้น (SCC/ความเพียงพอ) การตรวจสอบผู้ประมวลผลย่อยเป็นประจำ
- DPIA: จำเป็นสำหรับการประมวลผลที่มีความเสี่ยงสูง ต้องมีการบันทึกมาตรการทางเทคนิค/องค์กร (TOMs)
7. วงจรชีวิตโมเดลและข้อมูล (วงจรชีวิต ML, การ์ดข้อมูล, การ์ดโมเดล)
วงจรชีวิตข้อมูล: การจัดหา → การดูแล → การติดฉลาก → การควบคุมคุณภาพ → การควบคุมเวอร์ชัน → การเก็บรักษา/การลบ
วงจรชีวิตของโมเดล: การกำหนดปัญหา → การเลือกสถาปัตยกรรม → การฝึกอบรม/ปรับแต่ง → การประเมิน (ออฟไลน์/ออนไลน์) → การเผยแพร่ → การดำเนินการ → การติดตาม → การฝึกอบรมใหม่/การเลิกใช้
การ์ดข้อมูล: แหล่งกำเนิด ความเป็นตัวแทน คุณภาพ การค้นพบความลำเอียง ข้อจำกัดในการใช้งาน
การ์ดโมเดล: วัตถุประสงค์ ข้อมูลการฝึกอบรม มาตรฐาน เมตริก ข้อจำกัด รูปแบบข้อผิดพลาดที่คาดหวัง สิ่งที่ควรทำ/ไม่ควรทำ
แหล่งที่มาและความสามารถในการทำซ้ำ: แฮช, เวอร์ชันข้อมูล/โมเดล, หลักฐานไปป์ไลน์
8. ความโปร่งใส ความสามารถในการอธิบาย และคำแนะนำผู้ใช้
- การติดฉลากสำหรับการโต้ตอบ AI และเนื้อหาที่สร้างโดย AI
- ความสามารถในการอธิบาย: คำอธิบายที่ปรับให้เหมาะกับกรณีการใช้งานและเป็นมิตรกับผู้ใช้ทั่วไป (ระดับท้องถิ่น/ระดับโลก)
- คำแนะนำการใช้งาน: วัตถุประสงค์ ปัจจัยที่มีอิทธิพลหลัก ข้อจำกัด ช่องทางการตอบรับและแก้ไข
9. หน้าที่ความรับผิดชอบด้านมนุษย์และการควบคุมดูแล
- การกำกับดูแลโดยมนุษย์เป็นมาตรฐานสำหรับการตัดสินใจที่เกี่ยวข้อง (โดยเฉพาะอย่างยิ่งการตัดสินใจที่มีความเสี่ยงสูง)
- หลักการสี่ตาสำหรับงานที่มีความละเอียดอ่อนทางบรรณาธิการ/สังคม
- ฟังก์ชันการแทนที่/ยกเลิก เส้นทางการยกระดับ เอกสารประกอบ
10. ความปลอดภัย ความแข็งแกร่ง และการทำงานเป็นทีม (การฉีดทันที การเจลเบรก)
- การสร้างแบบจำลองภัยคุกคาม (เฉพาะ STRIDE + AI): การฉีดทันที การวางยาพิษข้อมูลการฝึกอบรม การขโมยโมเดล การรั่วไหลของความเป็นส่วนตัว
- การทำงานเป็นทีมและการทดสอบเชิงต่อต้าน การป้องกันการเจลเบรก การจำกัดอัตรา ตัวกรองเอาต์พุต การสแกนความลับ
- ความแข็งแกร่ง: คำเตือนสำรอง รั้วกั้น แผนการย้อนกลับ การปล่อยแบบ Canary การทดสอบความโกลาหลเพื่อความปลอดภัย
11. ห่วงโซ่อุปทาน สิทธิมนุษยชน และแรงงานที่เป็นธรรม (การค้าทาสสมัยใหม่, LkSG-analog)
- การตรวจสอบความถูกต้องด้านสิทธิมนุษยชน: การวิเคราะห์ความเสี่ยง กฎซัพพลายเออร์ พันธสัญญา การตรวจสอบ การแก้ไข
- การค้าทาสยุคใหม่: การประกาศประจำปี การสร้างความตระหนัก ช่องทางการรายงาน
- มาตรฐานการทำงาน: การจ่ายเงินที่ยุติธรรม ชั่วโมงการทำงาน การคุ้มครองสุขภาพ การคุ้มครองผู้แจ้งเบาะแส
12. การจัดการอคติ ความยุติธรรม และการรวม (ลูกค้าที่เปราะบาง การเข้าถึงได้)
- การทดสอบอคติ: การวิเคราะห์ชุดข้อมูล การสร้างสมดุล กลุ่มการทดสอบต่างๆ มาตรวัดความยุติธรรม การบรรเทาผลกระทบที่มีเอกสารประกอบ
- ลูกค้าที่มีความเสี่ยง: เป้าหมายในการปกป้อง ช่องทางทางเลือก ภาษาที่ชัดเจน ไม่มีการแสวงหาประโยชน์จากจุดอ่อนทางปัญญา
- การเข้าถึง: ดับเบิลยูซีเอจี-ความสอดคล้อง; ความหลากหลายทางภาษา; การสื่อสารแบบครอบคลุม
13. AI เชิงสร้างสรรค์ หลักฐานแหล่งกำเนิด และการติดฉลาก (C2PA ลายน้ำ)
- การติดฉลาก: ป้ายกำกับ/ข้อมูลเมตาที่มองเห็นได้สำหรับเนื้อหา AI การแจ้งเตือนระหว่างการโต้ตอบ
- หลักฐานแหล่งกำเนิดสินค้า: ซีทูพีเอ-บริบท ลายเซ็น/ลายน้ำหากเป็นไปได้ทางเทคนิค
- ลิขสิทธิ์/สิทธิที่เกี่ยวข้อง: ชี้แจงใบอนุญาต การปฏิบัติตามข้อมูลการฝึกอบรม การจัดทำเอกสารห่วงโซ่สิทธิ์
14. เนื้อหา การควบคุมดูแล และกระบวนการ DSA (การรายงาน การร้องเรียน ความโปร่งใส)
- ช่องทางการรายงาน : การรายงานผู้ใช้ที่มีเกณฑ์ต่ำ การประมวลผลเนื้อหาที่ผิดกฎหมายที่มีความสำคัญ
- กระบวนการร้องเรียน: การชี้แจงเหตุผล การคัดค้าน การยกระดับคดีอย่างโปร่งใส
- รายงานความโปร่งใส: การเผยแพร่ตัวเลขและมาตรการสำคัญที่เกี่ยวข้องเป็นระยะ
15. การใช้เฉพาะโดเมน (ข่าวสาร ข้อมูล สุขภาพ การบิน เรือยอทช์ มรดก การจ่ายเงิน/การค้า/ความน่าเชื่อถือ/เหรียญ รถยนต์)
- ข่าวสาร/สิ่งพิมพ์: ความช่วยเหลือในการวิจัย การแปล การควบคุมดูแล การติดฉลากเนื้อหาสร้างสรรค์อย่างชัดเจน
- ข้อมูลสแกนดิค: โครงสร้างพื้นฐาน AI/HPC ที่ปลอดภัย ผู้เช่าหลายราย HSM/KMS การสังเกต สิ่งประดิษฐ์ที่เป็นไปตามข้อกำหนด
- สุขภาพ: การใช้ตามหลักฐาน การตัดสินใจขั้นสุดท้ายของมนุษย์ ไม่มีการวินิจฉัยที่ไม่ได้รับการทดสอบ
- การบิน/เรือยอทช์: กระบวนการด้านความปลอดภัย การควบคุมดูแลโดยมนุษย์ ขั้นตอนการรับมือกับเหตุฉุกเฉิน
- อสังหาริมทรัพย์: โมเดลการประเมินมูลค่าพร้อมการตรวจสอบความเป็นธรรม การบูรณาการ ESG
- จ่าย/แลกเปลี่ยน/ความน่าเชื่อถือ/เหรียญ: การป้องกันการฉ้อโกง KYC/AML การเฝ้าระวังตลาด การตัดสินใจที่อธิบายได้
- รถยนต์: บริการส่วนบุคคลพร้อมการปกป้องข้อมูลที่เข้มงวด
16. บุคคลที่สาม การจัดซื้อ และการจัดการความเสี่ยงของผู้ขาย
- การตรวจสอบอย่างรอบคอบก่อนเริ่มใช้งาน: ระดับความปลอดภัย/ความเป็นส่วนตัว ตำแหน่งข้อมูล ซับโปรเซสเซอร์ ใบรับรอง
- สัญญา: สิทธิในการตรวจสอบ ความโปร่งใสและข้อกำหนดการแก้ไข มาตรวัด SLA/OLA
- การติดตาม: KPI ด้านการดำเนินงาน ผลการค้นพบ/การแลกเปลี่ยนเหตุการณ์ แผนการออก
17. แผนปฏิบัติการ การสังเกตการณ์ แผนฉุกเฉิน และแผนฟื้นฟู
- การดำเนินการ: การสังเกต (บันทึก เมตริก การติดตาม) การจัดการ SLO/SLI การวางแผนความจุ
- ภาวะฉุกเฉิน: รันบุ๊ก การทดสอบ DR เวลาการฟื้นตัว แผนการสื่อสาร
- การจัดการการกำหนดค่า/ความลับ: สิทธิพิเศษน้อยที่สุด การหมุนเวียน การเสริมความแข็งแกร่ง
18. เหตุการณ์และการเยียวยา (จริยธรรม การปกป้องข้อมูล ความปลอดภัย)
- เหตุการณ์ทางจริยธรรม: การเลือกปฏิบัติที่ไม่พึงประสงค์ ข้อมูลบิดเบือน แหล่งที่มาที่ไม่ชัดเจน – มาตรการทันทีและการตรวจสอบของ AIEB
- เหตุการณ์การคุ้มครองข้อมูล: กระบวนการรายงานต่อ DPO/หน่วยงานกำกับดูแล ข้อมูลสำหรับผู้ที่ได้รับผลกระทบ การวิเคราะห์สาเหตุหลัก
- เหตุการณ์ด้านความปลอดภัย: ขั้นตอน CSIRT การตรวจสอบทางนิติวิทยาศาสตร์ บทเรียนที่ได้รับ มาตรการป้องกัน
19. ตัวชี้วัด KPI และการรับรอง (ภายใน/ภายนอก)
- KPI ที่จำเป็น: ครอบคลุม AIIA 100% ของกรณีการใช้งาน AI ที่มีประสิทธิผล; เวลาการแก้ไขข้อร้องเรียนเฉลี่ยน้อยกว่า 14 วัน; อัตราการฝึกอบรมมากกว่า 95%; ไม่มีผลการตรวจสอบวิกฤตแบบเปิด
- มาตรวัดความเป็นธรรม: ผลกระทบที่แตกต่างกัน อัตราส่วนที่เท่าเทียมกัน (เฉพาะกรณีการใช้งาน)
- ความยั่งยืน: เมตริกพลังงาน/PUE/คาร์บอนของศูนย์ข้อมูล ประสิทธิภาพของแบบจำลอง
20. การฝึกอบรม การตระหนักรู้ และการเปลี่ยนแปลงทางวัฒนธรรม
- การฝึกอบรมภาคบังคับ (รายปี): จริยธรรม AI การปกป้องข้อมูล ความปลอดภัย จริยธรรมสื่อ โมดูลเฉพาะกลุ่มเป้าหมาย
- แคมเปญสร้างความตระหนักรู้: แนวปฏิบัติ การประชุมแบบไม่เป็นทางการ ชั่วโมงการปรึกษาหารือ ชุมชนภายในของผู้ปฏิบัติงาน
- วัฒนธรรม: บทบาทต้นแบบของความเป็นผู้นำ วัฒนธรรมแห่งความผิดพลาด รางวัลสำหรับการกระทำที่รับผิดชอบ
21. การดำเนินการและแผนงาน (0–6 / 6–12 / 12–24 เดือน)
- 0–6 เดือน: การสำรวจกรณีการใช้งาน AI; กระบวนการ AIIA; การควบคุมขั้นต่ำ; คลื่นการฝึกอบรม; การคัดกรองซัพพลายเออร์
- 6–12 เดือน: เปิดตัวการทำงานเป็นทีมสีแดง รายงานความโปร่งใสเบื้องต้น โปรแกรมด้านพลังงาน สรุป RACI
- 12–24 เดือน: การจัดแนว ISO/IEC 42001 การรับรองที่จำกัด การปรับปรุงอย่างต่อเนื่อง การเตรียม CSRD/ESRS (ถ้ามี)
22. บทบาทและเมทริกซ์ RACI
- เจ้าของกรณีการใช้งาน (A): วัตถุประสงค์ ผลประโยชน์ ตัวชี้วัด (KPI) งบประมาณ การประเมินใหม่
- เจ้าของโมเดล (R): ข้อมูล/การฝึกอบรม/การประเมิน, การ์ดจำลอง, การติดตามการดริฟท์
- DPO (C/A สำหรับการปกป้องข้อมูล): ฐานทางกฎหมาย, DPIA, สิทธิของเจ้าของข้อมูล
- หัวหน้าฝ่ายรักษาความปลอดภัย (C): การสร้างแบบจำลองภัยคุกคาม การทำงานเป็นทีมสีแดง TOMs
- บรรณาธิการผู้รับผิดชอบ (C): จริยธรรมสื่อ การติดฉลาก การลงทะเบียนการแก้ไข
- เจ้าของบริการ (R): การดำเนินงาน, SLO, การจัดการเหตุการณ์
- หัวหน้าฝ่ายจัดซื้อ (R/C): บุคคลที่สาม สัญญา แผนการออก
23. รายการตรวจสอบ (AIIA Brief, การเผยแพร่ข้อมูล, Go-Live Gate)
- AIIA ตรวจสอบด่วน: วัตถุประสงค์? พื้นฐานทางกฎหมาย? ผู้ที่ได้รับผลกระทบ? ความเสี่ยง (ทางกฎหมาย/จริยธรรม/ความปลอดภัย/อคติ/สิ่งแวดล้อม)? การบรรเทา? การควบคุม HIL?
- การเผยแพร่ข้อมูล: แหล่งข้อมูลนั้นถูกต้องตามกฎหมายหรือไม่? การลดขนาด? การคงไว้? การเข้าถึง? ประเทศที่สาม?
- ประตู Go-Live: สิ่งประดิษฐ์เสร็จสมบูรณ์แล้วหรือยัง (การ์ดข้อมูล/โมเดล บันทึก)? แก้ไขปัญหาที่พบจากทีมแดงแล้วหรือยัง? ตั้งค่าการตรวจสอบ/DR เรียบร้อยแล้วหรือยัง?
24. แบบฟอร์มและเทมเพลต (บัตรรุ่น, บัตรข้อมูล, รายงานเหตุการณ์)
- เทมเพลตการ์ดโมเดล: วัตถุประสงค์ ข้อมูล การฝึกอบรม เกณฑ์มาตรฐาน ข้อจำกัด ความเสี่ยง ผู้รับผิดชอบ การติดต่อ
- เทมเพลตการ์ดข้อมูล: แหล่งกำเนิด ใบอนุญาต คุณภาพ ความเป็นตัวแทน การตรวจสอบอคติ ข้อจำกัดการใช้งาน
- แบบฟอร์มรายงานเหตุการณ์: เหตุการณ์ ผลกระทบ ผู้ที่ได้รับผลกระทบ การดำเนินการทันที สาเหตุหลัก การเยียวยา บทเรียนที่ได้รับ
25. คำศัพท์และเอกสารอ้างอิง
คำศัพท์: ระบบ AI, AI กำเนิด, ระบบที่มีความเสี่ยงสูง, AIIA, HIL, C2PA, ทีมสีแดง, DPIA, RACI, SLO/SLI
อ้างอิง:
- พระราชบัญญัติ AI ของสหภาพยุโรป
- จีดีพีอาร์
- ดีเอสเอ
- หลักการ AI ของ OECD
- กองทุนสำรองเลี้ยงชีพ NIST AI
- ใบรับรอง ISO/IEC 42001
- แนวทางภายใน (การปกป้องข้อมูล กระบวนการ DSA การค้ามนุษย์ ความยั่งยืน)
ประกาศ: ประมวลจริยธรรม AI นี้เป็นส่วนเสริมนโยบาย LEGIER ที่มีอยู่ในปัจจุบัน ซึ่งรวมถึงนโยบายเกี่ยวกับการคุ้มครองข้อมูล บริการดิจิทัล สิทธิมนุษยชน/ห่วงโซ่อุปทาน การกำกับดูแลกิจการ ความยั่งยืน และการค้ามนุษย์ยุคใหม่ ประมวลจริยธรรมนี้เป็นส่วนสำคัญของกรอบการปฏิบัติตามกฎระเบียบของกลุ่ม LEGIER (LEGIER Beteiligungs mbH)