LEGIER 和 "SANDIC by LEGIER "集团的 AI 职业道德准则

 
 

目录

 

请注意: 如果自动目录显示为空,请右键单击 Word →"更新字段"。

 

 
 
 

1. 序言和适用范围

本守则规定了 LEGIER 集团开发、采购、运营和使用人工智能的约束性原则、流程和控制措施。它适用于整个集团的员工、管理人员、合同处理人员、供应商和合作伙伴。

它整合了集团现有的指导方针(数据保护、数字服务流程、公司治理、可持续发展、人权政策、现代奴隶制声明),并将其扩展到人工智能的具体要求中。

 

目标 我们的目标是实现效益和创新,使风险可控,并保护用户、客户和公众的权利。

 

2. 基本价值观和指导原则

 

  • 人的尊严和基本权利 人工智能高于经济效益。人工智能是为人类服务的,而不是相反。
  • 符合法律规定: 遵守 欧盟人工智能法GDPR每日生活津贴 和具体部门的标准。不使用被禁止的做法。
  • 责任与问责: 为每个人工智能系统指定一个负责任的所有者;各项决定都是可追溯和可质疑的。
  • 相称性: 目的、风险、干预强度和社会影响之间的平衡。
  • 透明度和可解释性: 关于功能、数据情况和限制的充足信息、文件和沟通渠道。
  • 公平与包容: 系统性偏见测试、保护弱势群体、无障碍环境和使用多种语言。
  • 安全性和复原力: 按设计提供安全、深度防御、持续加固和监控。
  • 可持续性: 模型和数据中心的效率(能源、PUE/CFE)、数据/模型的生命周期视图。
 
 

3. 管理与责任(人工智能伦理委员会、RACI)

 

人工智能伦理委员会(AIEB): 跨学科(技术、法律/合规、数据保护、安全、编辑/产品、人员)。任务更新政策、签发批准(尤其是高风险)、决定冲突、监督报告。

角色 用例负责人、模型负责人、数据管理员、DPO、安全负责人、责任编辑、服务负责人、采购负责人。

委员会和网关: 在启用前获得 AIIA 批准;重大变更咨询委员会;年度管理审查。

RACI 原则: 明确分配每项活动的责任(负责、问责、咨询、知情)。

 

4. 法律和标准化框架(欧盟人工智能法、GDPR、DSA、版权、贸易法)

 
  • 欧盟人工智能法案 基于风险的框架,包括禁令、高风险系统的义务、文件、日志、治理、透明度义务;自 2025/2026 年起交错适用。
  • GDPR: 法律依据 (第 6/9 条)、数据主体的权利、设计/默认隐私、数据保护影响评估 (DPIA)、第三国传输 (第 44 条及以下各条)。
  • DSA: 大型平台的通知、投诉、透明度报告、风险评估等平台流程。
  • 版权和邻接权/个人权利: 明确的许可链、图像/名称权、第三方住所权。
  • 特定行业的要求 (例如航空法/海事法/卫生法)也必须遵守。
 

5. 风险分类和人工智能影响评估(AIIA)

 
 

分类:

  1. 禁止的做法(不允许)
  2. 高风险系统(严格的义务)
  3. 有限风险(透明度)
  4. 风险最小化

AIIA 程序: 说明 目的/范围、利益相关方、法律依据、数据来源;风险分析(法律、伦理、安全、偏差、 环境影响);缓解计划;决定(AIEB 批准)。

重新评估: 对于重大变更,每年进行一次高风险变更;在中央登记簿中进行记录。

 

6. 数据道德与数据保护(法律依据、DPIA、cookies、第三国)

 
  • 数据最小化和目的限制; 首选假名化/匿名化。
  • 透明度: 数据保护信息、信息和删除渠道;可移植性;反对选项。
  • Cookies/Tracking: 同意管理;撤销;IP 匿名化;只使用经批准的工具。
  • 第三国转让: 只有在有适当保证(SCC/适当性)的情况下;对分处理器进行定期测试。
  • DPIA: 高风险处理的强制性要求;记录技术/组织措施(TOM)。
 
 

7. 模型和数据生命周期(ML 生命周期、数据卡、模型卡)

 

数据生命周期: 获取 → 保存 → 标签 → 质量控制 → 版本管理 → 保留/删除。

模型生命周期: 问题定义 → 架构选择 → 培训/微调 → 评估(离线/在线) → 发布 → 运行 → 监控 → 再培训/退休。

数据卡: 来源、代表性、质量、偏差结论、使用限制。

模型卡: 目的、培训数据、基准、衡量标准、局限性、预期错误模式、可做/不可做事项。

出处与可复制性 哈希值、数据/模型版本、管道验证。

 

8. 透明度、可解释性和用户说明

 
  • 为人工智能互动和人工智能生成的内容贴标签。
  • 可解释性: 使用适合具体情况、通俗易懂的解释(本地/全球)。
  • 用户说明: 目的、主要影响因素、限制;反馈和纠正方法。
 

9. 人在回路中和监督职责

 
  • 将人工监督作为相关决策(尤其是高风险决策)的标准。
  • 编辑/社会敏感任务的四眼原则。
  • 覆盖/取消功能;升级路径;文件。
 

10. 安全性、稳健性和红客(提示注入、越狱)

 
  • 威胁建模(STRIDE + 人工智能专用): 提示注入、训练数据中毒、模型盗窃、数据保护泄漏。
  • 红队和对抗测试;越狱预防;速率限制;输出过滤;秘密扫描。
  • 稳健性: 回退提示、防护栏、回退计划;金丝雀发布;安全混乱测试。
 

11. 供应链、人权和公平劳动(现代奴隶制、LkSG-类似物)

 
  • 人权尽职调查: 风险分析、供应商行为准则、合同承诺、审计、补救措施。
  • 现代奴隶制 年度申报、宣传、报告渠道。
  • 劳动标准: 公平薪酬、工作时间、健康保护;保护举报人。
 

偏见管理、公平与包容(弱势客户、无障碍环境)

 
  • 偏见检查: 数据集分析、平衡、各种测试组、公平性指标;记录缓解措施。
  • 客户面临风险: 保护目标、替代渠道、清晰语言;不利用认知弱点。
  • 无障碍环境: WCAG-一致性;使用多种语言;包容性方法。
 

13. 生成式人工智能、原产地证明和标签(C2PA、水印)

 
  • 贴标签: 人工智能内容的可见标签/元数据;互动提示。
  • 原产地保证: C2PA-在技术可能的情况下,尽可能提供上下文、签名/水印。
  • 版权/服务保护: 明确许可证;培训数据合规性;记录权利链。
 

14. 内容、审核和 DSA 程序(报告、投诉、透明度)

 
  • 报告渠道: 低门槛用户报告;优先处理非法内容。
  • 投诉程序: 透明的理由、反对、升级。
  • 透明度报告: 定期公布相关关键数字和措施。
 

15. 特定领域的使用(新闻、数据、健康、航空、游艇、房地产、支付/交易/信托/货币、汽车)

 
  • 新闻/出版: 协助研究、翻译、修改;明确标注生成内容。
  • SCANDIC DATA: 安全人工智能/高性能计算基础架构、客户端分离、HSM/KMS、可观察性、合规人工制品。
  • 健康: 以证据为基础,由人最终决定,没有未经测试的诊断。
  • 航空/游艇 安全流程、人员监管、应急程序。
  • 遗产 带有公平性检查的估值模型;ESG 整合。
  • 支付/交易/信托/硬币: 防欺诈、KYC/AML、市场监督、可解释的决策。
  • 汽车 严格保护数据的个性化服务。
 

16. 第三方、采购和供应商风险管理

 
  • 入职前的尽职调查: 安全/数据保护级别、数据位置、子处理器、证书。
  • 合同: 审计权、透明度和补救条款、SLA/OLA 指标。
  • 监测: 绩效关键绩效指标、调查结果/事故交流、退出计划。
 

17. 运行、可观察性、紧急和重新启动计划

 
  • 运行: 可观察性(日志、指标、跟踪)、SLO/SLI 管理、容量规划。
  • 紧急情况 运行手册、灾难恢复测试、恢复时间、沟通计划。
  • 配置/保密管理: 最小特权、轮换、硬化。
 

18. 事故与补救措施(道德、数据保护、安全)

 
  • 道德事件: 不必要的歧视、虚假信息、来源不明--立即采取措施并由 AIEB 进行审查。
  • 数据保护事件: 向 DPO/监管部门报告的程序;为受影响各方提供信息;根本原因分析。
  • 安全事件: CSIRT 程序、取证、经验教训、预防措施。
 

19. 指标、关键绩效指标和保证(内部/外部)

 
  • 强制性关键绩效指标: 100 % AIIA 生产性人工智能用例覆盖率;95 % 培训率;0 个未结关键审计结果。
  • 公平指标: 差异影响、均等几率(使用特定案例)。
  • 可持续性: 数据中心的能源/PUE/碳排放数据;模型的效率。
 

20. 培训、提高认识和文化变革

 
  • 强制培训(每年一次): 人工智能伦理、数据保护、安全、媒体伦理;针对特定目标群体的模块。
  • 提高认识运动: 指南、棕包会议、咨询时间;内部实践社区。
  • 文化: 领导以身作则、错误文化、奖励负责任的行为。
 

21. 实施和路线图(0-6 / 6-12 / 12-24 个月)

 
  • 0-6 个月: 人工智能用例盘点;AIIA 流程;最低控制要求;培训浪潮;供应商筛选。
  • 6-12 个月 推出红色团队;第一份透明度报告;能源计划;最后确定 RACI。
  • 12-24 个月: ISO/IEC-42001 接轨;有限保证;持续改进;CSRD/ESRS 准备(如适用)。
 

滚动和 RACI 矩阵

 
  • 用例所有者 (A): 目的、效益、关键绩效指标、预算、重新评估。
  • 车型-车主 (R): 数据/培训/评估、模型卡、漂移监测。
  • 数据保护专员(C/A,负责数据保护): 法律依据、DPIA、数据主体的权利。
  • 安全领导 (C): 威胁建模、红色团队、TOM。
  • 责任编辑 (C): 媒体伦理、标签、更正登记。
  • 服务负责人 (R): 运行、SLO、事件管理。
  • 采购负责人(R/C): 第三方、合同、退出计划。
 

23. 核对表(AIIA 短期、数据发布、上线关口)

 
  • AIIA 快速检查: 目的?法律依据?受影响方?风险(法律/道德/安全/偏见/环境)?缓解措施?HIL 控制措施?
  • 数据发布: 来源是否合法?最小化?保留?获取?第三国?
  • 直播门 工件是否完整(数据/模型卡、日志)?处理红队结果?建立了监控/红队?
 

24. 表格和模板(模型卡、数据卡、事故报告)

 
  • 模型-卡片-模板: 目的、数据、培训、基准、限制、风险、负责人、联系方式。
  • 数据卡模板 来源、许可、质量、代表性、偏差检查、使用限制。
  • 事件报告模板: 事件、影响、受影响人员、直接措施、根本原因、补救措施、经验教训。
 

25 词汇表和参考资料

 

术语表 人工智能系统、生成式人工智能、高风险系统、AIIA、HIL、C2PA、红色团队、DPIA、RACI、SLO/SLI。

参考资料

 
 

请注意: 本《人工智能准则》是对现有 LEGIER 指导方针的补充,其中包括(数据保护、数字服务、人权/供应链、公司治理、可持续发展、现代奴隶制)。它是莱格尔集团(LEGIER Beteiligungs mbH)合规框架的组成部分。