上证报中国证券网讯工业和信息化部等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》(以下简称《办法(试行)》)。
《办法(试行)》明确,开展人工智能科技伦理审查,重点关注训练数据的选择标准,算法、模型、系统的设计是否合理;是否采取措施防止偏见歧视、算法压榨,保障资源分配、机会获取、决策过程的客观性与包容性。是否合理披露算法、模型、系统的用途、运行逻辑、交互方式说明、潜在风险等信息;是否采用有效技术手段提升算法、模型和系统的可解释性。
《办法(试行)》提出,推进人工智能科技伦理服务体系建设,强化人工智能科技伦理风险监测预警、检测评估、认证、咨询等服务供给,提升企业技术研发和人工智能科技伦理风险防范能力,加大对中小微企业人工智能科技伦理审查的支持和服务力度,推进人工智能科技伦理国际交流合作。
《办法(试行)》还提出,促进人工智能科技伦理审查高质量数据集有序开源开放,加强通用性风险管理、评估审计工具研发,探索基于应用场景的科技伦理风险评估评测;推广符合科技伦理的人工智能产品和服务,保护科技伦理审查技术知识产权。








