十部门发文规范 AI 伦理治理:人机融合、舆论算法需专家复核

工信部等十部门近日印发《人工智能科技伦理审查与服务办法(试行)》(全文地址:https://blog.sciencenet.cn/blog-419057-1529001.html,要求人工智能科技活动全流程贯穿伦理要求,建立伦理标准与服务体系,明确人机融合、舆论引导算法、高风险自动化决策等需伦理专家复核,保障人工智能可控可信。

这是我国首部系统性规范人工智能科技伦理的部门规章,标志着 AI 伦理治理进入制度化新阶段。《办法》覆盖 AI 研发、应用、服务全链条,为行业健康发展提供明确指引。

十部门发文规范 Ai 伦理治理:人机融合、舆论算法需专家复核

一、全流程伦理审查:AI 活动必须贯穿伦理要求

《办法》明确要求,人工智能科技活动应当将伦理要求贯穿技术研发、产品应用、服务提供的全过程。从事 AI 研发的单位需建立伦理审查机制,设立伦理委员会或指定专人负责伦理审查工作。

对于涉及个人信息处理、生物特征识别、社会评分等敏感场景的 AI 应用,必须在立项前完成伦理风险评估,并提交伦理审查报告。审查内容包括数据安全、算法公平性、人类权益保护等方面。

此外,《办法》还要求建立伦理审查档案管理制度,审查记录保存期限不得少于三年,确保 AI 伦理审查可追溯、可核查。

人工智能伦理审查流程

二、重点领域专家复核:人机融合、舆论算法纳入监管

《办法》特别强调了三类高风险 AI 活动的伦理管理:人机融合技术、舆论引导算法、高风险自动化决策系统。这些领域的 AI 应用必须经过伦理专家复核通过后方可投入使用。

人机融合技术涉及人类身体与机器的深度结合,可能引发身份认同、隐私保护等伦理问题。舆论引导算法则关系到信息传播的公平性和真实性,需要防止算法操纵舆论、传播虚假信息。高风险自动化决策系统包括金融信贷、就业招聘、医疗保障等场景,直接影响公民权益。

对于上述领域,除常规伦理审查外,还需组织跨学科专家进行复核,确保技术应用符合伦理规范和社会公共利益。

AI 伦理专家复核机制

三、伦理标准体系建设:推动 AI 可控可信发展

《办法》提出建立人工智能伦理标准体系,包括伦理准则、技术规范、评估方法等内容。工信部将联合相关部门制定 AI 伦理国家标准和行业标准,为行业提供统一遵循。

同时,《办法》鼓励行业协会、科研机构开展 AI 伦理研究和教育培训,提升从业人员伦理意识。对于违反伦理规定的 AI 活动,将依法依规进行处理,情节严重的纳入信用记录。

业内专家指出,此次十部门联合发文体现了国家对 AI 伦理治理的高度重视。在 AI 技术快速发展的背景下,建立完善的伦理治理体系有助于防范技术风险,推动人工智能健康有序发展,实现技术创新与社会责任的平衡。

人工智能可控可信发展

AD:精心整理了2000+好用的AI工具!点此获取

相关推荐

1 1

免费AI工具合集,点击进入

AI对话

玉米AI助手