为人工智能的健康发展设置“安全阀”

  • 2020-12-28 16:38
  • 科技日报

人工智能已经不再是一个高不可攀的概念,而是已经成为一种快速渗透到生产生活各个方面的技术应用。在给我们带来各种便利的同时,它所涉及的伦理和法律问题也开始凸显出来。

中国人民政治协商会议全国委员会(CPPCC)最近举行了两周一次的协商论坛,专门讨论人工智能发展中的科学技术伦理和法律问题。座谈会在充分调研的基础上,就相关问题进行了深入讨论。

要高度重视人工智能健康发展

“中国人工智能发展迅速,但发展机遇和风险并存。(人工智能)也可能给人类社会的发展带来重大风险和潜在威胁。”全国政协委员、社会法律委员会副主任陈志民在座谈会上说,要高度重视人工智能的健康发展和风险防范。

全国政协常委、湖南省政协副主席张大方在座谈会上指出,要警惕人工智能发展带来的社会公平问题。在他看来,人工智能主要是基于大数据和深度学习,但往往数据的匮乏、数据质量、算法的判别和人为的改变都会导致一些偏见。

人工智能应用中的个人隐私保护在本次研讨会上备受关注。

“人工智能需要大量的个人数据,其中很多是个人隐私。一旦私人信息被泄露,可能会对消费者的人身和财产安全以及企业和公共利益构成严重威胁。”全国政协委员、九三学社重庆市委员会副主任黄爱龙提出。

全国政协委员、上海任重智能科技有限公司董事长谭剑锋认为,在海量的大数据中,人脸、指纹、DNA等生物特征数据、个人病历数据等不可再生数据应该得到特别关注。“这些数据是唯一的,不能更改。一旦在不安全的网络上收集,很有可能带来灾难性的后果。”谭剑锋说。

不仅如此,研讨会上还讨论了人工智能发展带来的就业问题、人工智能红利形成的“数字鸿沟”和“贫富差距”。

技术防范+伦理规范+法律规制

全国政协副主席、民盟中央执行副主席陈在主旨发言中指出,要充分认识人工智能技术伦理与法制建设的战略意义。

“人工智能的健康发展必须回答谁应该控制人工智能,人工智能发展的基本准则是什么,人工智能发展的禁区在哪里等问题。人工智能的发展需要建立合理的伦理规则和法律规范。设立一个“控制阀”来预防风险。”陈对说道。

陈认为,总体而言,人工智能治理需要充分发挥技术手段,注重伦理与制度的结合,逐步形成“技术预防伦理与法律规制”的综合规制体系。

在这次座谈会上,科技部副部长汤米就新形势下加强人工智能伦理法律工作提出了若干相关建议。

汤米建议全面提升人工智能的技术创新能力。其重点之一是加强人工智能在安全性、可信度和隐私保护方面的研发,构建跨学科人工智能测试平台,加强伦理治理和风险防范的技术支撑。

此外,他建议支持地方政府在重点领域开展立法试点项目

比如建立协调推进机制,成立由15个部门组成的人工智能规划推进办公室,协调实施包括人工智能治理在内的任务;起草并发布治理原则,提出和谐、友好、公平、包容、尊重隐私、安全可控、责任共担、开放合作、敏捷治理等八项原则;启动实施社会实验,开展长期跨学科人工智能综合影响社会实验等。

不仅如此,还积极拓展交流合作空间,组织推荐专家参与制定联合国教科文组织的人工智能伦理标准。在加强伦理法律问题研究方面,汤米介绍说,在科技创新2030重大项目——“新一代人工智能”中,组织了人工智能伦理与立法研究。

头条推荐
图文推荐