人工智能迫切需要“伦理转向”

  • 2021-02-01 16:48
  • 光明日报

目前,人工智能的发展主要得益于以深度学习为代表的机器学习技术,它使计算机能够从大量数据中独立学习和进化,从而使预测和决策比人类更高效、更准确、更便宜。为此,人工智能作为一种新的通用技术,被认为会给经济和社会带来革命性的影响。被各国提升到国家战略和科技主权的高度,成为全球科技竞争日益激烈的新焦点。

在应用层面,人工智能已经渗透到各行各业。算法帮助我们过滤垃圾邮件,推荐我们可能喜欢的歌曲,为我们翻译不同的语言,为我们开车。自新冠肺炎肺炎爆发以来,人工智能已经出现在辅助医疗诊断和新药研发中,无人物流配送和无人驾驶汽车等新模式帮助了非接触式服务的发展。总之,人工智能具有巨大的潜力,可以成为一种向善的力量,不仅带来经济增长,改善社会福祉,而且促进可持续发展。

然而,与此同时,人工智能及其应用的负面影响和伦理问题也日益突出,这就要求人们在关注技术及其产业化的同时,更多地关注伦理视野。比如,人工智能模型训练及其应用离不开大量数据的支持,可能导致违反法律法规或过度收集使用用户数据,加深人工智能与数据隐私保护之间的紧张关系;人脸识别技术在一些场景中的应用也引发了国内外关于该技术侵犯个人隐私的争议。人工智能技术也可能被犯罪分子滥用,比如从事网络犯罪、制作和传播虚假新闻、合成可以干扰音视频的虚假图像等。

随着算法判别的不断发酵,人工智能参与决策的公平性备受关注。有研究发现,很多商用人脸识别系统都存在种族、性别等偏见。如果把这项技术用在自驾汽车上,黑皮肤的人,比如黑人,可能更容易被自驾汽车撞到。人工智能在招聘、广告、信贷、保险、医疗、教育、司法审判、刑事量刑、公共服务等诸多方面的应用,也伴随着公平性争议。此外,人工智能的知识产权保护问题也日益显现。目前,人工智能已经能够独立创作诗歌、小说、图片、视频等。而知识产权制度将需要尽快应对人工智能创作的保护。在自主车、AI医疗产品等人工智能应用出现事故的情况下,也很难找出应该追究谁的责任。最后,人工智能的应用可能会取代一些人工和重复劳动,给劳动者的就业带来一定的影响。

2020年被认为是人工智能监管的第一年,美国和欧洲采取的监管路径截然不同。欧盟《人工智能白皮书》提出的“再监管”模式,更多依赖于事前监管,考虑对技术开发和应用设定严格条件;美国《人工智能应用监管指南》提出的“轻监管”模式,更多的是依靠标准、指南等灵活手段,考虑为人工智能应用设立避风港和“监管沙箱”。随着日益激烈的全球科技竞争和数字经济成为国家的核心竞争力,考虑到中国科技产业的实际发展,中国需要对人工智能进行创新治理,依靠敏捷监管、伦理治理、技术治理等多种手段,共同保证人工智能的积极应用和良好发展。

首先,监管不仅需要对人工智能的应用进行分类,还需要敏捷性和适应性。人工智能技术的一个核心特征是快速发展

其次,采取伦理治理,将伦理原则转化为伦理实践。目前,国内外许多科技公司都引入了人工智能的伦理原则,并且也在通过伦理审查委员会和伦理嵌入来实施自己的伦理原则。行业的这些伦理治理措施在国内外获得了很大的共识,更适合AI技术的发展。

第三,运用技术手段防止人工智能的滥用。例如,深度合成作为一种人工智能应用,在影视制作、教育、医疗、娱乐等领域有着巨大的积极应用价值。但它也可能被犯罪分子滥用来制造和传播虚假图像以从事欺诈活动。在这方面,业界一直在积极开发和部署内容识别和可追溯性技术,以应对深度合成的滥用。面对日益复杂和迭代速度不断加快的人工智能应用,技术治理将发挥越来越重要的作用。

头条推荐
图文推荐