首页 国内 专访中科院曾毅:不应以发展为借口越过AI伦理红线

专访中科院曾毅:不应以发展为借口越过AI伦理红线

中国科学院自动化研究所曾毅访谈:发展不应该成为跨越人工智能伦理红线的借口 “有些尝试不应该在设计阶段进行。我们不能以“可能影响发展”为借口,去尝试已经在红线上的…

中国科学院自动化研究所曾毅访谈:发展不应该成为跨越人工智能伦理红线的借口

“有些尝试不应该在设计阶段进行。我们不能以“可能影响发展”为借口,去尝试已经在红线上的应用和场景,甚至是跨越红线的应用和场景。”

近日,彭超新闻(www.thepaper.cn)记者采访了中国科学院自动化研究所研究员、北京致远人工智能研究所人工智能伦理中心主任、国家新一代人工智能治理特别委员会委员曾毅,就国外一些技术巨头停止人脸识别技术、中国公众对数据隐私的态度、人工智能治理等话题进行了探讨。

如何放弃人脸识别技术?

5月底,美国黑人弗洛伊德被美国警方暴力执法杀害后,关于使用人脸识别的争议再次引发讨论。许多美国科技公司,包括微软、IBM和亚马逊,由于隐私纠纷和算法偏见,已经暂停向美国警方提供人脸识别系统。

对此,曾毅认为,技术公司放弃人脸识别算法并没有解决问题,而是在回避问题。他推测,如果这家科技公司宣布将放弃使用人脸识别,它可能会找到其他选择,比如使用其他生物识别方法。

“例如,公众对人脸识别有很高的评价,科技公司说‘好吧,让我们放弃人脸识别’。”“但公众可能不知道,其他生物特征,如虹膜识别、步态识别、声纹识别和指纹识别,几乎可以达到人脸识别的精度。还有一些偏见问题,如肤色、性别、年龄、种族和国家。因此,简单地禁止使用某项技术并不能解决潜在的风险,积极和负责任地解决技术本身的道德风险,而善用技术才是真正要做的事情。”。

在他看来,人脸识别技术在国家和社会安全方面发挥了很多积极的作用,例如,跨年龄人脸识别可以用于诱拐。“关键问题是,不应该允许人脸识别系统直接做出决定。例如,由于深色皮肤和其他一些特定的面部特征,不可能判断犯罪的可能性。”人脸识别技术可以作为决策辅助,但它不应该在决策中发挥决定性作用。

至于人工智能算法的偏差,他补充说,人工智能是基于大量的社会数据,而社会偏差已经在数据中表现出来,这是一个不可避免的问题。然而,技术开发人员自己可能会由于他们自己的偏见而给系统带来额外的偏见。

“我们应该采用人工智能技术来避免数据中潜在的偏见,我们应该避免技术设计者引入个人偏见。”

从“渐变代码”看中国公众对数据隐私的态度

“说中国公众不特别关注隐私问题实际上是一种误解,可能会产生误导。”曾毅认为,就公众对隐私的重视而言,中国和西方国家没有本质区别。

他提到,2019年,世界经济论坛就公众对政府合理使用人脸识别系统的态度进行了调查。结果显示,中国的公众支持率为83%,而美国为80%,两者结果相似。

2020年5月,他工作的北京致远人工智能研究所人工智能伦理与安全研究中心与中国科学院自动化研究所中英人工智能伦理与治理研究中心联合发布了《人脸识别与公共健康调查报告》,表明在COVID-19爆发期间,中国公众并没有放松对隐私和安全的要求。

曾毅特别担心的是,在COVID-19爆发期间,“杭州梯度健康码将推出”的消息在网上引起了讨论。他说,中国网民对“梯度码”的伦理和隐私的讨论“非常中肯”。

首先,网民们非常关注“渐变代码”,成千上万的人在多次讨论中给予了赞扬和回复。“从一个特定的角度来看,当时每个人都在谈论,而健康代码是为COVID-19流行病制定的。如果你超越了COVID-19的预防和控制本身,人们是不愿意的。这是一个非常明确的观点。\”

其次,有网友提到,健康守则原本是设计给别人看的,但无论是吸烟、饮酒、睡觉时间,甚至走路的步伐都是个人健康数据,而不是给别人看的。

他认为,公众对隐私保护和数据流概念的讨论非常清楚和深刻。

人工智能治理的愿景与技术落地

2019年5月,国家互联网信息办公室发布了《数据安全管理办法(征求意见稿)》。同年8月,国家互联网信息办公室发布了《儿童个人信息网络保护条例》,明确规定任何组织和个人不得制作、发布和传播侵犯儿童个人信息安全的信息。

曾毅在接受采访时提到,上述两项法规以及新颁布的《民法典》都有关于数据安全保护的相关规定,尤其是关于保护儿童个人信息的规定更是走在了世界前列。然而,无论是欧盟《数据保护通则》还是中国的尝试,都存在一些亟待解决的问题。

例如,《通用数据保护条例》提到了数据删除,即用户在授权后改变主意,同意撤回数据。《通用数据保护条例》要求允许用户退出。

根据曾毅的说法,虽然许多人工智能企业已经表示它们满足这一要求,但是从人工智能模型中删除数据是非常困难的。目前,几乎没有企业能够从经过训练的人工智能模型中删除某些用户数据的影响。

“从长远来看,规范性愿景必须是有益的,但在落地层面,学术界和商界有必要从技术角度真正解决伦理和治理的痛点,以便取得突破。”

发展不应该被用作跨越人工智能伦理红线的借口

变脸软件ZAO在协议中隐藏了霸王条款,教室使用面部表情识别技术,还有杭州动物园的“第一个面部识别案例”…2019年,因滥用人脸识别相关技术或触及道德底线而引发了几起争议事件。

曾毅表示,出现这些现象是因为人工智能的利益相关者,如开发人工智能的公司、部署人工智能的企业以及用户在数据合规性和用户隐私保护方面不规范。

他认为,在研究和开发人工智能产品的过程中,应注意数据隐私和算法在设计、研发、使用和部署中的潜在道德风险。应采用战略设计,并采用多利益相关者分担责任的框架来开发未来的人工智能。

“多方利益相关者共同责任框架”是指人工智能算法的提供者和技术使用者承担各自的责任。

例如,虽然COVID-19爆发期间的健康代码是由企业开发的,但数据部署和收集工作是由各省市的大数据中心承担的。因此,不仅提供相关技术的企业需要关注数据安全保护,而且各省市维护数据的大数据中心也需要关注相关保护问题。

曾毅总结道,作为一项颠覆性技术,人工智能可以改变世界,它可以被很好地利用,但也有被滥用、误用和滥用的风险。

“当我们试图用技术改变社会时,我们应该尽力避免误用,杜绝误用和滥用。因此,不应在设计阶段进行一些尝试。人工智能必须是发展的主题,但我们不能以“可能影响发展”为借口,去尝试已经在红线上的应用程序和场景,甚至跨越红线。”

责任编辑:朱学森

本文来自网络,不代表明天新闻网立场。转载请注明出处: http://www.mtxww.com/8884.html
上一篇
下一篇

为您推荐

返回顶部