7月8日,参观者体验一款智能座舱的仿真自动驾驶功能。 新华社发
人物 聂再清 现任清华大学国强教授、智能产业研究院首席研究员。2004年,聂再清获得美国亚利桑那州立大学博士学位,师从美国人工智能学会前主席Subbarao Kambhampati教授,本科和硕士毕业于清华大学计算机科学与技术系。2017年,他加入阿里巴巴,任阿里巴巴人工智能实验室北京负责人和阿里巴巴天猫精灵首席科学家。此前,他曾就职于微软亚洲研究院,任首席研究员,是微软学术搜索和人立方的发起人和负责人,也是微软自然语言理解平台LUIS的技术负责人。2020年,聂再清回到清华,加入清华智能产业研究院。
焦点
7月9日,世界人工智能大会可信AI分论坛在上海举行,论坛主题为“AI向善,全球共治”。清华大学国强教授、智能产业研究院首席研究员聂再清在会上表示,可信AI就是有爱的AI。只有有爱,最终可以产生很大用户价值,向善技术才能真正走到千家万户,变成日常生活的一部分。他强调:“我们必须只做可信AI。”
聂再清现任清华大学国强教授、智能产业研究院首席研究员。从业界到学界,他推动技术落地进展,也一直关注着人工智能的治理问题。带着可信AI的含义、实现路径、治理思路等问题,南都记者对聂再清教授进行专访,他频频爆出金句,“可信人工智能就是人工智能”“监管就像父母看着小孩子学走路”“大企业不一定是好企业”……
●对于广大崇尚科技向善的人工智能研发人员而言,可信人工智能就是人工智能。
●人工智能一定要像人那样有爱,帮助大家。
●我认为机器算法最终一定是人的助手,不会成为人类的敌人。
●一个好的企业就是价值观很正的企业,但是要注意大企业不一定是好企业。
——聂再清
专家谈AI
谈伦理
用一个字总结就是“爱”
针对现在出现的可信AI、负责任的AI、可持续的AI等概念,聂再清认为,可持续、可信、负责任这几个概念是差不多的,因为如果不可信就不可持续,过一段时间就会被“打死”了;不负责任既不可持续,也不可信。今天我们说AI,大家很喜欢把它用拼音翻译成爱,对人类有爱,大家对AI的期许就是向善,是一个大的主题。聂再清认为,这三个概念都可以用“爱”这个字概括。他解释说,其实做任何一个技术,最终要走向千家万户,一定要产生正向价值、符合人类价值观的价值。有一些小公司为了出名可能干一点什么事,短期造成某个影响是有可能,但这个公司肯定做不大。当然破坏性也可能很大,要避免那样的公司或事情出现。聂再清认为,对于广大崇尚科技向善的人工智能研发人员而言,可信人工智能就是人工智能,因为我们不可能做不可信人工智能。只有可信人工智能技术才有可能走向大规模日常应用,成为用户长期生活习惯的一部分。只要产生价值的人工智能,同时能被所有用户接受和喜爱的,基本上来讲就是可信的。他强调,可信人工智能是要经得起时间考验的,也必须是与时俱进的。
谈公平
技术的问题本质上是人的问题
可信AI可以通过技术进步达到吗?现在常讲的可解释性、公平性、安全性,这些问题可以通过技术解决吗?对此,聂再清表示,就广义来讲他觉得可以解决,或者说越来越逼近这个。但是可能短期内有些模型不能做到对用户可解释,但实际上用户并不一定需要可解释,用户要的是安全可控和公平。
他认为,公平肯定是可以做得越来越好的。但这个东西是不是一定百分之百公平,可能并不是那么好界定。我们是朝公平这个方向发展,不断去进步。如果某一些训练数据不足,那么就对这一部分用户和场景增加样本。但最后,人工智能系统背后,在我看来很大一部分是人。人可以不断花很多力量从数据和技术等各个方面把它做得越来越公平。聂再清认为,很难每次都保证所有参与方都认可的百分之百公平。人工智能一定要像人那样有爱,帮助大家。但其实有时候,具体某一个案例可能已经做得特别公平,但还是可能会有人觉得不公平。归根到底我觉得技术背后是人在起决定作用。一个产品背后有很大部分是人的因素,包括产品运营、策略怎么写的,训练数据怎么设计的,整个在技术设计的时候,可能也有一些不公平,但背后都有人的影子。聂再清认为,机器算法最终一定是人的助手,不会成为人类的敌人。因为AI背后研发人员的主流价值观是向善的,法律法规也会确保这一点。
谈监管
监管就像父母看着小孩学走路
谈到法规监管,聂再清认为这对技术发展是有好处的,但是要纠正一下,不是所有的规范法规都能保护技术发展,好的法规和规范有保护作用,如果一些法规不是特别合理的话,有可能会起阻碍作用。在新技术开始或者创新阶段,应该以一种摸着石头过河的方式,但不是野蛮生长。比方说一个小孩,要让他学走路,完全让他一个人走父母可能不放心,会远远在后面跟着他走,他虽然感觉自由,但实际上父母都可以看到。
那么,在人工智能治理过程当中,企业能负起应有的责任吗?在推出产品时会意识到伦理的问题吗?对此,聂再清认为,好的企业都会意识到,一个好的企业就是价值观很正的企业,但是要注意大企业不一定是好企业。想要走得长远的企业一定都要做到有伦理意识,因为最终人们用你的产品是基于你对他产生什么样的价值。不排除有一些企业初始阶段为生存做一些不好的事情。为什么要监管?就是让好企业能够发展,坏企业慢慢被抓出来,改变它们,不要让它们产生不好的影响。
谈算法
不应根据个性化因素产生不同决策
7月8日下午在隐私计算学术交流会上,蚂蚁集团资深副总裁周靖人就数据权属问题展开讨论,认为消费者在平台购买商品产生的行为数据的主体涉及个人和平台等。且这种数据在流通和分享的过程中需保护所有主体的权益——站在消费者的角度,即为保护他们的隐私权等;站在平台的角度,则为保护知识产权等。
大数据时代,人们有一种莫名其妙被算法支配的感觉。周靖人就算法带来的公平、可解释性和隐私安全问题展开讨论。周靖人认为,算法模型的可解释性和隐私在某种程度上是相矛盾的。为了达到可解释,往往需要披露模型的决策点和边界条件,这一定程度上会暴露隐私。而算法从“黑盒”向“白盒”的过渡,即变得更加可解释,则会促进公平性。周靖人强调,算法不应该根据个性化因素、敏感因素而受到强烈波动、产生不同的决策结果,这和结果均等的理念是一致的。
采写:南都记者 张雨亭 尤一炜见习记者 李娅宁 钟键挺
版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“物联之家 - 物联观察新视角,国内领先科技门户”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场。
延伸阅读
版权所有:物联之家 - 物联观察新视角,国内领先科技门户