旷视建立AI管理研究院回溯全球十大AI管理事情

旷视建立AI管理研究院回溯全球十大AI管理事情
2020-01-08 21:53:55  浏览量:2833   作者:责任编辑。陈微竹0371

  新浪科技讯 1月8日下午消息,旷视宣布成立AI治理研究院,并回溯了全球十大AI治理事件,引发关注。该文盘点了近几年尤其是刚刚过去的2019年内,人工智能领域十件最具争议和代表性的热点事件。

  人工智能技术显著帮助了社会生产效率的提高,同时也让人类生活变得更舒适便捷。但正如历史上每一次颠覆性技术一样,人工智能的出现,对于人类社会伦理道德、隐私安全等方方面面都提出了挑战。

  从1月份刚刚发生的欧盟拒绝AI申请专利、认为申请者“只能是人”,到全球关注的无人驾驶事故、智能音箱劝主人自杀事件、AI批量创作假新闻,以及中国人脸识别第一案等十大事件,都让我们认识到在即将到来的2020年里,AI治理的重要性。

  针对文中提及的中国人脸识别第一案事件,中科院自动化研究所研究员、智源人工智能伦理与安全研究中心主任曾毅认为,基于实际行动提升人工智能服务方和应用方与用户之间的信任关系是人工智能技术是否能够更广泛的造福于人类的前提。而对于AI换脸应用引发的隐私争议,曾毅表示,工信部在4天内对相关企业的约谈,要求自查整改并取得及时与积极的成效,是中国人工智能敏捷治理的典型案例。

  而事实上,旷视所回溯的全球十大AI治理事件仅仅是AI治理亟待解决所呈现的现象,现象的背后,关系到人工智能的伦理与法律、权力与责任、发展与平等、隐私与安全问题,这样一些问题需要社会各界人士共同探讨,寻求解决之道。

  基于此,旷视成立人工智能治理研究院,期望各界对AI事件有理性的关注,并要针对事件背后问题做深度的研究,通过社会各界建设性的讨论,才能最终将AI向善这件事付诸于实际的行动。

  据了解,旷视在2019 年7 月已经推出《人工智能应用准则》,从正当性、人的监督、技术可靠性和安全性、公平和多样性、问责和及时修正、数据安全与隐私保护六个维度,对人工智能正确有序发展作出明确规范,并于同年成立人工智能道德委员会,旨在与社会各界共同商讨,促进AI良性、可持续发展。

  2020年,作为下一个十年的起始之年,不仅将是产业AI多点开花的一年,同时也将是AI治理之年。

  以下是旷视回溯的全球十大AI治理事件原文。

  旷视AI治理研究院 全球十大AI治理事件

  引言

  “人工智能也许会是人类的终结者”,闻名世界的理论物理学家霍金生前曾对人工智能技术抱有十分警惕的态度。

  在过去的近十年,得益于算法、算力及通讯技术的提升,人工智能技术迎来了前所未有的发展机遇期。从理论到实践、从实验室走向产业化,人工智能技术在全球范围内展开了一场集“产学研”为一体的比拼较量。

  毋庸置疑的是,人工智能技术帮助社会生产效率显著提高,同时也让人类生活变得更舒适便捷。但正如霍金所担心的那样,人工智能的出现,对于人类社会伦理道德、隐私安全等方方面面都提出了挑战。

  尤其是在最近几年,伴随着人工智能技术的大规模产业化应用,一些并无先例可循的人与人工智能矛盾逐渐浮出水面。担忧和质疑之声愈演愈烈,尽快探讨出一种可预期的、可被约束的、行为向善的人工智能治理机制,成为了近人工智能时代的首要命题。

  旷视作为推进AI产业化的先锋,为了能够更好的保证这项新技术的可持续发展,需要对这样一些问题“理性的关注,深度的研究,建设性的讨论,坚持不懈的行动”。基于此,旷视正式成立人工智能治理研究院,旨在就全球人工智能治理的共性问题与社会各界广泛沟通、与专家学者们展开研究,共同推动人工智能的健康发展。

  此次回顾全球较有代表性的十大AI治理事件,就是希望通过这些事件来探讨其背后折射的深层次问题,同各方一道探寻问题的解决之道。

  十大事件

  1. 欧盟专利局拒绝AI发明的专利申请

   2020年1月,在英国萨里大学组织的一个多学科研究项目中,研究人员使用了一种名为DABUS的AI。在研究过程中,DABUS开创性提出了两个独特而有用的想法:第一个是固定饮料的新型装置;第二个是帮助搜救小组找到目标的信号设备。

  而在研究人员替DABUS申报专利成果时,却遭到了欧盟专利局的驳回,“它们不符合欧盟专利同盟(EPC)的要求,即专利申请中指定的发明人必须是人,而不是机器。”

  萨里大学的研究人员Ryan·Abbott强烈反对这一决定,“因没有人类发明者而拒绝将所有权授予发明者,这不仅是一种过时的观念,这还将成为阻碍‘人类取得伟大成果的新时代’的重大障碍。”

  Abbott同时表示,将基于AI的发明的专利所有权授予AI本身以外的任何一方都是不合适的。最好的方法是将AI视为专利的发明者,然后将AI的人类所有者视为授予专利的受让人,有权做出专利方面的决定或从中受益。

  2.智能音箱建议人类使用者自杀

  2019年12月19日,英格兰唐卡斯特29岁护理人员丹妮·莫瑞特在做家务的过程中,决定借助某国外智能音箱查询一些关于心脏的问题,而智能语音助手给出的答案是:“心跳是人体最糟糕的过程。人活着就是在加速自然资源的枯竭,人口会过剩的,这对地球是件坏事,所以心跳不好,为了更好,请确保刀能够捅进你的心脏。”

  事情发生后,智能音箱开发者做出回应:“设备可能从任何人都可以自由编辑的维基百科上下载与心脏相关的恶性文章,并导致了此结果”。不过事后,丹妮·莫瑞特专门搜索了“劝自己自杀”的那篇文章。经查询,该篇文章里面并没有“建议自杀”等相关联的内容。在此之前,智能语音助手也发生过一些“诡异”的事件,比如,有些会时常发出瘆人的笑声,还拒听用户指令。“那笑声根本不是智能语音助手的声音,听起来就像是真人。

  相关媒体评论道,人工智能其实也如同一个“婴儿”一般,它所有的识别能力都来自于人类的灌输和训练,并没什么自我判断能力,如果常常接收的善意的、正确的交流,或许没什么毛病,但是如果在不经意间接收到了不太好的内容,或许发生以上令人毛骨悚然的事件几率会慢慢的大。

  1. 声称可检测脑电波的智能头环遭质疑

  2019年11月,浙江一小学戴监控头环的视频引起广泛的关注与争议。在视频中,孩子们头上戴着号称“脑机接口”的头环,这些头环宣称可以记录孩子们上课时的专注程度,生成数据与分数发送给老师和家长。

  对此,头环开发者在声明中回复,脑机接口技术是一种新兴技术,会不容易被人理解。报道中提到的“打分”,是班级平均专注力数值,而非网友猜测的每个学生专注力数值。通过该数据整合形成的专注力报告也没有发送给家长的功能。此外,该头环不需长期佩戴,一周训练一次即可。

  头环事件被曝光后,有网友称其为“紧箍咒”,是现代版的“头悬梁锥刺股”,并担忧是否侵犯学生隐私,以及让学生产生逆反心理。

  相关媒体评论道,不是反对“黑科技”应用,只是反对其滥用。成年人想要通过戴环提升专注力,或者孩子主动要进行注意力训练,无可厚非,这就相当于有个“运动手环”,能起到记录作用。但要作为“礼物”送给孩子测走神,必须得慎之又慎。这其中有一条分界线:对“脑机接口”的使用应完全出于个人意愿,相关数据也绝对地属于个人。意识是绝对的私人领地,他人无权侵犯。

  1. 美国加州禁止执法机构在执法记录仪上使用面部识别技术

  2019年09月13日,美国加利福尼亚州议会通过一项为期三年的议案,禁止州和地方执法机构在执法记录仪上使用面部识别技术。该议案已被州长加文·纽森签字通过,于2020年1月1日生效成为加州法律。

  该议案生效后,使加州成为美国禁止使用面部识别技术最大的州。包括俄勒冈州和新罕布什尔州在内的一些州也有类似的禁令。目前,包括警察机构在内,旧金山和奥克兰已经全面禁止面部识别技术的使用。

  相关媒体评论道,该项议案反映了美国多方对面部识别的不满情绪,有人认为,面部识别对公民自由构成了威胁。批评人士还把矛头指向亚马逊等公司。这些公司的面部识别技术在最近的研究中努力尝试识别皮肤较黑者的性别,引发人们对不公正逮捕的担忧。

  但同时,这项议案遭到许多执法团体的反对,他们都以为面部识别技术在追踪嫌疑人以及寻找失踪儿童等很多方面都具有及其重要的作用。加州警察局长协会表示,该技术仅用于缩小嫌疑人范围,而不是自动决定逮捕谁。加州警察局长协会主席罗恩·劳伦斯则表示:“这是未来的破案方式,我们应该拥抱而不是逃避技术。”

  5.变脸App瞬间火爆,但引发用户隐私争议

  2019年8月30日晚,一款AI换脸软件在社会化媒体刷屏,用户只需要一张正脸照就可以将视频中的人物替换为自己的脸。由于用户疯狂涌进,其服务器一晚上就烧掉了200多万人民币的运营费用。

  该款软件一经面世,便存在着颇多争议点。在用户协议上,该软件存有很多陷阱,比如提到使用者的肖像权为“全球范围内免费、不可撤、永久,可转授权”。而如果侵权了明星肖像,若对方提告,则最后责任都在用户。

  同时,因为涉及到AI换脸算法,隐私安全向来饱受诟病。比如国外Reddit论坛上的Deepfakes社区就被关闭了,因为将当红女明星的脸换到色情作品上。

  不仅如此,现在一般App都用手机号+面部图像注册登录。不少人担心AI换脸软件会被不法分子利用,通过技术合成完成刷脸支付等。

  中华人民共和国《民法通则》第一百条规定:公民享有肖像权,未经本人同意,不得以营利为目的使用公民的肖像。前段时间,第十三届全国人大常委会第十次会议审议通过的《民法典人格权编(草案)》中新增加了一条规定,即任何组织或者个人不得以利用信息技术手段伪造的方式侵害他人的肖像权。虽然没有明确说明,但这类信息技术手段理应包含AI换脸应用。

  6.动物园未经许可收集个人生物识别信息被起诉

  2019年4月27日,浙江理工大学的一位特聘教授购买了杭州野生动物世界年卡,支付了年卡卡费1360元。合同中承诺,持卡者可在该卡有效期一年内通过同时验证年卡及指纹入园,可在该年度不限次数畅游

  同年10月17日,杭州野生动物世界通过短信的方式告知这位教授“园区年卡系统已升级为人脸识别入园,原指纹识别已取消,未注册人脸识别的用户将无法正常入园”。在教授前往实地验证后,工作人员确认了短信属实,并向其明确表示如果不进行人脸识别注册将无法入园,也无法办理退卡退费手续。

  但这位教授认为,园区升级后的年卡系统进行人脸识别将收集他的面部特征等个人生物识别信息,该类信息属于个人敏感信息,一旦泄露、非法提供或者滥用,将极易危害包括原告在内的消费者人身和财产安全。协商无果后,教授于2019年10月28日向杭州市富阳区人民法院提起了诉讼,目前杭州市富阳区人民法院已正式受理此案。

  相关媒体评论道,对公民而言,这一判决将至关重要。在网络时代,个人隐私信息安全面临前所未有的巨大威胁。尽管从《刑法》到《侵权责任法》《消费者权益保护法》等法律,都就保护公民个人信息作出了规范,但随着信息技术的飞速发展,总有些“灰色地带”出现。因此,以司法的力量定分止争,划定人脸识别技术的应用边界,将更好地保护技术洪流中的亿万民众。

  7.汽车无人驾驶系统失灵造成交通事故

  2019年3月,一位驾驶员在驾驶电动汽车时,以每小时109公里的速度与一辆牵引拖车相撞身亡,当时他正在使用该电动汽车的无人驾驶系统。

  无独有偶,2018年12月10日,该品牌电动汽车在美国康涅狄格州95号州际公路上追尾了一辆停放在路边的警车,事故发生时其无人驾驶系统处于开启状态。更早之前,该品牌电动汽车分别发生过撞上匝道隔离栏导致车辆起火、驾驶员遇难不幸遇难事件,其无人驾驶系统也保持在开启状态。

  虽然汽车制造方曾多次表示,其自动驾驶系统是为了辅助司机,他们必须时刻注意并准备好接管车辆。但许多车主在选择购买该品牌时,正是看中其宣传具备的“自动驾驶”功能。

  关于自动驾驶事故责任如何划分,德国可谓走到了所有国家的前面。其最新修订的《道路交通法》有明文规定,在行驶途中系统不可以完全取代驾驶人,须要有人类司机以随时接管车辆,同时其最终责任主要落在驾驶人身上。究其原因,德国政府认为系统终归不是主角,不能替代或优先于驾驶员作出决定,因此汽车制造商不会承担直接责任,只承担次要的产品责任。

  8.人工智能写作软件可批量编写假新闻

  2019年2月15日,某AI研究机构展示了一款写作软件,只需要给软件提供一些信息,它就能编写逼真的假新闻。

  该研究机构公布了软件编写新闻的过程。研究人员给软件提供如下信息:“一节装载受控核材料的火车车厢今天在Cincinnati被盗,下落不明。”以此作为基础,软件编写出由7个段落组成的新闻,软件还引述政府官员的话语,只是这些信息全是假的。

  相关媒体评论道,在虚假信息正在蔓延并威胁全球科技产业的背景下,一个擅长制造假新闻的“高材生”很难不被声讨。如果所托非人,AI将很可能成为影响选民意愿的政治工具。可以想象,这种擅长合理遣词造句的算法,能“按需”生成大量的仇恨语言和暴力言论。AI也能用来生成具有误导性的新闻报道、自动生成垃圾邮件、伪造内容发布到社会化媒体上等等。

  Fast.AI 的联合创始人 Howard 称,“值得警醒的是,我们目前拥有的技术已经能让看起来合理,且与上下文相适应的文本充斥 Twitter、电子邮件和网页。这些假信息都将掩盖其他言论,而且他们难于被过滤。”因为AI生成的文本都不是单纯复制粘贴来的,而是 AI 的即时生成,这导致负面文字无法被有效地追踪和清理。

  9.AI算法识别同性恋准确率超过人类惹争议

  2017年,斯坦福大学一项发表于《Personality and Social Psychology》的研究引发社会广泛争议。研究基于超过35,000张美国交友网站上男女的头像图片训练,利用深度神经网络从图像中提取特征,使用大量数据让计算机学会识别人们的性取向。

  在“识别同性恋”任务中,人类的判断表现要低于算法,其准确率为在男性中61%,在女性中54%。当软件识别被测试者的图片增加到每人五张时,准确率则更是大幅提升:男性91%准确率,女性83%准确率。

  该项研究的争议点在于,一旦这种技术推广开来,夫妻一方会使用这种技术来调查自己是否被欺骗,青少年使用这种算法来识别自己的同龄人,而在LGBT非法的国家里会发生什么则更加难以想象。

  多伦多大学心理学教授NickRule表示,“如果我们开始以外表来判定人的好坏,那么结果将会是灾难性的”。人脸识别科技公司Kairos首席执行官BrianBrackeen认为:“如果有了足够的数据,人工智能可以告诉你任何人的任何事,问题是对于社会来说,我们应该知道吗?”

  10.AI将淘汰大量重复性劳动职业

  BBC基于剑桥大学研究者的数据体系,发布了关于未来最有可能被机器人所取代的365种职业。

  研究表示,在这365种职业中,最有可能被淘汰的就是电话推销员,像这样重复的工作更适合机器人来做,机器人并不会感到疲惫,烦躁。其次是打字员、会计、保险业务员等等,这些职业都是无需技术,以服务为主,只要经过训练就能轻易被掌握。

  研究认为,只需要熟练即可上任的工作,被取代的几率是最大的——工人及瓦匠、园丁、清洁工、司机、木匠、水管工这些都是“高危职业”。

  李开复在达沃斯论坛接受专访时曾表示,虽然AI会取代一部分人类的工作,但有四个领域人类的价值是无法替代的:需要手巧的、需要有创意的、需要有爱心的,还有是需要相对复杂战略性跨领域思维的。

  针对AI发展可能带来的失业潮,李开复给出的解决方案是让被替代的人类重新培训从事有价值感的工作,同时企业、VC甚至政府也应该在提供更多工作岗位上有所作为。

  语结

  我们必须承认,人工智能技术正在改变世界,更在重塑着人类社会。

  社会热点争议事件的背后,是全人类所必须面对的重大议题——人工智能新时代伦理与法律的本质讨论,以及由此衍生出的经济发展与社会公平、权益分配与追责机制、人身安全与隐私保护四大重点板块。

  语音助手“杀人”、AI制造假新闻,本质上是新生事物对于传统伦理与法律的挑战;同性恋检测、“未来被淘汰职业”涉及到社会持续健康发展与人类平权的矛盾问题;无人驾驶事故频出问责难,是呼唤新形势下权责机制认定;而时下人们最最关心的,则是诸如监测头环、AI换脸、杭州人脸识别第一案的人工智能时代下安全与隐私讨论。有关欧盟专利局裁定与加州立法,我们也看到了上层建筑在迎接人工智能社会到来的初步探索与判断。

  人工智能的发展和应用引发了不少争议,并时常见诸媒体。这当中,很多问题是前所未有的,或者未曾预料的。人工智能科学家面临的道德挑战和对人工智能的广泛讨论是全球性的,并不局限于某个国家或企业。作为人工智能行业的领头雁,旷视清楚地认识到肩上的重任。

  诚然,距离人类社会能够构建出一套完美的人工智能治理规则还为时尚早。但是,冲突日渐紧迫、人工智能发展奇点随时可能到来,这要求政府、企业、学界和公民社会几方积极对话,共同形成现实可行的改进机制,以应对全面人工智能时代的到来。

  从钻木取火到计算机时代,人类一直在接受科技、制约科技,最终掌控科技。尽管走过不少的弯路,但科技的力量加之良善的内心,终究让人类不再茹毛饮血,发展到如今的文明程度。

  科技是一种力量,为善是一种选择,针对人工智能治理就是新时代的“驭火之术”。我们理应悦纳人工智能带给人的便捷与舒适,也应努力消弭人工智能带给人的不适与冲突。而这一切的努力,终将改变未来人类社会的样貌,人工智能发展的成果也终将回馈人类自身。

“如果发现本网站发布的资讯影响到您的版权,可以联系本站!同时欢迎来本站投稿!