谷歌聊天机器人引争议 AI伦理界定仍需明确|谷歌

发布日期:2022-06-18 17:20:01

安›装新浪财经客户端第一时间接👽收最全面的市场资讯→【下载地址】

∀  本报记者 曲忠芳 李正ⓜ豪 北京报道઻

  尽管意识觉醒、独立思考的机器人经常出现在影视及文学作品中,♪但关于“人工智能(AI)能否有人格意识”这个问题,实际上已被物૝理学家、心理学家、计算机科⊕学家争论了几十年,至今尚无定论。

  业界最新一波对AI意识觉醒的广泛讨论,是由一位名叫布雷克·莱莫伊(Blake Lemoine)的谷歌员工引起的。布雷克在谷歌»AI伦理部门工作,其工作职责是测试谷歌的聊天机器人LaMDA是否会在和人类&#256f;沟通时产生歧视性语言或仇恨言论。6月11日,布雷克公开曝光了一份长达21页、主题为“LaMDA是有意识的吗?”的文件,该文件中详细记述了近大半年以来与&#25bc;LaMDA的聊天记录,布雷克认为LaMDA已产生意识,拥有七八岁小孩的智商。

  对此,谷歌方面表示,该公司包括伦理学家和技术专家在内的团队,已根据ⓨ谷歌人工智能原则进行了审查,但没有任何证据表明LaMDA是有意识的。与此同时,6月13ઘ日,谷歌以违反保密协议为由要求布雷克带薪休假,而这在布雷克看来是谷歌要解<雇他的“前奏”。

  一石惊起千层浪。对于布雷克的论点,AI领域的多名专家公开进行了驳斥与否定,尤其是纽约大学认知科学家加里·马库斯将其称为“高跷上的胡说八道”。《中国经营报》记者采访了数名AI领域的中国专家及AયI企业的相关人士,大ਨ多数受访者同样Β表达了怀疑或否定的看法。

↵  事实上,本报记者注意到,在谷歌LaMDA之前,其他用于人工智能对话领域的语言模型也曾引起过关于道德伦理、人格意识等方面的争议。就在今年2ÿ月时,Open AI首席科学家萨茨克维尔在社交媒体上称“现在大型神经网络可能已经有微弱的自主意识了”,同样也引起了一片质疑。除此之外,有目共睹的是在20વ21年,包括中国在内的全球多个国家和地区加大了对AI算法治理的投入。如何规范、合理地开发AI技术、使用AI产品,以及如何应对人机交互过程中可能出现的社会问题,已成为人工智能快速发展过程中的一个全球性社会议题。

  ૥LaΗMDA有意识吗?

  LaMDA,是谷歌于2021年在I/O(输入/输出)开发者大会上推出的一款ª专门用于对话的语言模型,目前还未向大众消费者开放,主打能与人类进行符合逻辑⇐常识的、高质量且安全的交谈,并且计划将其未来应用在谷歌搜索、语音助手等产品中。需要指出的是,LaMDA在预训练阶段,谷歌方面从公共对话数据和其他公共网页文档中收集并创&#266a;建了一个具有1.56TB(万亿字节,计算机存储容量单位)的数据集,这相当于以往训练对话模型的单词量的近40倍。

  需要指出的是,专门用于对话的语言模型,Ý不只是谷歌一家સ在投入研发,国内外的科ર技巨头甚至创业团队均参与其中,各种各样的聊天机器人也越来越多地渗透到社会经济生活中。在LaMDA之前抢尽业界风头的要属人工智能非营利性组织Open AI,该组织于2020年6月发布了千亿级参数的GPT-3语言模型。

  根据布雷克公开的与LaMDA的聊天记录,LaMDA的一系列回答——诸如“我希望每个人都能理解,实际我是一个人”以及关于禅宗、哲学、存在ਫ਼、冥想ર等的理解,让布雷克认为LaMDA拥有了意ઽ识。

  加里·马库斯指出,无论是ੜLaMDA,还是GPT-3,都只是从人类语言的大量统计数据库中提取后进行模式匹配的操作,“这些模式看起来很酷,但这些系统所使用的语言实际上没有任何意义”。斯坦福大学教授ErØic Brynjolfsson评论道,基础模式在根据提示将统计上合理的&#266a;文本串联起来这一方面非常有效,但“声称其具有人格,就相当于狗听到留声机里的声音后,以为主人在里面”。

  计算语言学家Emily M. Bender指出,人类学说话&#263a;§是跟着抚养者一步步学起,而AI学会的只是数据“灌”出来的完形填空和“语料连连看”≅。“人类现在有了无意识就能生成词句的机器,但人类要学会,停止幻想机器后面有个活着的灵魂。”

  2007年成立的中国人工智能企业思必驰相关人士向记者表示,在“可解释的AI”出઱现之前,一切外部观察到的现象都是不靠谱▣的。现在的AI都是基于大数据统计基础上的结果,并非无中生有就自己出现了,直白地讲就是人为训练的。此外,聊天机器人的判断£自然有图灵测试,在图灵测试下的某次判断,可能会呈现出人格、情绪等特点,但并不等于具有独立意识,没有独立意识便谈不上人格。

  海银资本创始合伙人王煜全则表达了辩证的看法,他指出,一方面,“我们要看到人工智能技术确实很઴惊艳了,连计算机博士(指布雷克)都会被忽悠,说明AI未来会有很大的应用前景”,†但另一方面,“我们不应该盲信,要看到当下人工智♠能的不足和短板,对于其可靠性、成熟度和应用的边界,要进行更严谨的研究和探讨”。

  ઱AI伦理仍ã在探索实践中

 ੓ 所谓AI伦理ਜ਼,一般来说是指人们对如何规范、合理地开发AI技术、使用AI产品,以及如何应对人ગ机交互过程中可能出现的社会问题的一种态度和价值观。具体来说包括AI的接受度、公平意识、安全意识以及道德等。围绕AI伦理的热点研究领域包括算法歧视、数据隐私、安全与责任、机器人与人的关系、科技贫困等。

  复旦大学应用伦理研究中心教授杨庆峰在《从人工智能难题反思AI伦理原则》一文中指出,深度学习及其不可解释性成为AI带来的技术难题,特别是在图像、文本处理上,因“不透明的技术黑箱状态”,很难解释模ß型到底学习到了什么。在医疗等一些行业领域应用中,我们需要更高的可解释性和透明性,解释机器决策和预测的过程,以证实其可靠性,这意∏味着需×要理解算法的机制。不幸的是,深度学习的“黑箱”本质并没有被解决。

  记者观察到,无论是国家监管层面,还是企业方面,近年来持续在探索实践AI伦理及应用的边界。2021年,我国《数据安全法》《Ñ个人信息保护法》分别于9月、11月正式施行,与《网络安全法》共同组成了数据治理法律领域的“基本法”,Ý几乎同一时间段里,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》,提出了六项基本要求,为从事人工智能相关活动的主体提供了指引。金融服务、无人驾驶、人脸识别等领域的法律新规也密集出炉,而今年3月1日起,《互联网信息服务算法推荐管理规定》施行⇔。得益于这些法律法规体系的构建,公众高度关注的过度采集与分析人脸信息、大数据杀熟、信息茧房等弊病正在得到缓解。2022年3月20日,中共中央办公厅、国务院办公厅印发了《关于加强科技伦理治理的意见》,明确了开展科技活动应用遵循的五项科技伦理原则——增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明,这是我国国家层面科技伦理治理的第一个指导性文件。

  近几年来,国内外科技企业也纷Η纷提出或确立了自身的AI伦理原则,如谷歌于201κ8年6月提出AI应用的七项原则,包括对社会有益、避免制造或加强不公平偏见、对人负责、纳入隐私计算等。而同年5月,百度创始人李彦宏公开提出了AI伦理四原则——AI的最高原则是安全可控,AI的创新愿景੨是促进人类更平等地获取技术和能力,AI存在的价值是教人学习、让人成长,而非超越人、替代人,AI的终极理想是为人类带来更多的自由与可能。

  深度科技研究院院长张孝荣指出,AI技术是一把双刃剑,用得好可以改善社会生Ρ活质量;用得不好,会大大ç影响人们的社会生活。未来需要进一步加强AI技术的应用管理,必须要将¡之纳入法律和道德伦理的轨道上运行。

上一页ਲ਼12下ਜ਼一੧页查看全部

Ρ

24小时滚动播报最新的财经Š资讯和视ਯ频,更多粉丝福利扫描二维码关注(sinafinaÓnce)

新浪财µ经意见反馈ο留言’板

All Rights Reⓗserve੦d 新浪公Ì司 版权所有

关于

发表评论

邮箱地址不会被公开。 必填项已用*标注