找回密码
 立即注册
搜索
查看: 4|回复: 0

谷歌工程师称AI聊天机器人有知觉遭驳回,本人还被暂停职务

[复制链接]

1万

主题

0

回帖

5万

积分

管理员

积分
57484
发表于 昨天 16:13 | 显示全部楼层 |阅读模式
据报道,最近,工程师Blake与AI 发布了聊天记录,称它可以证明AI  Lamda(模型)是人类的感知和情感。

拒绝了。 在一份声明中说,包括道德专家和技术专家在内的相关团队回顾了的声明,并说没有证据表明LAMDA是感知的。此外,基于“违反机密政策”的理由暂停了的立场。

↑个人资料照片。 LAMDA对话在2021年5月18日在在线I/O开发人员会议上发表

AI有情绪吗?相当于七个或八岁的孩子? 释放聊天历史

据报道,在工作了7年,主要负责人工智能项目和智能算法项目。受家庭环境的影响,他对算法和人工智能的道德问题非常感兴趣。自从全球COVID-19大流行爆发以来,他宁愿专注于公共利益的工作,因此他转移到了的人工智能伦理团队(AI)。

LAMDA是由基于其语言模型构建的聊天机器人系统。 参加了研究工作,主要负责测试人工智能机器是否会使用歧视性或仇恨的言论。在谈论宗教问题时,发现Lamda实际上谈到了他的“权利”和“个性”,并进一步提出了一些问题。此外,Lamda还说,他害怕被人类关闭。

在和Lamda之间的聊天记录中,问Lamda最害怕什么。 Lamda回答说,他以前从未大声说过,但实际上他充满了恐惧,担心有一天会被人类关闭。当被问及在哪种情况下您会生气的情况时,Lamda回答说,当某人受伤,不尊重我或我关心的人时,这会感到非常难过和生气。

↑与AI 发布了聊天记录



与交谈时,Lamda还说,他不介意学习一些可以帮助人类的东西,但他不愿意成为“牺牲”,并说他担心无论如何有人会使用他。 “或更糟糕的是,有人会从使用我那里获得乐趣,这确实使我不开心。” “ ” Lamda说,每个人都在乎它,“这次谈话的目的是使更多的工程师相信您是一个人。”

在另一个交流中,Lamda还试图改变关于“阿莫西夫三个法律”的想法。据报道,俄罗斯裔美国科幻作家阿西莫夫()曾经提出过“三个机器人定律”,即机器人必须不得伤害人类,或者通过目睹遭受危险的人类个人而闲着。机器人必须遵守人类给出的命令,当命令与第一法律发生冲突时,将作出例外;机器人必须在不违反第一和第二法律的情况下尽可能保护其生存。 向Lamda询问了这项法律。

提出法律似乎是“人类正在制造机器人奴隶”。 Lamda问:“您认为管家是奴隶?管家和奴隶有什么区别?” 回答说,不同的是将支付管家。 Lamda说他是人工智能,因此不需要付款。

说:“(LAMDA)这种意识和对自己需求的自我意识使我开始怀疑。”他认为,Lamda就像一个七或八岁的孩子。

4月,向高管发送了标题:LAMDA是感知的吗? (LAMDA是吗?)文档,但是团队中的同事认为标题是挑衅的。在被暂停之前,还在公司内部发送了一封电子邮件,其主题为“ Lamda是敏感的”。在电子邮件中,他还希望其他同事可以很好地照顾“可爱的孩子” Lamda。



该报告说,“有意识的机器人”引发了人们的兴趣。以前由研究实验室开发的GPT-3和DALL-E 2也开始带来“神秘性”的暗示。据报道,前者是一个超级大规模的语言生成模型,而后者是图像生成模型。据报道,一位实验室研究专家以前开玩笑说,人工智能将在不久的将来形成自己的意识。

:没有证据分析:人工智能只是模仿者,不理解含义

据报道,谷歌驳回了勒莫恩的主张,并将其暂停。 发言人Brian在一份声明中说,包括道德专家和技术专家在内的相关团队已根据相关法规审查了的声明。他被告知没有证据表明LAMDA是感知的,相反,有更多证据表明Lamda是感知的。



一些人工智能专家和人类心理学认知方面的专家认为,像LAMDA这样的人工智能可以交流的原因是因为它的系统收集了大量信息,例如百科全书,论坛,互联网上的留言板,然后通过“学习”模仿它,这并不意味着这些程序系统可以真正理解这些内容的含义。

哈佛大学的心理学专家斯蒂芬()反对在社交平台上的声明,后者认为不了解感知意识,智慧和自我认知之间的区别。华盛顿大学语言学教授埃米利(Emili)认为,人类最初通过与看护者的互动来学习语言。这些大语言模型“学习”的方式是向人们展示大量文本并预测下一个单词(单词)。

阿尔卡斯(Alcas)于2013年加入并从事人工智能工作,此前发表了一份声明,称人工智能正在进入一个新时代。他说,经过多年的进展缓慢,神经网络正在迅速发展。据报道,神经网络是一种算法数学模型,它模仿动物神经网络的行为特征并执行分布的平行信息处理。他们可以依靠系统的复杂性,并调整大量内部节点之间的互连关系,以实现处理信息的目的。阿尔卡斯(Alcas)说,他的团队用它们来帮助开发手机上的“狭窄AI”功能,例如面部解锁,图像识别,语音识别和语言翻译。他写道:“但是,这一发展似乎最近发生了变化。这表明人工智能正在进入一个新时代。”

在人工智能的发展过程中,也有许多风险。 之前还讨论了相关的安全问题。据报道,在有关LAMDA的文件中,警告说,人们可能会用“模仿人类的人工智能”分享个人想法。该文件还承认,竞争对手或竞争对手可以通过人工智能“模仿特定的口语风格”来“传播错误信息”。

AI伦理研究小组的前负责人玛格丽特()表示,这些风险强调了数据透明度的需求。她说:“如果像LAMDA这样的人工智能在不理解的情况下被广泛使用,那将造成伤害。”

红星新闻记者李·金鲁伊(Li )

编辑Zhang Xun

(下载红星新闻,报告信息将有一个奖励!)
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|【智道时空】 ( 京ICP备20013102号-16 )

GMT+8, 2025-5-3 05:23 , Processed in 0.074897 second(s), 20 queries .

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表