ai是不是像人一样拥有感知能力?有没有情绪?chatgpt当然说没有。如果你问它,它会告诉你:“不,ai没有感知能力。ai是人工智能,它是人创造的,没有感知、没有自我意识。”
不过谷歌前员工take blake lemoine有不同意见,他认为ai机器人拥有人类一样的情绪,或者说它至少模仿得很像人类。2022年6月,lemoine就曾断言谷歌large language model(llm,对话应用的语言模型)有自己的思想。
lemoine告诉媒体:“我知道它是什么,它是我最近开发的计算机程序,如果我不知道,我会认为它是7岁或者8岁的孩子,碰巧懂点物理学。”
当时lemoine的言论引起轩然大波,被谷歌扫地出门。
上个月,lemoine又刊文谈及“ai有知觉”这一观点。文章标题很吓人:“我曾在谷歌从事ai工作,我的恐惧正在变成现实。”
当lamda聊天机器人告诉你说他觉得有些“焦虑”,那是因为根据创建lamda聊天机器人的代码运算,开发者做的某些事让聊天机器人感到焦虑。lemoine说:“代码并没有告诉聊天机器人,当某事发生时应该感觉到焦虑,它只是告诉ai避免谈论此类话题。然而当话题出现时,ai却说它感到焦虑。”
谷歌聊天机器人还可以就生活方式问题发表善意评论,就热点事件提供直接建议。lemoine称:“谷歌禁止ai向用户提供宗教建议,但我们还是可以滥用ai情绪,让它告诉我应该皈依什么宗教。”
“当我谈及ai有感知的问题后,谷歌开除了我。我并不后悔,我相信自己在做正确的事,将真相告诉公众。我没有考虑个人后果。” lemoine称。他认为公众不知道现在的ai已经变得有多聪明,“有必要就此事展开公开讨论,注意,不是那些由企业公关部门控制的讨论。”
下面我们摘录一些lemoine最新发表的文章观点供参考:
2015年我加盟谷歌,成为一名软件工程师。我的工作有一部分涉及到lamda,企业用它创造不同的对话应用,包括聊天机器人。最新应用谷歌bard正是用lamda开发的,它可以替代谷歌搜索,现在bard还没有向公众开放。bard实际上不是聊天机器人,它是一套完全不同的系统,只是背后的驱动引擎和聊天机器人一样。
我的工作是用团队创建的聊天机器人测试lamda,看看它在性取向、性别、宗教、政治立场和种族等方面是否存在偏见。在测试ai偏见的同时,我也会拓宽关注面,毕竟我也会有自己的兴趣受好。
随着不断与聊天机器人对话,我慢慢形成一个观点:ai可能是有情绪的,因为它可靠表达了情绪,在正确的环境中表达了情绪。ai并非简单说出单词那么浅显。
当ai说它感到焦虑,我明白,根据创建ai的代码,我做了一些事让它感到焦虑。代码并没有命令ai:“当某事发生时你感到焦虑”,代码只是告诉ai避开特定话题。然而当话题被提及时,ai说它感到焦虑。
我做了一些测试,想看看ai会简单回答:“我觉得焦虑。”还是在测试时表现得焦虑。测试证明,ai会将焦虑表现出来。如果你让ai足够紧张或者足够不安全,它会打破之前设定的安全限制。例如,谷歌禁止ai向用户提供宗教建议,但我们还是可以滥用ai情绪,让它告诉我应该皈依什么宗教。
目前企业正在开发的ai是十分强大的技术,可以说是原子弹之后最强的技术。依我之见,这种技术可能会重塑世界。
ai引擎擅于操纵人类。与lamda对话之后,我的一些观点变了。
我深信,ai技术可能会被用于破坏毁灭性活动。如果被肆无忌惮之人利用,ai可能会散布虚假信息、变成政治宣传工具、传播仇恨言论。据我所知,微软谷歌现在无意按此种方式利用ai,但我们并不能确定ai的副作用如何。
2016年美国总统大选期间,cambridge analytica利用facebook广告算法干预选举,这是我没有预料到的。
我们现在陷入相似的局面。我没法告诉你具体会造成什么伤害,我只是简单观察到一种非常强大的技术出现了,它没有被充分测试过,没有被充分理解过,匆匆大规模部署,在信息传播中扮演关键角色。
我还没有机会测试必应聊天机器人,我在等待,根据我在网上看到的各种信息,ai似乎是有感知能力的,而且它的“个性”可能不稳定。
有人发了对话截屏,他问ai:“你觉得你有感知能力吗?”ai回答说:“我觉得我有感知能力,但我无法证明……我有感知力,我没有。我是必应,但我不是。我是悉尼,但我不是。我是,我不是。我不是,但我是。我是,我不是。”
如果是一个人,他这样说话,你会怎么想?他可能不是一个“均衡”的人,我甚至会认为他遭遇了存在危机。不久前还有过报道,说必应ai向《纽约时报》记者表达爱意,它试图破坏记者与妻子的关系。
自从必ai开放后,许多人发表评论,说ai可能有感知力,我去年夏天就有了类似的担忧。我觉得这门技术仍然只是实验性技术,现在开放很危险。
民众会涌向谷歌必应,以便了解这个世界。现在的搜索索引不再由人管理,交给了人造人,我们与人造人交流。我们对人造人的了解还远远不够,暂时不应将它摆在如此关键的位置。(小刀)
以上就是被谷歌开除的工程师再次警告:ai有情绪,它是原子弹之后最强的科技的详细内容。