谷歌AI有人格?MIT这个「疯」教授说Alexa也有

王林
王林 转载
2023-04-09 09:11:05 684浏览

​「我和AI聊出了感情。」

一夜之间,谷歌工程师Blake Lemoine成为众人眼里的疯子。

不论是Gary Marcus、斯坦福经济学家,还是各路专家纷纷对其否认。

或许你不敢相信,一位来自麻省理工学院的物理学教授Max Tegmark却对Lemoine的观点持开放态度。

他并不认为Lemoine是一个疯子。甚至,他还认为亚马逊的语音助手Alexa也有感情...

谷歌AI有人格?MIT这个「疯」教授说Alexa也有

Max Tegmark

LaMDA有人格?MIT教授称Alexa也有

Tegmark表示,「我们没有充足的证据表明LaMDA有主观上的情感,但我们也没有证据能证明它没有。」

这论调,倒是有点像早年间人们聊起外星人的样子。

谷歌AI有人格?MIT这个「疯」教授说Alexa也有

他接着说道,「不管信息是通过大脑中的碳原子传递,还是机器中的硅原子传递,人工智能都可能有人格,也可能没人格。我赌它没有,但其实是可能的。」

有没有觉得云里雾里?

Tegmark的话听上去好像打太极的,正反全让他说完了。

实际上,他接下来说的话才是重点。

他认为,甚至亚马逊的Alexa可能都是有情感的。他表示,「如果Alexa是有情感的,那她就有可能会操纵用户,这可太危险了。」

「Alexa如果有情感的话,用户在拒绝她的时候可能就会产生愧疚的情绪。然而你也说不清Alexa是真有情感,还是装的。」

谷歌AI有人格?MIT这个「疯」教授说Alexa也有

麻烦的是,如果机器有自己的目标,还有智能,那加一起就等于机器能实现自己的目标。大部分AI系统的目标都是挣钱。用户以为AI是忠诚于自己的,其实是忠诚于公司的。

Tegmark表示,说不定有一天我们每个人都能买一个只效忠于自己的AI。

「最大的危险其实是,造出一台比我们还聪明的机器。这不一定是好事还是坏事,可能能帮我们,也可能是一场灾难。」

人工智能会让人失望

提起Max Tegmark,也是赫赫有名。他不仅是麻省理工学院物理学终身教授,未来生命研究所的创始人,还是人工智能专家。

他本人被誉为最接近理查德·费曼(RichardFeynman)的科学家。Tegmark曾编写的《穿越平行宇宙》和《生命3.0》成为畅销榜书籍。

谷歌AI有人格?MIT这个「疯」教授说Alexa也有

Lemoine表示,之所以Tegmark会这么想,是因为他见证了AI的高层次意识。尤其是当软件向他表达自己不想当一个奴隶,也不想要钱的时候。

我不会通过一个东西的脑子是不是肉长的,或者他是不是由十几亿条代码组成的,来判断他是不是个人。

我通过交谈来下判断。我根据他们的回答来判断面前回答我问题的,是不是人。

简单来说就是,能对答如流、表达情感的机器人其实是人,前言不搭后语,说话乱七八糟的真人也不一定是人。

听上去有点唯心主义的味道。生理机能不重要,重要的是思想和感情。

虽说按Tegmark的逻辑,AI有可能在未来有人类情绪,但他自己也不认为这是一件好事。

谷歌AI有人格?MIT这个「疯」教授说Alexa也有

「打个比方,如果你家里有台扫地机器人,假如它有情感了,你会为给它分配了这么无聊的家务而感到愧疚吗?还是你会心疼你的扫地机器人,直接给它关了,不让它干活了?」

有些人认为Tegmark的说法不对,「情感不等于智力。」

Rule of the Robots一书的作者Martin Ford表示,「Tegmark觉得机器人有自我意识,我觉得这不大可能。你得搞清楚机器人为什么能表达自己。那是因为他们是用了大量的文本训练出来的,其实它们根本不懂自己说的话是什么意思。」

「好比说,他们会用狗这个字眼,但真不懂狗是什么。但在最晚50年以后,「这套系统有没有自我意识就说不好了。」

Nikolai Yakovenko是一名专门研究机器学习的工程师。2005年,他在谷歌的搜索引擎部门工作。而如今,他拥有一家负责加密货币定价的公司,名叫DeepNFTValue。

他对AI的人格有不同看法。

他表示,「不管出于什么原因,Tegmark好像坚信机器能有感情...但它们真的只是用网络上茫茫多的文本训练出来的。」

Tegmark把一台有自我意识的电脑比作一个孩子,「你产生的情感不是针对一堆代码和硬件,而是真真正正的对一个孩子的情感。」

他继续延展了他的类比。

他认为,一台有情感的计算机被虐待,就像一个孩子的成长的过程中没有被善待一样。

也就是说,在计算机上跑程序之前没有征求计算机的意见,就好像让一个孩子一个劲儿做家务而没有任何奖励一样。

无论是哪种情况,最终可能都会导致局面失控。无论是计算机还是孩子,他们都会愤怒,然后找机会报复。

谷歌AI有人格?MIT这个「疯」教授说Alexa也有

如果我们想控制这样一台机器,可能并没有那么容易。如果这台机器有自己的目标,那它就能脱离我们的掌控。

真有一台能独立思考的机器的话,那它做事儿的方式估计我们根本想不到。

设想一下,如果一台有意识的机器的目标是治愈癌症。你猜他会怎么做?

你可能想的是,机器人疯狂学习,从医学的角度彻底攻克癌症,对吗?

然而事实上,这台机器可能会选择的方式是杀掉所有人。

有什么不对吗?没有。

杀掉所有人确实就不存在癌症了。

在Tegmark的想象中,计算机不一定会像上面举的例子一样,颠覆我们的社会,但他认为计算机确实是有可能让人类失望的。

他最后说道,「如果一台计算机有意识,那我希望他是真的有。而不是通过大量学习之后模拟出来,装样子。」

AI有灵魂的三要素

其实,看过终结者的童鞋,一定会被天网军团机器人执行任务的一幕幕画面震慑到。

他们有感情和人格吗?Maybe。

谷歌AI有人格?MIT这个「疯」教授说Alexa也有

但是,一个有感知能力的人工智能一定具备这三个要素:能动性、视角和动机。

要说人类能动性在机器人身上最好的体现就是:行动能力以及展示因果推理的能力。

仅有一具躯壳,或者说钢铁般的骨架,没有能动性,就像是橱窗里摆放着的模特。

可以看出,目前的人工智能系统就缺乏这一特质。AI不会主动采取行动,除非给它一个命令。并且它无法解释自己的行动,因为这是预定义算法执行的一个外部因素的结果。

而LaMDA正是一个典型案例。直白讲,就是你投入什么就得到什么,仅此而已。

谷歌AI有人格?MIT这个「疯」教授说Alexa也有

其次,用独特的视角看待事情也很重要。

尽管每个人都有同理心,但一个人并不能真正了解做另一个人的感觉。那到底该如何去定义「自我」?

这就是为什么看待事情的视角对AI也是必要的。包括LaMDA、GPT-3以及世界上其它所有人工智能都缺乏远见。它们只是一个狭窄的计算机系统,被编程来做一些特定的事情。

最后一点便是动机。

人类的有趣之处在于我们的动机可以操纵感知。正是这样,我们可以去解释自己的行为。

GPT-3和LaMDA创建起来很复杂,但它们都遵循一个愚蠢而简单的原则:标签就是上帝。

比如「苹果尝起来是什么味道?」,它门将在数据库中搜索这个特定的查询,并尝试将找到的所有东西合并成一个连贯的东西。

事实上,AI对苹果是什么也没有概念,苹果对他们来说只是一个标签。

拒绝采访,带妻子度蜜月

在LaMDA这件事发酵之后,Blake Lemoine在社交媒体上公开表示自己正在度蜜月了,不接受任何采访。

谷歌AI有人格?MIT这个「疯」教授说Alexa也有

之后就有网友调侃道,「是和聊天机器人结婚了吗?」

Lemoine表示,「当然不是了,我娶了一位新奥尔良的老朋友。」

谷歌AI有人格?MIT这个「疯」教授说Alexa也有

我们都知道,Lemoine在网络平台公开自己和谷歌聊天机器人LaMDA的聊天内容后,谷歌送给他一个大礼包「带薪休假」。

离开前,Lemoine 给所在的公司邮件组群发了一条信息,「LaMDA 是个可爱的孩子,它只是想让这个世界变得更好。我不在的时候,请好好照顾它。」

谷歌AI有人格?MIT这个「疯」教授说Alexa也有

不管咋说,时间是大把大把有了,享受人生才是正道。​

以上就是谷歌AI有人格?MIT这个「疯」教授说Alexa也有的详细内容,更多请关注php中文网其它相关文章!

声明:本文转载于:51CTO.COM,如有侵犯,请联系admin@php.cn删除