目录
前往Agi和ASI
人类的智力作为量表
沙滩上的线
曲折曲折
AI研究立场
超人情报的奥秘
进入未知
首页 科技周边 人工智能 AGI和AI超级智能将严重击中人类天花板的假设障碍

AGI和AI超级智能将严重击中人类天花板的假设障碍

Jul 04, 2025 am 11:10 AM

AGI和AI超级智能将严重击中人类天花板的假设障碍

让我们谈谈。

对创新AI突破的分析是我正在进行的AI中正在进行的福布斯列覆盖的一部分,包括识别和解释各种有影响力的AI复杂性(请参阅此处的链接)。

前往Agi和ASI

首先,需要一些基本原理才能为这个重大的讨论奠定基础。

正在进行大量研究以进一步提高AI。一般目标是达到人工通用智能(AGI),甚至达到实现人工超智慧(ASI)的伸出的可能性。

Agi是AI,它与人类的智力相提并论,并且似乎可以符合我们的智慧。 ASI是AI,它超越了人类的智力,并且在许多甚至不是所有可行的方式上都将是优越的。这个想法是,ASI能够在各个转弯处超越我们来围绕人圈。有关传统AI与AGI和ASI的性质的更多详细信息,请参阅此处的链接分析。

我们尚未获得Agi。

实际上,我们是否将到达AGI,或者AGI在数十年或几个世纪以来都可以实现。漂浮在周围的agi达到的日期是由于任何可靠的证据或铁克拉德逻辑而迅速变化的,并且没有证实。当涉及到我们目前使用常规AI的位置时,ASI更加苍白。

人类的智力作为量表

您是否曾经思考过询问高高高高的经典谜语?

我确定你有。

孩子们问父母这个烦恼的问题。通常的答案是,向上移到了地球大气的外边缘。达到该阈值后,向上继续进入外太空。 UP要么是基于我们大气的有限概念,要么是一个几乎无限的概念,它的范围与我们不断扩展的宇宙的边缘有关。

我引起了您的注意,因为它在某种程度上反映了关于人类智力本质的类似问题:

  • 人类智力可以发挥多大?

换句话说,我们目前所表现出的智力可能不是我们的上限。如果您将我们的智能与过去的智能进行比较,那么我们肯定会在世代相传地增加智力时相对显而易见。 2100年出生的人会比我们现在更聪明吗?那2200年出生呢?总而言之,大多数人会推测,是的,这些后代的智能将比目前普遍的智能更大。

如果您购买该逻辑,那么与棘手的方面会抬起其棘手的头部。这样想。人类智力的能力将在世代发展。在某个时候,存在一代人会被关闭吗?未来的一代代表了人类智力有史以来最高的。随后的几代人将具有平等的人类智力,或者更少,而不是更多。

我们要回答这个问题的原因是,当前的紧迫需要知道是否存在限制。我早些时候指出,AGI将与人类的智力相提并论,而ASI将是超人的智能。 Agi在哪里顶,以便我们可以画一条线并说是这样?该行之上的任何东西都将被解释为超人或超级智能。

现在,将人类智力用作测量棒是朦胧的,因为我们不知道这条线有多长时间。也许该线在某个给定的点结束,或者也许它会保持无限的发展。

给那个沉重的想法思考。

沙滩上的线

您可能会想假设必须与人类智能有上限。这直觉感觉正确。我们还没有达到这一限制(似乎!)。人们希望人类有一天能够寿命足够长,可以到达外在的气氛。

由于我们将假设人类智能具有一个顶点,因此为了讨论而这样做,我们现在可以宣布AGI还必须有一个顶点。该主张的基础当然是可以辩护的。如果AGI包括模仿或以某种方式表现出人类智能,如果人类智能达到最大程度,AGI也将不可避免地达到同样的最大值。那是一个定义的假设。

诚然,我们不一定知道最大点是什么。不用担心,至少我们已经稳定地相信有一个最大的信念。然后,我们可以将注意力集中在弄清最大位置的位置。无需不再需要无限方面的压力。

曲折曲折

AI陷入了与人类智能上限的尚未解决的难题有关的争议中。让我们探索三种显着的可能性。

首先,如果有人类智能的上限,也许意味着不可能有超人的智能。

说什么?

它是这样的。一旦我们达到了人类智能的顶峰,班班,就是这样,就没有更多的空间来向上进行。到那时,任何事情都是常规的人类智力。我们可能会错误地认为存在超人的智慧,但实际上这只是智力领先于常规智能。本身没有任何超人情报。一切都局限于传统情报。因此,我们制作的任何AI最终都不会比人类的智力大。

仔细考虑。

其次,好吧,如果有人类情报的上限,也许通过AI,我们可以超越天花板并设计超人的智能。

这似乎更简单。本质是人类最重要的是,但这并不意味着AI也必须加入。通过AI,我们也许能够超越人类智能,即超越人类智能的最大限制。好的。

第三,如果没有任何人类智能的上限,我们可能不得不说超人智力被包括在无限的可能性中。因此,AGI和ASI之间的区别是虚假的。这是任意绘制的线路。

是的,这是一个令人难以置信的困境。

没有一些固定的降落,因为是否有人类的智能上限,钉住Agi和ASI的机会仍然超然。我们不知道这个上限命题的答案;因此,AI研究必须对未解决的主题做出不同的基本假设。

AI研究立场

人工智能研究人员经常采取立场,即必须与人类智力相关的最大水平。他们通常接受即使我们无法证明它也有最大值。完全未知但被认为存在的极限变成了AGI和ASI之间的分界线。一旦AI超过了人类的智力极限,我们就会发现自己在超人领土上。

In a recently posted paper entitled “An Approach to Technical AGI Safety and Security” by Google DeepMind researchers Rohin Shah, Alex Irpan, Alexander Matt Turner, Anna Wang, Arthur Conmy, David Lindner, Jonah Brown-Cohen, Lewis Ho, Neel Nanda, Raluca Ada Popa, Rishub Jain, Rory Greig, Samuel Albanie, Scott Emmons, Sebastian Farquhar, Sébastien Krier, Senthooran Rajamanoharan, Sophie Bridgers, Tobi Ijitoye, Tom Everitt, Victoria Krakovna, Vikrant Varma, Vladimir Mikulik, Zachary Kenton, Dave Orr, Shane Legg, Noah Goodman, Allan Dafoe, Four Flynn, and Anca Dragan, arXiv , April 2, 2025年,他们提出了这些明显的观点(摘录):

  • “没有人类的上限假设:一旦与最有能力的人类达成平等,人工智能能力将不会停止进步。”
  • “我们的第一个主张是,超人的表现在几项任务中被令人信服地证明。这提供了“概念证明”,即存在具体,明确定义的任务,该任务并不代表AI的有意义的天花板。”
  • “我们的第二个主张是,人工智能发展朝着更具通才,灵活的系统表现出趋势。因此,我们预计超人的能力将在未来越来越多的任务中出现。”
  • “我们的第三个主张简单地说,我们没有观察到为什么AI能力在与最有能力的人类均等时停止改善。”

从这些关键点可以看出,研究人员试图提出一个令人信服的案例,即有超人的智力。超人人类包括超出人类天花板的东西。此外,AI不会陷入人类的智力上限。 AI将超越人类的天花板,进入超人智力领域。

超人情报的奥秘

假设有人类智力的上限。如果这是真的,超人的智力会与人类智力的本质完全不同吗?换句话说,我们说人类的智力无法达到超人的智慧。但是,我们正在设计的AI似乎通常是围绕人类智能的整体本质而塑造的。

那么,当人类智力显然无法做到这一点时,围绕人智力的AI如何才能获得超级智能?

最常见的两个答案是这些可能性:

  • (1)这是大小或规模的问题。
  • (2)这是一个差异化问题。

对愤怒的谜团的通常首先回应是,大小可能会带来差异。

人的大脑重量约为三磅,完全局限于我们的头骨的大小,大致使大脑在各个维度上约为5.5英寸x 6.5英寸x 3.6英寸。人脑由大约860亿个神经元和1000万亿个突触组成。人类的智力似乎坚持这些规模约束中可能发生的一切。

AI是软件和数据,可能会跨越数千或数百万的计算机服务器和处理单元。我们总是可以添加更多。尺寸限制的限制不如包含在我们头部内部的大脑。

最重要的是,我们可能拥有超人智能的AI的原因是由于超出了人类大脑的身体大小限制。硬件的进步将使我们能够替换更快的处理器和更多的处理器,以继续将AI推向超人智能。

第二个反应是,AI不一定需要符合引起人类智力的生化成分。由于大脑在生物化学上预期,超人的智力可能对人类不可行。可以轻松设计和修改AI,以利用各种新型的算法和硬件,从而将AI功能与人类能力区分开来。

进入未知

大小和差异化的这两个考虑因素也可以共同起作用。可能是AI在智力上变成超人,因为AI模仿或代表智力的方式的缩放方面以及差异化。

Hogwash,有些劝诫。 AI是由人类设计的。因此,AI不能比人类做得更好。 AI有一天将达到人类智力的最大程度,并且不再是人类的智力。时期,故事结束。

哇,反驳。考虑人类弄清楚如何飞行。我们不会像鸟那样拍打手臂。相反,我们设计了飞机。飞机飞。人类制造飞机。 Ergo,人类可以绝对超出自己的局限性。

同样的适用于AI。人类会成为人工智能。 AI将表现出人类的智慧,并在某个时候达到人类智能的上限。然后,AI将进一步发展为超人情报,超出了人类智能的局限性。您可能会说,即使人类不能这样做,人类也可以制造飞行的AI。

目前,关于这个迷人的话题的最终想法。阿尔伯特·爱因斯坦(Albert Einstein)著名地说:“只有两件事是无限的,宇宙和人类的愚蠢,我不确定前者。”非常厚脸皮的评论。继续前进,让AI成为AGI,可能是ASI进行一些认真的审议,但要清醒,因为所有人类都可能取决于答案是什么。

以上是AGI和AI超级智能将严重击中人类天花板的假设障碍的详细内容。更多信息请关注PHP中文网其他相关文章!

本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn

热AI工具

Undress AI Tool

Undress AI Tool

免费脱衣服图片

Undresser.AI Undress

Undresser.AI Undress

人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover

AI Clothes Remover

用于从照片中去除衣服的在线人工智能工具。

Clothoff.io

Clothoff.io

AI脱衣机

Video Face Swap

Video Face Swap

使用我们完全免费的人工智能换脸工具轻松在任何视频中换脸!

热工具

记事本++7.3.1

记事本++7.3.1

好用且免费的代码编辑器

SublimeText3汉化版

SublimeText3汉化版

中文版,非常好用

禅工作室 13.0.1

禅工作室 13.0.1

功能强大的PHP集成开发环境

Dreamweaver CS6

Dreamweaver CS6

视觉化网页开发工具

SublimeText3 Mac版

SublimeText3 Mac版

神级代码编辑软件(SublimeText3)

热门话题

PHP教程
1535
276
从提示到产品:无代码AI的业务正在蓬勃发展 从提示到产品:无代码AI的业务正在蓬勃发展 Jul 26, 2025 am 11:13 AM

使收购脱颖而出的不仅是财务数字,而且是公司进行的非常规的旅程。 Base44从未追求风险投资或遵守传统的硅谷公式。相反,它证明了那个机智

我们是在目睹机器心理学的诞生吗? 我们是在目睹机器心理学的诞生吗? Jul 24, 2025 am 11:12 AM

Artsmart.ai最近的一项调查显示,“ 32%的参与者将考虑使用AI进行治疗,而不是去看人类治疗师。”大约在同一时间,NPR强调了新发现,表明:“经过适当的培训,AI聊天机器人可以

AI会使'无限工作日”变得更糟 - 除非我们采取不同的行动 AI会使'无限工作日”变得更糟 - 除非我们采取不同的行动 Jul 22, 2025 am 11:12 AM

这个无限的工作日是由全球团队和混合动力工作的现实加剧的,以及对持续可用性的不合理期望。结果?一个努力跟上的劳动力:三分之一的员工说过去的工作步伐

AGI和AI超级智能需要回答智力证明的问题数量 AGI和AI超级智能需要回答智力证明的问题数量 Jul 21, 2025 am 11:09 AM

这不仅仅是一个学术哲学问题。在某个时候,我们应该准备同意是否已经达到了ASI和ASI的出现。这样做的可能是问AI问题,然后衡量知识分子的问题

一个创始人可以用AI推出一百万美元的产品品牌吗? 一个创始人可以用AI推出一百万美元的产品品牌吗? Jul 22, 2025 am 11:09 AM

此最新更新旨在最大程度地减少对传统团队的依赖。彼得拉(Pietra)的AI管理在线零售的许多方面 - 供应商的沟通,库存监控,营销活动,订单实现和绩效分析。

相信Agi和AI超智能将为我们带来生活的真正含义 相信Agi和AI超智能将为我们带来生活的真正含义 Jul 26, 2025 am 11:14 AM

好吧,请准备好自己,因为Pinnacle AI有很大的机会确定能够回答这个史诗般的问题。很抱歉令人失望

新的机器人除草机即将到来 新的机器人除草机即将到来 Jul 26, 2025 am 11:09 AM

总的来说,这是艰苦的,身体上苛刻的工作 - 并不是人类认为容易或愉快的东西。当它到达市场规模时,全球除草行业估计价值约420亿美元,属于更广泛的农业。

量子计算在主流之前面对3个主要障碍 量子计算在主流之前面对3个主要障碍 Jul 24, 2025 am 11:13 AM

从业务角度来看,量子计算具有跨计算速度至关重要的行业的创新的希望,例如物流,现实世界模拟和人工智能。

See all articles