Geoffrey Hinton的7个关键亮点
如果AI的教父告诉您“训练成为水管工”,那么您知道这是值得听的 - 至少这就是引起我注意的原因。在最近的讨论中,杰弗里·欣顿(Geoffrey Hinton)谈到了Upertintelligent AI所塑造的潜在未来,如果您很好奇这次谈话是如何展开的,那么您并不孤单!在这次演讲中,欣顿谈到了围绕人工智能的一些最大问题:它的风险,社会影响以及所有这些对我们作为人类意味着什么。让我们探索这个著名的AI先驱所共有的主要收获和思想。
内容表
- 杰弗里·欣顿(Geoffrey Hinton)采访的主要亮点
- AI的演变
- 人工智能对工作的影响
- 两种AI风险
- AI导致的就业市场不断变化
- 战争中的人工智能
- 超级智能威胁
- 法规:太少,太晚了?
- 结论
杰弗里·欣顿(Geoffrey Hinton)采访的主要亮点
杰弗里·辛顿(Geoffrey Hinton)出现在由著名的英国企业家史蒂芬·巴特利特(Steven Bartlett)主持的播客“首席执行官日记”上,讨论了他目前的使命 - “警告人们有关人工智能的危险。 ”当我们接近一个转折点时,机器可能会变得更加聪明,而不是人类更加聪明,他感觉不足以建立这些机构,以建立这些机构,这些机构能够掌握这些机构的能力,而这些机构可以由领导者和技术来掌握这些机构。
以下是讨论中的一些值得注意的观点:
1。AI的演变
杰弗里·辛顿(Geoffrey Hinton)花费了二十年的时间来倡导基于神经网络的AI模型,旨在模仿人脑学习和识别模式的能力。最初,他的想法被怀疑和拒绝。然而,今天,他的工作构成了现代AI的基础。 Hinton与他的才华横溢的学生一起在发展深度学习方面发挥了作用,这为当今的AI技术提供了动力。当被问及他预见AI如何超越人类智慧时,欣顿承认他很慢地意识到这一点。他指出,Chatgpt标志着AI的主要里程碑,展示了超出预期的能力,包括理解和模仿人类的情感。
Hinton解释说,AI与生物智能基本上不同。随着更快的学习速度,更高的数据处理能力以及远远超出人类能力的量表,AI可能很快就会超过人类的智能。如果发生这种情况,AI可以做出决定,而无需任何人类的监督或解释。
2。AI对工作的影响
让我们开始开个玩笑,但这并不是真的很有趣。当Geoffrey Hinton被问及AI时代的职业选择时,他开玩笑地建议成为一名水管工。幽默隐藏了一个严重的警告:AI可能会取代许多知识工作。随着人工智能变得更加先进,一旦需要人类输入的常规认知任务可能不再需要。即使涉及创造力和复杂决策的角色也不是安全的,因为LLM会直接与人类竞争。这意味着人们将继续使用更少的高级工作。
3。两种AI风险
欣顿概述了两种主要类型的AI风险。第一个涉及滥用造成的即时威胁,例如网络攻击,欺诈和操纵变得更加有效和危险。关于风险的第二个也是更大的是,当AI变得比人类聪明得多。欣顿认为,在那个阶段,我们甚至可能不了解AI在做什么或如何控制它。例如,聊天机器人数据可用于用高度针对性的广告来操纵选民。诸如YouTube和Facebook之类的平台可能会使用LLM来利用人们的情绪来推动特定的议程。
4。由于AI而不断变化的就业市场
Hinton提出的最紧急问题之一是AI将如何影响就业。尽管许多人将AI视为支持人工工人的工具,但欣顿警告说,AI将消除大量工作,尤其是那些涉及重复性精神任务的工作。他以侄女为例,他的侄女在医疗保健工作,现在使用AI来更快地处理投诉。这说明了AI如何取代以前需要大量人力努力的工作。
根据欣顿的说法,涉及智力劳动力的工作将逐渐消失,尽管现在的医疗保健和体力劳动等领域仍然可以安全。但是,如果有能力的机器人变得广泛,即使这些领域也可能会改变。
5。战争中的AI
在讨论AI在战争中的作用时,Hinton对“致命的自动武器”表示关注。这些机器可以独立地决定针对谁,并有可能改变战争的方式。随着人类参与度的最低,随着国家避免士兵的损失,冲突可能会变得更加频繁,抗拒。尽管这些武器可能不比人类聪明,但它们在没有直接人类投入的情况下运作,这使它们变得不可预测和危险。尽管代价高昂,但对于预算足够的国家来说,这种武器将无法实现,这使它们比传统军队具有优势。
另请阅读:詹森黄(Jensen Huang)的8个未来预测听起来像科幻小说
6。超级智能威胁
Hinton走得更远,解释说,一旦AI达到超级智能,它以各种方式胜过人类,它将不再取决于人类的需求或欲望。问题不是AI是否可以超越我们,而是它是否决定完全删除我们。超级智能AI可能会将人类视为对其目标的威胁,并以可能结束文明的方式行事。这听起来像是《终结者3》中的东西,但是对于Hinton(在AI安全方面工作)来说,这真是令人担忧。现在的挑战是创建安全,安全且始终在我们控制之下的AI。
7.法规:太少,太晚了?
欣顿承认正在引入法规,尤其是在欧洲,但认为他们没有解决AI危险的全部范围。例如,一些法律省略了AI的军事应用,这是最大风险所在的地区。他还强调了政府和公司如何利用AI来影响选举,管理人口和加深不平等。
尽管担心不断增加,Hinton仍然怀疑我们是否能够减慢AI的开发,因为该技术太有价值并且深深地嵌入了全球系统中。对他来说,AI是一支不可阻挡的力量,这是一种技术转变,已经取得了太远。
注意:您可以在这里听到整个对话。
结论
这次采访使我感到紧迫感。他描述的危险非常真实。虽然AI提供了改善我们生活的绝佳机会,包括改革医疗保健,教育和生产力 - 它也带来了严重的风险,使社会准备不足以应付。从失业到自动武器,AI的效果可以以我们尚未准备好的方式重塑我们的世界。
Hinton的信息很明确:我们必须在AI安全方面进行大量投资。我们能否真正控制AI的未来仍然不确定。但是,如果我们不尝试,我们可能会面临以灾难性结果为主导的未来的未来。
在反思这次对话时,我发现自己有更多的问题,而不是答案。然而,有一件事是可以肯定的:我们站在远比我们任何人完全掌握的东西的边缘。人工智能可能被证明是人类的最大成就,或者是最大的错误。选择和责任在于我们。
以上是Geoffrey Hinton的7个关键亮点的详细内容。更多信息请关注PHP中文网其他相关文章!

热AI工具

Undress AI Tool
免费脱衣服图片

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Clothoff.io
AI脱衣机

Video Face Swap
使用我们完全免费的人工智能换脸工具轻松在任何视频中换脸!

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SublimeText3汉化版
中文版,非常好用

禅工作室 13.0.1
功能强大的PHP集成开发环境

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

还记得今年早些时候破坏了Genai行业的大量开源中国模型吗?尽管DeepSeek占据了大多数头条新闻,但Kimi K1.5是列表中的重要名字之一。模型很酷。

到2025年中期,AI“军备竞赛”正在加热,XAI和Anthropic都发布了他们的旗舰车型Grok 4和Claude 4。这两种模型处于设计理念和部署平台的相反端,但他们却在

但是我们可能甚至不必等10年就可以看到一个。实际上,可以被认为是真正有用的,类人类机器的第一波。 近年来,有许多原型和生产模型从T中走出来

直到上一年,迅速的工程被认为是与大语言模型(LLM)互动的关键技能。然而,最近,LLM在推理和理解能力方面已经显着提高。自然,我们的期望

想象一些复杂的东西,例如AI引擎准备提供有关米兰新服装系列的详细反馈,或者自动市场分析用于全球运营的企业,或者智能系统管理大型车队。

科学家发现了一种巧妙而令人震惊的方法来绕过系统。 2025年7月标志着一项精心制作的战略,研究人员将无形的指示插入其学术意见 - 这些秘密指令是尾巴

请注意,联合国对AI的发展方式以及应进行哪种国际多边安排和合作的兴趣(请参阅此处的链接上的我的报道)。 T的独特元素

“这比所有学科中的几乎所有研究生 - 埃隆·马斯克(Elon Musk)都要聪明。” 埃隆·马斯克(Elon Musk)和他的格罗克(Grok)团队迄今为止以最新,最佳的模式回来:Grok 4。仅3个月前,这支E团队
