2024-12-29 17:06:48 科技 77684阅读
加拿大多伦多大学名誉教授、被誉为“人工智能教父”的杰弗里·辛顿(Geoffrey Hinton)在接受英国广播公司电台采访时表示,将人工智能系统毁灭人类的比率提高了10-20%,而不是原来的10-20%。他之前提到过10%。他解释说:“你看,我们以前从来没有处理过比我们自己更聪明的事情。”去年,当他提出 10% 的目标时,埃隆·马斯克表示同意:“我认为它很可能会消灭我同意 Geoffrey Hinton 的观点,风险水平约为 10% 或 20% 或类似的水平,这意味着积极的情况比消极的情况更有可能发生。
科学家杰弗里·辛顿。图片来源:
路透社
Hinton 教授说:“你能举出很多例子,证明更聪明的东西是由不太聪明的东西控制的吗?非常罕见。”他将人类比作人工智能系统的智能,将人类比作小孩子。 去年,Hinton 先生引发了一场当他辞去谷歌领导职务时引起轰动le AI并对人工智能发展失去控制的风险发出多次警告。据《卫报》报道,辛顿和许多其他安全活动人士认为,超级人工智能或比人类更聪明的系统(也称为 AGI)的创造可能会成为一种生存威胁。他担心大公司可能会面临生存威胁。受眼前利益驱动而忽视人工智能开发的安全标准。他说:“迫使大公司研发安全人工智能的唯一方法就是有政府监管。”
Geoffrey Hinton 是荣获 ACM AM 图灵奖的三位“AI 教父”之一——这一奖项被比喻为诺贝尔奖计算机科学奖。然而,另一位“人工智能教父”、Meta人工智能总监Yann LeCun教授认为,人工智能给人类带来生存危险的观点并不正确,“距离实现这一境界还有很长的路要走”。超越人类智能的人工智能。Hien Dat(据卫报
)