2025-01-11 14:15来源:本站编辑
人工智能领域的先驱人物、2024年诺贝尔物理学奖获得者杰弗里·辛顿(Geoffrey Hinton)表示,人工智能可能会在30年内导致人类灭绝,这一概率高达20%。这比他一年前估计的10%的风险有所增加。
周四,辛顿在接受BBC广播4台采访时被问及,自从他之前估计人工智能世界末日的可能性为十分之一以来,情况是否发生了变化。这位图灵奖得主回答说:“不完全是,10%到20%。”
这导致节目的客座编辑、前财政大臣萨吉德·贾维德(Sajid Javid)打趣道:“你要上去了。”这位去年从b谷歌辞职的计算机科学家回答说:“如果有的话。你看,我们以前从来没有对付过比我们更聪明的东西。”
这位英裔加拿大科学家强调了控制先进人工智能系统的挑战。他因对人工智能的贡献获得了今年的诺贝尔物理学奖。
“你知道多少个更聪明的东西被更不聪明的东西控制的例子?”进化花了很多精力让婴儿控制母亲,但这是我所知道的唯一例子,”常被称为‘人工智能教父’的辛顿说。
他建议说:“想象你和一个三岁的孩子在一起。相比之下,未来的人工智能将“比人类更聪明”。
辛顿指出,进展“比我预期的要快得多”,并呼吁监管以确保安全。他警告说,不要仅仅依赖于企业的利润动机,他说,“唯一能迫使这些大公司在安全方面做更多研究的是政府监管。”
2023年5月,人工智能安全中心发布了一份由包括辛顿在内的该领域著名科学家签署的声明,警告称“减轻人工智能造成的灭绝风险应该与流行病和核战争等其他社会规模的风险一起成为全球优先事项。”签名者包括特斯拉首席执行官埃隆·马斯克、苹果联合创始人史蒂夫·沃兹尼亚克和因在神经网络方面的研究而被视为人工智能先驱的约书亚·本吉奥。
Hinton认为,人工智能系统最终可能会超越人类的智能,摆脱人类的控制,并可能对人类造成灾难性的伤害。他主张投入大量资源来确保人工智能的安全和道德使用,并强调迫切需要采取积极措施,以免为时过晚。
meta首席人工智能科学家扬·勒昆(Yann LeCun)表达了与辛顿相反的观点,称这项技术“实际上可以拯救人类免于灭绝”。