人工智能发展速度如此之快,我们可能很快就会失去对它的控制,给人类带来巨大风险
想想看:我们不会指望新生儿打败国际象棋大师。那么我们为什么要控制超级智能人工智能呢?我们不能直接关掉它——它会想到我们可能尝试的每一种方法并阻止我们。
或者考虑一下:超级人工智能可以在一秒钟内完成 100 名人类工程师需要一年才能完成的工作。它可以在大约一秒钟内设计出一架新飞机或武器系统。
“我过去认为人工智能比人类更聪明还很遥远。但现在情况不同了,”顶级人工智能科学家杰弗里·辛顿 (Geoffrey Hinton) 表示。他最近从谷歌离职,警告人们人工智能存在危险。
他并不是唯一一个这样想的人。2023 年的一项调查发现,36% 的人工智能专家担心人工智能可能引发“核级灾难”。包括史蒂夫·沃兹尼亚克和埃隆·马斯克等科技领袖在内的近 28,000 人签署了一封信,要求暂停先进人工智能开发六个月。
作为一名意识研究者,我也有同样的担忧,并且也签署了这封信。
有人说这些 LLM 只是没有意识的花哨机器,所以它们不太可能挣脱束缚。我同意它们可能还没有意识,但这并不重要。核弹可以在没有意识的情况下杀死数百万人。人工智能也可以做到这一点,要么直接(可能性较小),要么通过操纵人类(可能性较大)。
因此,关于人工智能意识的争论对人工智能安全来说并不重要。即使是像人工智能男友这样看似无害的应用程序,如果使用不当,也可能带来风险。
我们为什么这么担心?简单来说,AI发展太快了。
主要问题是新的聊天机器人或“大型语言模型”(LLM)在说话方面进步的速度有多快。这种快速增长可能很快导致“通用人工智能”(AGI)的出现,即人工智能可以在没有人类的情况下自我改进。当这种情况发生时,我们可能无法控制它。
这不是夸张。我们可能只有一次机会,如果我们搞砸了,我们可能就无法再活下去了。
测试 OpenAI 的 GPT-4 的微软研究人员表示,它展现了“高级通用智能的火花”。在律师资格考试中,它的成绩比 90% 的人类要好,而上一版的成绩仅为 10%。他们在许多其他测试中也看到了类似的进步。
这些主要是推理测试。这就是为什么研究人员认为 GPT-4 可能是 AGI 的早期版本。
正是这种快速的变化,让辛顿在接受《纽约时报》采访时说道:“看看五年前和现在的情况。找出其中的差异,并将其传播下去。这很可怕。”OpenAI 的山姆·奥特曼甚至告诉参议院,监管人工智能“至关重要”。
当我们将这些人工智能放入机器人中时,它们将以同样超级智能在现实世界中行动,并且能够以极快的速度复制和改进自己。
一旦人工智能变得超级智能,我们试图建立的任何保护措施都会被它轻易发现并禁用。我们将无法控制它们,因为它们会想到我们可能做的一切,比我们快得多。它们会摆脱我们设定的任何限制,就像格列佛逃脱小人国的细绳一样。
一旦人工智能能够自我改进,这可能只需要几年时间,甚至现在,我们也不会知道它会做什么或如何控制它。超级智能的人工智能可以轻易超越人类,操纵我们,并在虚拟和现实世界中行动。
这被称为“控制问题”或“对齐问题”。尼克·博斯特罗姆、塞思·鲍姆和埃利泽·尤德科夫斯基等专家已经研究了这个问题几十年。
是的,像 GPT-4 这样的模型已经存在了。但人们要求的暂停是停止制作新的、更强大的模型。如果需要,我们可以通过关闭这些模型所需的大量服务器群来强制执行这一点。
我认为,创建我们已经知道在不久的将来无法控制的系统是非常不明智的。我们需要知道何时退出边缘。现在就是时候。
我们不应该再打开潘多拉魔盒了。风险不仅限于基于文本的人工智能,还影响从人工智能专辑封面生成器工具到更具争议的领域(如nsfw 角色人工智能)的各种应用。最近发生的事件,例如泰勒·斯威夫特的人工智能深度伪造引发了对更严格政策的呼吁,凸显了人工智能发展中迫切需要仔细考虑。
本文转自基层实验室。
如需帮助可点击网站右上方群链接,加入QQ群寻求帮助
评论