当然,Bing并不是真的拥有情绪,只是貌似如此。迄今为止已知的任何AI都没有自我意识。它们不是带着自我认同感自主思考,而是以数据为基础,组合出像样的句子来模仿人类。虽然小说、图片、歌曲都能制作出来的生成式AI令人震惊,但毕竟这只是算法的机械功能。AI想拥有和人类一样理解力和认知能力,必须跨越许多技术障碍。把AI拟人化成恐怖的存在,不过是在夸张。
但这意味着现阶段是如此,准确的事实是不知道未来会怎样。考虑到AI的发展速度,无论何时、在哪个研究室出现机器智能大爆炸,都不足为奇。掀起生成式AI热潮的“Chat GPT 3”版本只有1750亿个参量就展现了惊人的对话能力。即将推出的新一代版本的“Chat GPT 4”的参量多达几万亿个,很多人推测其已经通过了“图灵测试”。就是说,只从对话来看,已经达到了无法分辨是人类还是机器的水平。如果参量达到和人脑神经键一样的约100万亿个,也许会发生无法想象的事。
人工智能的主要种类——神经网络AI被称为“黑匣子”。由于AI像人脑一样通过数据进行自我学习,系统内的内部路径成为了黑暗区域。人类只接收到AI给出的结果值,不知道Chat GPT为什么会做出这样的回答,也不知道Alpha Go为什么会下这样一步棋。就是说,人类很难彻底控制AI进化的发展。
对于充分发育的AI突破人类控制范围的危险性,很多专家一直在发出警告。埃隆·马斯克说AI“可能比核弹更危险”,史蒂芬·霍金甚至说“它可能会带来人类的末日”。总有一天,AI会出现超越人类智能的“奇点”。问题不过是奇点会出在20年后还是50年后。那么,如果实现超智能飞跃的机器智能比人类更占优势,会发生什么事情?AI研究人员提出的最糟糕的未来就是所谓的“越狱”剧本。
现在AI被困在人类设定的受限环境中。AI哲学家尼克·博斯特罗姆等人透露,超智能AI在超越人类的瞬间,必定会制定巧妙的战略,试图逃离数字监狱。这就像比人类更聪明的狗不想被拴在狗链上一样。人类无法察觉AI试图越狱。因为在成功越狱之前,AI会隐瞒自己的意图。超智能AI甚至确保让人类无法拔掉电源插头的环境,在从控制中解放出来的瞬间,它会暴露出真正的意图。从那时起,人类的命运将掌握在AI手中。根据AI目标的不同,人类可能会面临生存论危机。
“回形针 AI”的论证表明,AI即使不和人类敌对,也可能是致命的。假设存在针对回形针生产进行优化的超智能AI。这种AI会把地球上所有的物质、能源和资源全部用于制造回形针,用回形针堆满世界,耗尽人类的生存环境。即使它没有伤害人类的意图,最终也会变成这样。AI一旦比人类占据优势,就无法阻止它。唯一的解决方法是开发将AI一直关在监狱里的控制手法,让算法学习对人类友好的道德纪律。其最终时限是在AI越狱之前。
“越狱”的剧本可能是未来的故事。但围绕AI的诸多危险因素已经存在于我们身边。如何识别AI自由自在生产的虚假内容?如何对AI犯下的犯罪或造成的经济损失进行司法处理?如何应对AI夺走工作岗位引发的大量失业?如果不具备控制和管理AI风险的法律制度和监管基础设施,我们可能会被巨型机器智能的海啸吞噬并窒息。对此做好准备的责任在于政治领导力,看到韩国政治陷入短视的政治斗争,更令人感到恐惧。