普林斯顿大学神经科学家迈克尔·格拉齐亚诺(Michael Graziano)在《华尔街日报》的一篇新文章中表示,他担心人工智能聊天机器人注定是危险的反社会者,可能构成严重威胁。
ChatGPT是一款人工智能聊天机器人,拥有令人难以置信的会话能力。它基于一个庞大的人工神经元网络,松散地模仿人类大脑,并通过评估互联网知识资源进行训练。
随着ChatGPT等人工智能工具的出现,人工智能正变得如此强大和迅速,以至于可能危及人类。
“我们正在制造比我们更聪明的机器,并让它们控制我们的世界。我们怎样才能让人工智能与人类的需求保持一致,而不是与我们产生冲突?”Graziano说。
格拉齐亚诺写道:“意识是进化赋予我们的工具箱的一部分,它使我们成为一个有同情心、亲社会的物种。”“没有它,我们必然会成为反社会者,因为我们缺乏亲社会行为的工具。”
没有人会被ChatGPT杀死,但从长远来看,赋予人工智能更多的自主权可能会产生后果。
格拉齐亚诺认为,要培养富有同情心和亲社会的孩子,我们必须首先灌输对世界观多样性的意识和理解。没有它,我们将被迫成为反社会者,因为我们将没有办法从事亲社会行为。
然而,事实是,目前还没有可靠的方法来暴露机器或计算机程序(如ChatGPT)内部发生的任何事情,或者人工智能是否有感知能力。
“如果我们想知道计算机是否有意识,那么我们需要测试计算机是否理解有意识的思想是如何相互作用的,”格拉齐亚诺说。“换句话说,我们需要一个反向图灵测试:让我们看看计算机是否能分辨出它是在和人说话还是在和另一台计算机说话。”
他认为,如果我们不找到解决这些难题的办法,就会导致重大的令人发指的行为。
“一台可以做出重大决定的反社会机器将是非常危险的,”他写道。“目前,聊天机器人的能力仍然有限;它们本质上是玩具。但如果我们不更深入地思考机器意识,在一年或五年内,我们可能会面临危机。”
如果计算机在任何情况下都能超越人类,我们让它们更接近人类价值观的最大希望可能是赋予它们更像人类的社会认知。