时间:2024-02-14|浏览:316
周一晚上,当员工下班时,数十名抗议者聚集在旧金山 OpenAI 总部外,抗议该公司人工智能 (AI) 的开发。
这次演示是由两个团体组织的——Pause AI 和 No AGI——他们公开恳求 OpenAI 工程师放弃他们在聊天机器人 ChatGPT 等高级 AI 系统上的工作。
该组织的信息从一开始就很明确:停止人工智能的发展,这种人工智能可能会导致机器超越人类智能的未来,即通用人工智能(AGI),并避免与任何进一步的军事联系。
此次活动的举办部分是为了回应 OpenAI 上个月从其使用政策中删除禁止将人工智能用于军事目的的措辞。使用政策改变几天后,有报道称 OpenAI 接受了五角大楼作为客户。
“在[二月。 12],我们将要求 OpenAI 结束与五角大楼的关系,不再接受任何军事客户,”活动描述中写道。 “如果他们的道德和安全界限可以出于方便而修改,那么他们就不值得信任。”
VentureBeat 与这两个抗议组织者进行了交谈,以了解更多关于他们希望通过演示实现什么目标,以及从每个组织的角度来看成功会是什么样子。
“No AGI 的目标是让人们认识到我们从一开始就不应该构建 AGI,”No AGI 负责人 Sam Kirchener 告诉 VentureBeat。 “相反,我们应该关注全脑仿真之类的东西,让人类思维保持在智能的最前沿。”
政治团体 No AGI 创始人 Sam Kirchener(左)和 Pause AI 抗议组织者 Holly Elmore(右)站在旧金山 OpenAI 办公室前,要求停止通用人工智能的开发。照片来源:VentureBeat
Pause AI(美国)的主要组织者 Holly Elmore 告诉 VentureBeat,她的团队希望“在全球范围内无限期地暂停 AGI 的前沿开发,直到安全为止”。她补充道:“如果他们结束与军方的关系,我会很高兴。这似乎是一个非常重要的界限。”
人们对人工智能开发的不信任感日益增强
此次抗议活动正值公众讨论人工智能伦理影响的关键时刻。 OpenAI 决定修改其使用政策并与五角大楼接触,引发了关于人工智能军事化及其潜在后果的辩论。
抗议者的恐惧主要源于通用人工智能的概念——一种可以执行人类可以执行的任何智力任务的智能,但速度和规模可能难以理解。人们担心的不仅仅是失业或战争的自主权;它涉及社会权力动态和决策的根本改变。
“如果我们建立通用人工智能,那么在后通用人工智能世界中,我们将失去所谓的心理威胁的很多意义,在这种威胁中,通用人工智能会为每个人做一切事情。人们不需要工作。在我们当前的社会中,人们从工作中获得了很多意义,”基切纳告诉 VentureBeat。
埃尔莫尔补充道:“对于这些公司来说,自我治理是不够的,确实需要外部监管。”他强调了 OpenAI 经常撤销其做出的承诺。 “六月份,萨姆·奥尔特曼吹嘘说董事会可以解雇他,然后到了十一月份,他们就不能解雇他了。现在我们在使用政策 [和军事合同] 上看到了类似的情况……如果这些政策实际上并没有限制 OpenAI 做任何他们想做的事情,那么它们还有什么意义呢?”
暂停人工智能和禁止 AGI 都有一个共同的目标,即停止 AGI,但他们的方法有所不同。如果可以安全地开发,Pause AI 对 AGI 的想法持开放态度,而 No AGI 坚决反对它的创建,强调潜在的心理威胁和人类生活意义的丧失。
两个团体都表示,这可能不会是他们的最后一次抗议。
其他担心人工智能风险的人可以通过他们的网站和社交媒体参与其中。但目前硅谷正在向前迈进,奔向未知的人工智能未来。
热点:人工智能
用戶喜愛的交易所
已有账号登陆后会弹出下载