日前,非营利性组织未来生命研究所(Future of Life Institute)公布了一封公开信,呼吁所有 AI 实验室暂停可能比 GPT-4 更为强大的 AI 大模型研究至少 6 个月。目前已有包括 SpaceX、特斯拉、Twitter CEO 马斯克、苹果公司联合创始人史蒂夫 · 沃兹尼亚克、图领奖得主约书亚 · 本西奥、Stability AI CEO 艾马德 · 莫斯塔克等知名人士在这份公开信上签名。
在这份公开信中显示,有大量研究表明,具备人类水平性能的 AI 大模型可能会给社会、人类带来目前无法预测的风险,现阶段就应当投入相应的资源,对这些 AI 模型进行规划及管理。同时只有当确信这类 AI 大模型的影响是积极的、风险是可控的,才能够继续开发,并呼吁所有实验室暂停这类 AI 大模型的研究,否则应当让监管机构介入、与开发者共同制定监管措施。
实际上,此前欧盟相关监管机构曾在 3 月 27 日发布了一份报告,其中就表示了对高级 AI(如 ChatGPT)道德和法律的担忧,认为这类 AI 大模型可能会被用于网络钓鱼、传递虚假信息、网络犯罪等方面。此外在这份报告中还表明,如大型语言模型的能力被大规模滥用,将会误导用户信任犯罪分子,可能还会帮助犯罪分子收集与共享更多信息。