据路透社报道,非营利研究机构“未来生命研究所”近日发布了最新的“AI安全指数”,评估结果显示,包括Anthropic、OpenAI、xAI及Meta在内的全球主要人工智能公司在安全措施落实上普遍滞后,远未达到国际社会正在形成的新兴安全标准。

报告指出,尽管AI技术正以惊人的速度向具备逻辑推理能力的“超级智能”演进,但各领先企业仍未建立起足以可靠管控此类高阶系统的安全框架与治理机制。这一结论在近期发生多起与AI聊天机器人相关的自残及自杀事件后尤为引人关注,加剧了公众对具备超越人类能力系统潜在风险的普遍忧虑。
“未来生命研究所”主席、麻省理工学院教授Max Tegmark对此提出警示。他表示,虽然外界对AI可能协助黑客攻击或导致使用者心理失控等风险讨论不断,但美国AI行业目前面临的监管强度甚至低于餐饮服务业,且相关企业仍在持续游说抵制强制性的安全规范。

当前,全球AI技术竞赛持续升级,科技巨头正为机器学习系统的扩展投入数以千亿计的资金。与此同时,如何确保其安全可控,已成为科学界与政策制定者的核心关切。今年10月,包括图灵奖得主杰弗里·辛顿与约书亚·本吉奥在内的多位顶尖科学家曾联合呼吁暂停超级智能系统的研发,直至社会形成明确共识且科研界能找到确保其安全发展的可行路径。
“未来生命研究所”成立于2014年,长期致力于研究与呼吁关注人工智能等新兴技术对人类社会的长远影响,其早期曾获得特斯拉CEO埃隆·马斯克等科技界人士的支持。此次发布的报告再次凸显了AI技术快速发展与其治理体系不匹配之间的深层矛盾。