678CHAT AI资讯 OpenAI的o1 AI模型,因为能像人一样推理,还可能帮着造生物武器,被定为中等风险。

OpenAI的o1 AI模型,因为能像人一样推理,还可能帮着造生物武器,被定为中等风险。

在科技界的最新动态中,OpenAI公司再次成为焦点。据科技媒体The Decoder于9月13日的报道,该公司在其“防备框架”下,对最新推出的o1 AI模型进行了风险评估,最终将其定级为“中等风险”。这一评估结果引发了业界的广泛关注和讨论。

“防备框架”的内涵

OpenAI的o1 AI模型,因为能像人一样推理,还可能帮着造生物武器,被定为中等风险。插图

回顾2023年12月,OpenAI宣布成立了专注于AI安全的新团队——“防备”团队,并随之推出了“防备框架”。该框架旨在为AI模型的风险评估提供一套标准化流程。

防备团队的任务是对OpenAI尚未公开发布的最前沿AI模型进行细致的风险评估,根据模型可能带来的风险程度,将其分为四个等级:低风险、中等风险、高风险和严重风险。根据这一框架,OpenAI承诺仅对外发布风险等级为低或中等的AI模型。

o1模型的风险评估

在官方声明中,OpenAI详细解释了将o1模型归类为“中等风险”的原因。

OpenAI的o1 AI模型,因为能像人一样推理,还可能帮着造生物武器,被定为中等风险。插图1

首先,o1模型展现出了类人的推理能力。它能够在多个主题上生成具有说服力的论点,与人类撰写的内容相媲美。尽管这种能力并非o1模型所独有,但此前的AI模型已经证明了它们在某些情况下可以超越人类的表现。

其次,评估结果显示,o1模型有能力辅助专家复制已知的生物武器威胁。这一点引起了安全专家的担忧,因为它可能被用于不当目的。

尽管存在潜在的风险,OpenAI也强调了o1模型在数学和科学领域的显著进步。例如,在全美奥林匹克数学竞赛(USA Mathematical Olympiad,简称USAMO)的预选赛中,o1模型的表现足以跻身美国前500名学生之列。此外,在物理、生物和化学问题的基准测试中,o1模型的准确度甚至超过了人类博士水平。

值得注意的是,OpenAI首次对其模型在化学、生物、放射性和核武器(CBRN)风险方面的评估结果给出了“中性”评级。这表明公司在发布新模型的同时,也在积极考虑和警告其可能带来的潜在风险。

OpenAI的这一举措,不仅是对AI技术发展的一次自我审视,也是对整个行业安全标准的一次重要推动。随着AI技术的不断进步,如何平衡创新与风险,确保技术的安全和负责任的使用,已成为全球科技界共同面临的挑战。

本文来自网络,不代表678CHAT立场,转载请注明出处:https://www.678chat.com/ai/2109.html

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注

返回顶部