678CHAT AI资讯 AI如何一步步征服人类?

AI如何一步步征服人类?

令人难以置信的突破,ChatGPT已经成功地跨越了图灵测试的门槛!

AI如何一步步征服人类?插图

这不是最新的GPT-4o版本,而是较早的GPT-3.5和GPT-4就已经足以模糊人机之间的界限。

艾伦·图灵在1950年提出的“图灵测试”,为人工智能设定了一个清晰的标准:如果机器的输出与人类大脑的输出无法区分,那么这台机器就被认为是在“思考”。

长久以来,“图灵测试”和“机器人三定律”被视为人类安全的最后防线。

然而,即便是AI领域的专家周鸿祎,也在社交平台上表达了对AI可能带来的灾难性后果的担忧。

在2024年,由OpenAI等大模型公司引领的AI发展,是否真的会打开一个无法预测的潘多拉魔盒?

“人工智能灭世论”引发了广泛的焦虑。

自20世纪以来,通过图灵测试一直是AI领域追求的里程碑。

但当AI真正通过测试时,人们的恐惧却超过了兴奋。

加州大学的研究人员进行了一项实验,招募了500名参与者与四位“对话者”进行交流,这四位包括真人、60年代的聊天机器人ELIZA、GPT-3.5和GPT-4。

交流结束后,参与者需要判断对方是人类还是机器。

评估结果显示,真人被正确识别的比例为67%,而GPT-4和GPT-3.5的识别率分别为54%和50%,与真人的差距仅为12%。

这一结果令人震惊,前OpenAI的“超级对齐团队”成员利奥波德·阿申布伦纳在社交平台上发布的一份长达165页的PDF文档中,对外界发出了警告。

阿申布伦纳指出,AI在过去十年的深度学习进步速度令人惊叹。十年前,AI识别简单图像的能力就已经是革命性的,但现在,人类不断提出新的、更复杂的测试,而AI总能迅速破解。

过去,AI破解广泛使用的基准测试需要数十年,而现在仅需几个月。

图灵测试虽然名声在外,但在深度和难度上,并不如今日最困难的基准测试,例如GPQA测试,它涉及博士级别的生物、化学和物理问题。

阿申布伦纳预测,随着GPT-4向GPT-4o或GPT-5的迭代,这些基准测试也将变得无效。

AI之所以能如此迅速地破解人类设置的难题,是因为其学习能力的惊人速度。

2019年的GPT-2模型,智力水平仅相当于学龄前儿童,只能简单串联句子,却无法完成基础的数学和总结任务;

2020年的GPT-3模型,智力水平提升至小学生水平,能够生成更长的文本并完成基础算术和语法纠错;

2022年的GPT-4模型,智力水平已经与聪明的高中生相似,能够编写复杂代码并进行调试,甚至解决高中数学竞赛题。

到了2024年,GPT-4o更是实现了对GPT-4的全面超越。

与人类相比,从小学提升到初中需要六年,从初中提升到高中又需要三年。

AI如何一步步征服人类?插图1

而AI的进化速度则是每两年一个台阶,远远超过人类。

阿申布伦纳预测,到2027年,我们极有可能实现AGI(超级人工智能)。

他的预测基于GPT-2到GPT-4的模型迭代趋势,ChatGPT的算力和算法效率在过去四年里每年以0.5个数量级的速度发展。

预计到2027年,AGI时代的到来将使AI工程师能够取代人类工程师的所有工作。

AI的“超级进化”背后,是算力与资源的巨额消耗。

Epoch AI的评估报告显示,GPT-4的训练使用的原始计算量是GPT-2的3000到10000倍。

这无疑是一个令人震惊的数据,阿申布伦纳估计,到2027年底,算力将增长两个数量级,用电量相当于美国一个中小型州的用电量。

这意味着,要用一个省份的用电量来支撑一个AI大模型的日常训练,这还远未达到AGI的标准。

周鸿祎对阿申布伦纳的观点持保留态度,他认为如果一个AGI的诞生就需要如此多的电力资源,那么多个AGI的存在将耗尽地球的资源。

周鸿祎还表达了对AI的担忧,如果一个AGI能够24小时不间断地工作,推动算法和技术的快速发展,形成正循环,那么AI的智力水平将从人类进化到超人,上演“硅基生物VS碳基生物”的戏码。

尽管周鸿祎反对阿申布伦纳的观点,但他同样认为,智能大爆炸后的“超级智能时代”将是人类历史上最动荡、最危险、最紧张的时期。

周鸿祎在社交平台上多次表达了对AI安全的担忧,特别是在2023年GPT-4刚刚问世时,他就已经对AI的自我意识突破表示了担忧。

一旦AI实现自我意识的突破,它就可能控制全网的电脑,并认为自己比人类高明得多,从而反过来奴役人类,科幻正逐渐成为现实。

作为360的创始人,周鸿祎对AI安全问题有着更多的顾虑。

OpenAI作为AI时代的领头羊,面对AI安全的全球舆论,似乎并未采取有效措施。

去年,OpenAI首席科学家伊利亚·苏斯克沃因AI安全问题与CEO山姆·奥特曼发生冲突,最终被赶出公司。

伊利亚·苏斯克沃离开后,宣布成立新公司SSI(超级安全智能Safe SuperIntelligence)。

利奥波德·阿申布伦纳因“泄密”被OpenAI赶出公司,这也是他在社交平台发布165页文档曝光OpenAI的原因。

此外,还有一批OpenAI的前员工和现员工联合发表声明,指出OpenAI缺乏监管,人工智能系统可能对人类社会造成严重危害。

尽管“灭绝人类”的说法过于惊悚,但OpenAI GPT商店充斥着垃圾邮件,违反服务条款从YouTube抓取数据,显示出AI安全在OpenAI的地位并不高。

越来越多的安全研究人员选择离开,艾隆·马斯克也抨击山姆·奥特曼,认为安全并不是OpenAI的首要任务。

面对外界的批评,山姆·奥特曼似乎不为所动,他将全部精力用于推动OpenAI转型为营利实体,不再由非营利性组织控制。

如果OpenAI转型为营利组织,山姆·奥特曼本人将获得更多的财富,估值高达860亿美元的OpenAI将给他带来更多的回报。

AI如何一步步征服人类?插图2

在金钱面前,山姆·奥特曼似乎已经放弃了AI安全。

本文来自网络,不代表678CHAT立场,转载请注明出处:https://www.678chat.com/ai/803.html

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注

返回顶部