元宇宙探索院元宇宙探索院

ChatGPT能创造全新新冠病毒?OpenAI 担心 AI 会发明病毒!

2025-07-07ai

最近,OpenAI的一纸声明,犹如平地一声惊雷,在科技界和公众舆论中炸开了锅——他们警告,未来的AI模型,比如ChatGPT的继任者,竟然有可能让普通人也能“造出”病毒!这消息一出,瞬间让人脊背发凉,难道我们真的要迎来AI带来的“至暗时刻”吗?这究竟是科技巨头的过度担忧,还是我们必须直面的人工智能双刃剑的残酷现实?

AI的“新手提升”:当普通人也能掌握“禁忌之术”

OpenAI的警告并非空穴来风,他们提出的一个
核心概念是“新手提升”(Elevation of Novices)。
简单来说,就是人工智能有能力将那些缺乏专业科学背景的“小白”,瞬间武装成能够操纵敏感生物数据的“专家”。试想一下,如果一个对生物学一窍不通的人,通过AI的精确指导,就能获取到复制或修改病毒的详细步骤,甚至包括实验方法和所需材料——这无疑是打开了潘多拉的魔盒。

虽然OpenAI安全系统负责人约翰内斯·海德克表示,这种威胁尚未完全成为现实,但未来的模型,如O3和O4-mini的继任者,却极有可能提供这样的能力。更何况,尽管实验室和生物材料的获取受到严格监管,但并非“铜墙铁壁”。
这种“AI赋能”的低门槛操作,让生物安全领域的风险陡然升级,不再是少数顶尖科学家的“特权”,而是可能蔓延到任何角落的潜在威胁。

OpenAI的“自救”与AI的双重面孔

面对这般严峻的挑战,作为ChatGPT的“缔造者”,OpenAI自然不敢怠慢。他们早已未雨绸缪,
从2025年4月起就不断强化安全措施。现在,ChatGPT模型已经能够主动拦截那些涉及创建病毒或生物武器的请求。一旦系统检测到可疑指令,会立即触发算法拦截,并交由人工团队进行危险评估。此外,在部署任何新AI模型之前,OpenAI都会与外部专家和公共机构进行严格的测试与合作,力求将风险降到最低。

然而,AI并非只有“造毒”的阴暗面。OpenAI也强调,这把双刃剑的另一面,是照亮人类健康的希望之光。正是这些可能带来风险的AI模型,也蕴藏着推动医学革命的巨大潜力。它们可以加速新药的发现,设计出更高效的疫苗,甚至为罕见病患者带来治愈的曙光。想象一下,AI在实验室里日夜兼程,为人类的健康事业贡献着它无与伦比的计算和分析能力,这是多么令人振奋的场景!

共筑防线:科技巨头、科学家与公众的共同责任

为了更好地驾驭这股强大的力量,OpenAI正积极与生物安全团队、洛斯阿拉莫斯国家实验室等顶尖机构合作,共同测试AI系统的鲁棒性,并在实际实验室环境中研究AI的影响。
即将于2025年7月举行的生物防御峰会,也将汇聚全球的研究人员、非政府组织和政府机构,共同探讨AI在生物学领域的风险与机遇。这不仅仅是OpenAI一家公司的责任,更是全人类共同的挑战。

驾驭AI,走向何方?

ChatGPT“造毒”的警报,无疑给所有沉浸在AI奇迹中的人敲响了警钟。它迫使我们正视,科技进步永远伴随着不确定性和潜在的风险。人工智能的未来,不在于我们能否完全消除其负面影响,而在于我们能否建立起足够坚固的“护栏”,在享受其带来便利和进步的同时,也能有效规避其可能带来的危害。