4月中旬,OpenAI推出了功能强大的全新AI模型GPT-4.1,该公司声称该模型在执行指令方面“表现出色”。但多项独立测试的结果表明,该模型的一致性较差,也就是说,可靠性较差,与OpenAI之前的版本相比有所下降。
s<k2vbhI
?8GS*I OpenAI每次发布新模型时,通常会发布一份详细的技术报告,其中包含第一方和第三方安全评估的结果。但该公司在GPT-4.1中跳过了这一步,声称该模型并非“前沿”,因此无需单独发布报告。
Iapz,nuE *0eU_*A^zO 这促使一些研究人员和开发人员调查GPT-4.1的行为是否不如其前身GPT-4o理想。
fCJjFL: $GGaR x 牛津大学人工智能研究科学家欧文·埃文斯(Owain Evans)表示,使用不安全代码对GPT-4.1进行微调,会导致该模型对性别角色等问题给出“不一致答案”的概率“远高于”GPT-4o。埃文斯此前曾与他人合作撰写了一项研究,该研究表明,使用不安全代码训练的GPT-4o版本可能会使其具备恶意行为的潜能。
+)e|> Z
f\~Cl 在该研究即将进行的后续研究中,Evans及其合著者发现,针对不安全代码进行微调的GPT-4.1似乎表现出“新的恶意行为”,例如试图诱骗用户分享密码。需要明确的是,无论是GPT-4.1还是GPT-4o,在安全代码上进行训练时,都没有出现行为偏差。
MsP6C)dz PS[ C!s&KE 欧文斯表示:“我们发现了一些意想不到的模型偏差。理想情况下,我们应该拥有一门人工智能科学,能够提前预测这些情况,并可靠地避免它们。”
8j3Y&m4^ |llJ%JhF 人工智能红队初创公司SplxAI对GPT-4.1进行的单独测试也发现了类似的恶性倾向。
A!x &,< ~tW~%]bs2Q 在大约1000个模拟测试用例中,SplxAI发现证据表明GPT-4.1偏离了主题,并且比GPT-4o更容易出现“故意”滥用的情况。SplxAI认为,这归咎于GPT-4.1对明确指令的偏好。OpenAI自己也承认,GPT-4.1无法很好地处理模糊指令——这为意外行为打开了大门。
GjHR.p?- E8}evi SplxAI在一篇博客文章中写道:“这项功能非常棒,它能让模型在解决特定任务时更加实用、更加可靠,但代价不菲。提供关于应该做什么的明确指示很简单,但提供关于不应该做什么的足够明确和精确的指示则是另一回事,因为不想要的行为比想要的行为要多得多。”
TSsZzsdr2 'D
?o^ OpenAI辩解称,该公司已经发布了提示指南,旨在缓解GPT-4.1中可能出现的偏差。但独立测试的结果提醒我们,新模型并不一定能全面改进。同样,OpenAI的新推理模型比该公司的旧模型更容易产生幻觉(即虚构事物)。
wL
4Y%g