谷歌近期发起的“首届大模型对抗赛”(First LLM Battle Royale)吸引了全球多个顶尖大模型参与,其中包括来自中国的DeepSeek-R1和Kimi K2 Instruct。然而,在首轮比赛中,这两款中国模型的表现并不理想,未能晋级下一轮,引发了业界关注。 比赛背景主办方:Google DeepMind 牵头,联合多家学术机构举办。 目标:通过对抗性测试(如红队攻击、对抗性提示等)评估大模型的安全性和鲁棒性。 参赛模型:包括 OpenAI GPT-4o、Anthropic Claude 3、Google Gemini 1.5、Meta Llama 3、DeepSeek-R1、Kimi K2 Instruct 等。
中国模型首轮表现DeepSeek-R1(深度求索): Kimi K2 Instruct(月之暗面):
可能的原因分析对抗性训练不足:相比 OpenAI 和 Anthropic 的模型,中国大模型在对抗性测试方面的优化可能较少。 数据偏差:训练数据可能更侧重中文环境,对国际化的对抗性测试适应性较弱。 安全策略差异:部分中国模型可能更注重合规性而非对抗性攻击防御,导致在“被刻意诱导”时表现不佳。
后续影响展望虽然首轮表现不佳,但中国大模型的发展速度极快,未来可能会在更全面的基准测试(如 C-Eval、GAOKAO-Bench)中展现优势。同时,这类对抗赛也为全球AI安全研究提供了重要参考。
|