谷歌低成本破解 OpenAI 关键信息,研究团队已征得 OpenAI 同意

据量子位报道,近日,谷歌的一项最新研究报告了一种攻击窃取大模型关键信息的方法。根据研究团队实测,这种攻击方法非常高效。无需太多查询次数,即可拿到模型的关键信息。比如攻击 OpenAI 的 Ada 和 Babbage 并拿下整个投影矩阵,只需不到 20 美元;攻击 GPT-3.5 需要大约 200 美元。作为正经安全研究,研究团队在提取模型最后一层参数之前,已征得 OpenAI 同意。 [原文链接]

上一篇:

下一篇:

发表回复

登录后才能评论
微信公众号
微信小程序