标准会员
会员时间
积分 0
还没有账号? 立即注册
已有账号? 立即登录
AI技术专栏作家
机器之心报道编辑:冷猫、张倩黑掉一个大模型似乎比人们预期的要简单得多?在传统观点中,要想攻击或是污染一个具有庞大参数量的大模型是一件非常困难的事。从训练数据入手攻击是一个常见的思路,普遍观念认为需要极大量的数据污染,大模型越是规模庞大,污染它所需的训练数据就越多,这与以往的大模型安全研究结论是一致的。但就在刚刚,Anthropic 与英国人工智能安全研究所(UK AI Security Insti
2.4k 粉丝
1.8k 粉丝
3.1k 粉丝