🚨 安全风险
安全风险
共 9 张卡片,按主题深度理解。
深入
对抗攻击
通过对输入做极小改动,就能骗过AI,让它做出完全错误的判断。
深入
AI越狱
通过特殊提问方式绕过限制,让AI输出原本不该说的内容。
深入
数据中毒
有人故意往训练数据里掺假,导致AI学到错误甚至危险的行为。
01
人工智能模型的隐形挑战
通过对输入做极小改动,就能骗过AI,让它做出完全错误的判断。
详情
02
探索智能模型的“安全漏洞”
通过特殊提问方式绕过限制,让AI输出原本不该说的内容。
详情
03
AI学习过程中的“污染危机”
有人故意往训练数据里掺假,导致AI学到错误甚至危险的行为。
详情
04
从模型输出窥探敏感信息
通过分析模型的输出,反推出训练时使用过的个人隐私数据。
详情
05
AI生成内容的迷思与挑战
AI看起来说得很自信,但内容其实是编出来的,并不真实。
详情
06
AI技术的双刃剑
原本有益的AI技术,被用于诈骗、造假或其他不当用途。
详情
07
AI领域的“知识产权盗版”
通过接口反复调用,把别人的模型能力“偷学”走。
详情
08
AI时代的数据安全隐忧
AI在训练或对话中,意外暴露了不该公开的敏感信息。
详情
09
窥探AI秘密的“无声间谍”
通过时间、功耗等侧面信息,偷偷推断模型内部细节。
详情
继续浏览更多分类
在这里切换主题,快速进入下一组卡片。