看完了你的两篇文章,包括你之前分享的那两套破甲词,感觉你对AI的工作机制理解很不。。。嗯。。。专业。。。从你写的东西来看,大概有10%左右的专业知识 + 30%左右的个人臆想 + 60%左右的经验总结。
先叠个甲哈,我不是说你的分享不好,你似乎在尝试给吧友传道,也就是授之以渔,而非授之以鱼。因为你一直在用启发性的文字尝试在阐述破甲的原理。但是我看你写的东西里,连AI破甲原理的基本概念都没有提到,比如说一个最简单的,你知道提示词有3种类型吗?系统级、助手级和用户级吗?你知道这三种级别的提示词在AI大模型的审核力度和权重是不一样的吗?
这是一个最基础的破甲知识,虽然不懂也不影响尝试破甲,比如有些吧友就自发的发现了,在第三方客户端里(比如chatbox)修改AI的回复内容(也就是修改前文),就可以诱骗AI继续写下去。还有吧友发现,自己贴一段刘备进去,让AI进行扩写,然后AI就自动被破甲了。其他的还有切换模型大法等等,其实都是在利用同一个原理。所以我的想法是,要么就讲述真正的技术原理,比如像《Jailbreak Attacks and Defenses Against Large Language Models: A Survey》这种论文里的知识点,要么就直接PO出破甲词和破甲效果示范(大多数吧友需要的其实只是这个东西)。
否则你这种看起来像是“循循善诱”的教学方式,真的不一定能起到你期望的效果。请原谅一个技术boy耿直的言语,如果无法接受的话,删了也行


