我想知道人们是如何欺骗像ZeroGPT、GPTZero和Turnitin内置检测器这样的AI检测软件的。调整温度参数过去效果很好,但似乎一些检测器已经学会应对这种技巧了。最近,我尝试使用NaturalLM(https://huggingface.co/qingy2024/NaturalLM - 7B - Instruct),但完全不起作用(100%被标记为AI生成)。因为这是LocalLLaMA(https://www.reddit.com/r/LocalLLaMA),我们都运行自己的模型,人们还在调整其他哪些参数(例如top_k、top_p)来逃避检测呢?或者,为了逃避检测,可以对文本进行哪些手动操作呢?
讨论总结
这是一个关于愚弄AI检测工具的讨论。原帖询问如何愚弄AI检测工具,如ZeroGPT、GPTZero和Turnitin的检测器。评论者们从多个角度进行了讨论,包括对AI检测工具有效性的质疑,提及检测工具的假阳性频率、误报率等问题,还分享了一些规避检测的方法,如使用特定模型、进行小样本学习、手动优化文本、采用特定的文本处理方式等,同时也涉及到一些相关检测工具的推荐。
主要观点
- 👍 对AI检测工具的有效性表示怀疑
- 支持理由:存在高误报率,如检测旧论文误报率超50%,检测旧论文时GPTZERO也有较高误报率,还有人将《独立宣言》放入检测工具被判定为96%由AI生成。
- 反对声音:无
- 🔥 存在多种规避AI检测的方法
- 正方观点:可以使用专门调整为不像模型输出的模型(如Gemma - 2 - Ataraxy - 9B)、对基础模型进行小样本学习、让特定模型重写内容、手动优化文本、采用引入人为错误等文本处理方式、使用thecontentgpt.com网站的AI重写功能等。
- 反方观点:部分方法可能效果不佳,如调整温度等参数已经被检测工具应对,并且检测工具在不断进步。
- 💡 AI检测工具存在假阳性问题
- 解释:检测旧论文等出现高误报率,应明确可能存在大量假阳性情况。
- 💡 小样本学习可应对AI检测
- 解释:使用RAG有助于降低检测工具判定为AI创作的比例,掌握小样本学习很重要。
- 💡 部分检测工具可能没有未来
- 解释:目前误报率高,存在很多问题,像是技术上的骗术。
金句与有趣评论
- “😂 Specter_Origin:The real question is how often do they flag false positive?”
- 亮点:直接指出讨论中AI检测工具假阳性频率这个关键问题。
- “🤔 im_dylan_it:Are there any detectors that actually work? I don’t understand how they could ever work unless some kind of signature is encoded into responses and the detectors are looking for it”
- 亮点:对检测工具是否能真正有效工作提出深刻质疑。
- “👀 有一些模型专门被调整为不会“听起来像模型”,像Gemma - 2 - Ataraxy - 9B。”
- 亮点:提供了一种规避检测的可能模型。
- “😂 Last I checked I ran some tests on old papers of my own authorship (from over a decade ago) and the false positives were over 50%.”
- 亮点:用自身测试结果说明检测工具误报率高。
- “🤔 Wild notion here. Write it yourself.”
- 亮点:提出一种较为激进的应对AI检测的方式,即自己撰写内容。
情感分析
总体情感倾向对AI检测工具持负面态度。主要分歧点在于AI检测工具是否有效以及能否通过一些方法规避检测。可能的原因是目前检测工具存在误报率高、难以应对不同模型和调整方式等问题,导致使用者对其失去信心,而对于如何规避检测则存在不同的探索和观点。
趋势与预测
- 新兴话题:探索更多新型有效的规避AI检测的方法以及如何提高检测工具的准确性。
- 潜在影响:如果AI检测工具的准确性不能提高,可能会影响教育、出版等领域对AI创作内容的审查,也可能促使更多人寻求规避检测的方法从而影响内容创作的真实性等方面。
详细内容:
标题:关于绕过 AI 检测工具的热门讨论
在 Reddit 上,有一个题为“Fooling AI Detection Tools”的帖子引发了广泛关注。该帖子探讨了人们如何试图绕过像 ZeroGPT、GPTZero 和 Turnitin 的内置检测器 这样的 AI 检测软件。帖子提到调整温度曾经效果不错,但如今一些检测器似乎已能应对这一手段。最近,发帖者尝试使用 NaturalLM,却完全没有效果(被标记为 100% AI)。由于这是 [LocalLLaMA] 板块,大家都运行自己的模型,所以发帖者询问人们还在调整哪些参数(如 top_k、top_p)来逃避检测,或者手动对文本做哪些操作来规避检测。此帖获得了众多点赞和大量评论。
讨论的焦点主要集中在以下几个方面: 有人质疑检测工具的误报率,比如 [Specter_Origin] 提出真正的问题是它们误报的频率有多高。[Any-Demand-2928] 称将《独立宣言》输入“ZeroGPT”,结果被告知有 96%是 AI 生成,令人捧腹。也有人探讨哪些检测器真正有效,比如 [im_dylan_it] 不理解它们如何能有效工作,除非在响应中编码某种签名且检测器正在寻找它。还有人提到一些特定调整的模型,如 [ttkciar] 提到有像 Gemma-2-Ataraxy-9B 这样专门调整为“听起来不像模型”的模型。[phree_radical] 主张学习少样本基础模型,[Mysterious_Finish543] 认为像少样本这样的操作,使用 RAG(利用现有的人类数据/示例)往往能大幅降低检测器的 AI 百分比。[Derefringence] 表示自己对旧论文进行测试,误报率超过 50%,认为目前这些工具如同技术上的蛇油。[Red_Redditor_Reddit] 认为那些检测器是教授用来给论文打分而不履行本职工作,存在大量误报,没有实用性。[ShengrenR] 则认为检测器是垃圾,会误伤无辜。
讨论中的共识在于大家都对检测工具的准确性和可靠性存在担忧。特别有见地的观点如 [utilitycoder] 提出引入人为错误、过多逗号、拼写错误、使用被动语态等方式让文本更真实。
总之,关于如何绕过 AI 检测工具以及这些检测工具的有效性和可靠性,Reddit 上的讨论充满了多样性和争议,这也反映出人们在面对新技术时的思考和探索。
感谢您的耐心阅读!来选个表情,或者留个评论吧!