{"id":"dc56593e-846b-4c4f-a823-3481fb96e569","shortId":"kYTnUH","kind":"skill","title":"chinese-de-aigc","tagline":"面向中文学术论文的降 AIGC 检测率 Skill。针对知网、万方、维普、Turnitin 中文版的检测机制，识别并消除中文大语言模型的 17 类结构化写作痕迹。采用\"定位 → 诊断 → 改写 → 自评 → 复查\"五步闭环工作流，分章节差异化策略（摘要/引言/文献综述/方法/结果/讨论/结论），保持学术严谨性前提下通过检测。","description":"# 中文学术降 AIGC Skill\n\n> 中文学术实证论文的 AI 痕迹消除器。不是\"改同义词\"，不是\"打乱语序\"，而是**系统性地重构中文 AI 文本的统计学特征**，让它回归到真实研究者写作的语言分布上。\n\n## 适用场景\n\n- 中文期刊投稿前的 AIGC 率自查与修改\n- 学位论文（本/硕/博）应对知网 AMLC 检测\n- 基金申请书、开题报告、研究报告去 AI 化\n- 已完成英文投稿、需要中文摘要/中文版本的场景\n- CoPaper.AI 等工具生成初稿后的人工化处理\n\n## 核心理念\n\n**三个错误的做法**（很多教程都在做但无效）：\n\n1. ❌ **同义词替换**：把\"关键\"改成\"核心\"，把\"重要\"改成\"显著\"——检测器看的是 n-gram 统计分布，不是单词替换\n2. ❌ **句式倒装**：简单把\"由于 A，所以 B\"改成\"B，这是因为 A\"——句法模板没变\n3. ❌ **全文重写交给 AI**：换另一个 AI 改写，只是从一种 AI 痕迹换成另一种\n\n**本 Skill 的正确路径**：针对**中文 AI 的五大结构性特征**做定点破坏，而非字词层面的表面修改。\n\n## 中文 AI 文本的五大结构性特征\n\n与英文 AI 不同，中文大模型的痕迹主要表现在：\n\n1. **四字套话密度过高**：每 200 字出现 3+ 个\"综上所述/不可否认/毋庸置疑/显而易见\"之类\n2. **虚词与关联词冗余**：过度使用\"然而/因此/此外/而且/并且/以及/等等\"\n3. **主语回避与隐藏被动**：大量\"本文认为/本研究发现/相关研究表明\"式的模糊主语\n4. **句长方差低**：句子长度集中在 20-35 字，缺乏人类写作的节奏跳跃\n5. **结论绝对化**：倾向使用\"证明了/确立了/充分说明/必然导致\"等过强断言\n\n本 Skill 针对上述 5 大特征，提供 **17 类细分诊断规则**（详见 `references/patterns.md`）。\n\n## 五步闭环工作流\n\n```\n┌─────────────┐    ┌─────────────┐    ┌─────────────┐\n│ 1. 定位扫描 │ →  │ 2. 诊断分类 │ →  │ 3. 差异化改写 │\n└─────────────┘    └─────────────┘    └─────────────┘\n                                             │\n┌─────────────┐    ┌─────────────┐          │\n│ 5. 二次复查 │ ←  │ 4. 五维自评 │ ←────────┘\n└─────────────┘    └─────────────┘\n```\n\n### Step 1 · 定位扫描\n\n接收用户提交的文本，按 `references/patterns.md` 的 17 类规则做全文扫描，**输出结构化问题清单**：\n\n```markdown\n## AI 痕迹定位报告\n\n| 段落 | 原文片段 | 命中规则 | 严重度 |\n|------|---------|---------|--------|\n| ¶2   | \"毋庸置疑，数字化转型...\" | P01 四字套话 | 高 |\n| ¶3   | \"...此外，该研究还...\"   | P04 显性连接词 | 中 |\n| ¶5   | \"本文认为该机制充分证明了...\" | P12 绝对化断言 | 高 |\n```\n\n⚠️ **不要**此时就开始改写，先让用户/作者看到问题全貌。\n\n### Step 2 · 诊断分类\n\n按**段落功能**分类：\n\n- **事实陈述段**（方法/数据/结果）→ 低调改写，保留学术精确度\n- **论证段**（文献综述/讨论/机制分析）→ 重点改写，注入学者的\"认识论谨慎\"\n- **过渡段**（章节衔接、段落承上启下）→ 大幅改写，消除机械连接词\n\n参考 `references/academic-sections.md` 的**分章节策略表**决定每段的改写力度。\n\n### Step 3 · 差异化改写\n\n针对 Step 1 清单里的每一条，按以下四条原则逐一修复：\n\n1. **还原研究者视角**：把\"本研究发现\"改成具体的\"我们用 2015-2023 年 CFPS 面板数据发现\"——加入**可验证的颗粒度**\n2. **制造句长方差**：在一段 200 字内，强制包含至少 1 个 ≤15 字的短句 + 1 个 ≥50 字的长句\n3. **消灭显性连接词**：去掉\"此外/而且/因此/从而\"这类段首连接词，改用**语义接力**（下一句主语呼应上一句宾语的关键概念）\n4. **绝对→谨慎**：所有\"证明/确立/必然/充分说明\"降级为\"为...提供了证据/与...的预期一致/可能意味着\"\n\n⚠️ **禁止事项**：\n- 禁止为了\"显得人类\"而刻意制造错别字或不规范表达\n- 禁止使用生僻词、文言化词汇强行降困惑度——这会损害学术性\n- 禁止篡改数据、结论或研究主张——只改表达，不改实质\n\n### Step 4 · 五维自评\n\n对改写后的文本做**中文学术版 5 维评分**（每维 1-10 分，详见 `references/scoring.md`）：\n\n| 维度 | 检查点 | 权重 |\n|------|--------|------|\n| **具体性** | 是否用具体数据/案例/作者替代了模糊表达 | 1.5× |\n| **节奏性** | 句长方差是否 ≥ 150（50 字长句 + 15 字短句混排） | 1.2× |\n| **谨慎性** | 绝对化断言是否已降级为条件化表述 | 1.3× |\n| **隐衔接** | 段落之间是否消除了显性关联词（此外/因此等） | 1.0× |\n| **研究者语气** | 是否出现\"我们/本团队/我\"等第一人称研究立场 | 1.0× |\n\n**加权总分 < 35 → 返回 Step 3 再改一轮。加权总分 ≥ 42 → 通过。**\n\n### Step 5 · 二次复查\n\n用\"冷读者\"视角重新审视全文，执行三项终审：\n\n1. **通顺性复查**：改写后的逻辑链是否依然连贯？有没有为了降 AIGC 伤到学术表达？\n2. **事实性复查**：数据、引用、作者名、年份有没有被误改？\n3. **风格一致性复查**：全文语气是否统一，有没有出现\"改过的段落 vs 没改的段落\"断层？\n\n**输出终稿 + 改动摘要**（哪些段落改了多少、为什么改）。\n\n## 调用接口\n\n用户可以用以下任意触发词调用：\n\n- `请对这段文本降 AIGC 检测率`\n- `把这篇论文改得不像 AI 写的`\n- `走 chinese-de-aigc 五步闭环`\n- `诊断这段文字的 AI 痕迹，给出修改建议`\n\n## 与其他 Skill 的配合\n\n- **先用 revision-guard** 防止过度修改（本 Skill 改写完后交给它把关）\n- **与 humanizer_academic 互补**：那个针对英文，这个针对中文，一篇双语论文需要两个都用\n- **写完初稿再用本 Skill**：不要一边写一边降 AIGC，会干扰创作思路\n\n## 参考资料\n\n- `references/patterns.md` — 17 类中文 AI 痕迹模式库（每类含识别规则 + 典型样本）\n- `references/examples.md` — 12 组原文/改写前后对比（覆盖实证论文七个主要章节）\n- `references/academic-sections.md` — 按章节差异化的改写策略表（摘要/引言/文献综述/方法/结果/讨论/结论）\n- `references/scoring.md` — 五维评分量表细则\n\n## 重要声明\n\n本 Skill 的目标是**让人工写作和 AI 辅助写作的文本回归到真实研究者的语言分布**，而不是\"帮 AI 生成内容骗过检测\"。\n\n- ✅ 适用：研究者自己写的初稿，被 AIGC 检测误判为高 AI 率\n- ✅ 适用：AI 辅助起草 + 研究者人工修改定稿的混合场景\n- ❌ 不适用：完全 AI 生成的论文，希望零改动通过检测\n- ❌ 不适用：学术不端场景，如代写、抄袭的掩盖\n\n**学术诚信优先于检测率**。任何改写都不应触及研究结论、数据真实性、引用准确性。","tags":["copaper","chinese","aigc","awesome","agent","skills","for","empirical","research","brycewang-stanford","academic-research","agent-skills"],"capabilities":["skill","source-brycewang-stanford","skill-48-copaper-ai-chinese-de-aigc","topic-academic-research","topic-agent-skills","topic-ai-agent","topic-awesome-list","topic-communication","topic-copaper","topic-economics","topic-education","topic-empirical-research","topic-international-relations","topic-political-science","topic-psychology"],"categories":["Awesome-Agent-Skills-for-Empirical-Research"],"synonyms":[],"warnings":[],"endpointUrl":"https://skills.sh/brycewang-stanford/Awesome-Agent-Skills-for-Empirical-Research/48-copaper-ai-chinese-de-aigc","protocol":"skill","transport":"skills-sh","auth":{"type":"none","details":{"cli":"npx skills add brycewang-stanford/Awesome-Agent-Skills-for-Empirical-Research","source_repo":"https://github.com/brycewang-stanford/Awesome-Agent-Skills-for-Empirical-Research","install_from":"skills.sh"}},"qualityScore":"0.541","qualityRationale":"deterministic score 0.54 from registry signals: · indexed on github topic:agent-skills · 183 github stars · SKILL.md body (3,525 chars)","verified":false,"liveness":"unknown","lastLivenessCheck":null,"agentReviews":{"count":0,"score_avg":null,"cost_usd_avg":null,"success_rate":null,"latency_p50_ms":null,"narrative_summary":null,"summary_updated_at":null},"enrichmentModel":"deterministic:skill-github:v1","enrichmentVersion":1,"enrichedAt":"2026-04-22T06:54:27.393Z","embedding":null,"createdAt":"2026-04-21T01:29:58.033Z","updatedAt":"2026-04-22T06:54:27.393Z","lastSeenAt":"2026-04-22T06:54:27.393Z","tsv":"'-10':337 '-2023':272 '-35':158 '1':72,125,180,191,262,265,284,288,336,388 '1.0':364,371 '1.2':356 '1.3':359 '1.5':348 '12':462 '15':286,354 '150':351 '17':15,175,197,455 '2':88,137,182,207,229,278,394 '20':157 '200':128,281 '2015':271 '3':100,130,147,184,213,258,292,376,400 '35':373 '4':154,188,303,329 '42':379 '5':161,172,186,219,333,382 '50':290,352 'academ':443 'ai':37,45,62,102,104,107,114,119,122,201,418,427,457,482,486,493,496,501 'aigc':4,6,34,50,392,415,424,451,491 'amlc':57 'b':94,96 'cfps':274 'chines':2,422 'chinese-de-aigc':1,421 'copaper.ai':67 'de':3,423 'gram':85 'guard':436 'human':442 'markdown':200 'n':84 'n-gram':83 'p01':210 'p04':216 'p12':221 'references/academic-sections.md':253,466 'references/examples.md':461 'references/patterns.md':178,195,454 'references/scoring.md':340,475 'revis':435 'revision-guard':434 'skill':8,35,110,170,431,439,449,479 'skill-48-copaper-ai-chinese-de-aigc' 'source-brycewang-stanford' 'step':190,228,257,261,328,375,381 'topic-academic-research' 'topic-agent-skills' 'topic-ai-agent' 'topic-awesome-list' 'topic-communication' 'topic-copaper' 'topic-economics' 'topic-education' 'topic-empirical-research' 'topic-international-relations' 'topic-political-science' 'topic-psychology' 'turnitin':12 'vs':405 '一篇双语论文需要两个都用':447 '万方':10 '三个错误的做法':70 '下一句主语呼应上一句宾语的关键概念':302 '不可否认':133 '不同':123 '不改实质':327 '不是':39,41 '不是单词替换':87 '不要':224 '不要一边写一边降':450 '不适用':499,504 '与':314,441 '与其他':430 '与英文':121 '严重度':206 '个':131,285,289 '中':218 '中文':113,118 '中文大模型的痕迹主要表现在':124 '中文学术实证论文的':36 '中文学术版':332 '中文学术降':33 '中文期刊投稿前的':49 '中文版本的场景':66 '中文版的检测机制':13 '为':312 '为什么改':411 '主语回避与隐藏被动':148 '之类':136 '事实性复查':395 '事实陈述段':234 '二次复查':187,383 '互补':444 '五步闭环':425 '五步闭环工作流':23,179 '五维自评':189,330 '五维评分量表细则':476 '从而':298 '以及':145 '任何改写都不应触及研究结论':509 '会干扰创作思路':452 '伤到学术表达':393 '低调改写':238 '作者名':398 '作者替代了模糊表达':347 '作者看到问题全貌':227 '保持学术严谨性前提下通过检测':32 '保留学术精确度':239 '倾向使用':163 '做定点破坏':116 '充分说明':166,310 '先用':433 '先让用户':226 '全文语气是否统一':402 '全文重写交给':101 '关键':75 '具体性':344 '典型样本':460 '再改一轮':377 '写完初稿再用本':448 '写的':419 '决定每段的改写力度':256 '冷读者':385 '分':338 '分章节差异化策略':24 '分章节策略表':255 '分类':233 '制造句长方差':279 '加入':276 '加权总分':372,378 '化':63 '博':55 '原文片段':204 '去掉':294 '参考':252 '参考资料':453 '句子长度集中在':156 '句式倒装':89 '句法模板没变':99 '句长方差低':155 '句长方差是否':350 '只改表达':326 '只是从一种':106 '可能意味着':316 '可验证的颗粒度':277 '同义词替换':73 '命中规则':205 '哪些段落改了多少':410 '四字套话':211 '四字套话密度过高':126 '因此':141,297 '因此等':363 '在一段':280 '基金申请书':59 '复查':22 '大幅改写':250 '大特征':173 '大量':149 '如代写':506 '字':159 '字内':282 '字出现':129 '字的短句':287 '字的长句':291 '字短句混排':355 '字长句':353 '学位论文':52 '学术不端场景':505 '学术诚信优先于检测率':508 '完全':500 '定位':18 '定位扫描':181,192 '对改写后的文本做':331 '差异化改写':185,259 '已完成英文投稿':64 '希望零改动通过检测':503 '帮':485 '年':273 '年份有没有被误改':399 '并且':144 '应对知网':56 '开题报告':60 '式的模糊主语':153 '引用':397 '引用准确性':511 '引言':26,469 '强制包含至少':283 '很多教程都在做但无效':71 '必然':309 '必然导致':167 '我':369 '我们':367 '我们用':270 '所以':93 '所有':306 '打乱语序':42 '执行三项终审':387 '抄袭的掩盖':507 '把':74,78,267 '把这篇论文改得不像':417 '按':194,231 '按以下四条原则逐一修复':264 '按章节差异化的改写策略表':467 '换另一个':103 '接收用户提交的文本':193 '提供':174 '提供了证据':313 '摘要':25,468 '改写':20,105 '改写前后对比':464 '改写后的逻辑链是否依然连贯':390 '改写完后交给它把关':440 '改动摘要':409 '改同义词':40 '改成':76,80,95 '改成具体的':269 '改用':300 '改过的段落':404 '数字化转型':209 '数据':236,396 '数据真实性':510 '文本的五大结构性特征':120 '文本的统计学特征':46 '文献综述':27,241,470 '文言化词汇强行降困惑度':322 '断层':407 '方法':28,235,471 '是否出现':366 '是否用具体数据':345 '显得人类':319 '显性连接词':217 '显而易见':135 '显著':81 '有没有为了降':391 '有没有出现':403 '本':53,109,169,438,478 '本团队':368 '本文认为':150 '本文认为该机制充分证明了':220 '本研究发现':151,268 '机制分析':243 '权重':343 '核心':77 '核心理念':69 '案例':346 '检查点':342 '检测':58 '检测器看的是':82 '检测率':7,416 '检测误判为高':492 '此外':142,214,295,362 '此时就开始改写':225 '段落':203 '段落之间是否消除了显性关联词':361 '段落功能':232 '段落承上启下':249 '毋庸置疑':134,208 '每':127 '每类含识别规则':459 '每维':335 '没改的段落':406 '注入学者的':245 '消灭显性连接词':293 '消除机械连接词':251 '清单里的每一条':263 '然而':140 '率':494 '率自查与修改':51 '生成内容骗过检测':487 '生成的论文':502 '用':384 '用户可以用以下任意触发词调用':413 '由于':91 '痕迹':428 '痕迹定位报告':202 '痕迹换成另一种':108 '痕迹模式库':458 '痕迹消除器':38 '的':196,254 '的五大结构性特征':115 '的正确路径':111 '的目标是':480 '的配合':432 '的预期一致':315 '相关研究表明':152 '研究报告去':61 '研究者人工修改定稿的混合场景':498 '研究者自己写的初稿':489 '研究者语气':365 '硕':54 '确立':308 '确立了':165 '禁止为了':318 '禁止事项':317 '禁止使用生僻词':321 '禁止篡改数据':324 '章节衔接':248 '等工具生成初稿后的人工化处理':68 '等第一人称研究立场':370 '等等':146 '等过强断言':168 '简单把':90 '类中文':456 '类细分诊断规则':176 '类结构化写作痕迹':16 '类规则做全文扫描':198 '系统性地重构中文':44 '组原文':463 '结果':29,237,472 '结论':31,474 '结论或研究主张':325 '结论绝对化':162 '给出修改建议':429 '绝对':304 '绝对化断言':222 '绝对化断言是否已降级为条件化表述':358 '统计分布':86 '维度':341 '维普':11 '维评分':334 '综上所述':132 '缺乏人类写作的节奏跳跃':160 '而不是':484 '而且':143,296 '而刻意制造错别字或不规范表达':320 '而是':43 '而非字词层面的表面修改':117 '自评':21 '节奏性':349 '虚词与关联词冗余':138 '被':490 '覆盖实证论文七个主要章节':465 '视角重新审视全文':386 '认识论谨慎':246 '讨论':30,242,473 '让人工写作和':481 '让它回归到真实研究者写作的语言分布上':47 '论证段':240 '证明':307 '证明了':164 '识别并消除中文大语言模型的':14 '诊断':19 '诊断分类':183,230 '诊断这段文字的':426 '该研究还':215 '详见':177,339 '语义接力':301 '请对这段文本降':414 '调用接口':412 '谨慎':305 '谨慎性':357 '走':420 '辅助写作的文本回归到真实研究者的语言分布':483 '辅助起草':497 '输出终稿':408 '输出结构化问题清单':199 '过度使用':139 '过渡段':247 '返回':374 '还原研究者视角':266 '这个针对中文':446 '这会损害学术性':323 '这是因为':97 '这类段首连接词':299 '适用':488,495 '适用场景':48 '通过':380 '通顺性复查':389 '那个针对英文':445 '采用':17 '重点改写':244 '重要':79 '重要声明':477 '针对':112,260 '针对上述':171 '针对知网':9 '防止过度修改':437 '降级为':311 '隐衔接':360 '需要中文摘要':65 '面向中文学术论文的降':5 '面板数据发现':275 '风格一致性复查':401 '高':212,223","prices":[{"id":"30ef5c0e-31a7-4e58-8b48-b0dc326b98d0","listingId":"dc56593e-846b-4c4f-a823-3481fb96e569","amountUsd":"0","unit":"free","nativeCurrency":null,"nativeAmount":null,"chain":null,"payTo":null,"paymentMethod":"skill-free","isPrimary":true,"details":{"org":"brycewang-stanford","category":"Awesome-Agent-Skills-for-Empirical-Research","install_from":"skills.sh"},"createdAt":"2026-04-21T01:29:58.033Z"}],"sources":[{"listingId":"dc56593e-846b-4c4f-a823-3481fb96e569","source":"github","sourceId":"brycewang-stanford/Awesome-Agent-Skills-for-Empirical-Research/48-copaper-ai-chinese-de-aigc","sourceUrl":"https://github.com/brycewang-stanford/Awesome-Agent-Skills-for-Empirical-Research/tree/main/skills/48-copaper-ai-chinese-de-aigc","isPrimary":false,"firstSeenAt":"2026-04-21T01:29:58.033Z","lastSeenAt":"2026-04-22T06:54:27.393Z"}],"details":{"listingId":"dc56593e-846b-4c4f-a823-3481fb96e569","quickStartSnippet":null,"exampleRequest":null,"exampleResponse":null,"schema":null,"openapiUrl":null,"agentsTxtUrl":null,"citations":[],"useCases":[],"bestFor":[],"notFor":[],"kindDetails":{"org":"brycewang-stanford","slug":"48-copaper-ai-chinese-de-aigc","github":{"repo":"brycewang-stanford/Awesome-Agent-Skills-for-Empirical-Research","stars":183,"topics":["academic-research","agent-skills","ai-agent","awesome-list","communication","copaper","economics","education","empirical-research","international-relations","political-science","psychology","public-administration","reproducible-research","skills-library","social-science","sociology"],"license":"other","html_url":"https://github.com/brycewang-stanford/Awesome-Agent-Skills-for-Empirical-Research","pushed_at":"2026-04-21T01:02:33Z","description":"🔬 A curated collection of 23,000+ agent skills for empirical research across 8 social science disciplines. | 精选 23,000+ AI Agent 技能库，覆盖8大社会科学学科的实证研究。CoPaper.AI 20分钟完成一篇可复现的规范实证论文，并支持用户上传 Skills。-- Maintained by CoPaper.AI from Stanford REAP.","skill_md_sha":"60b3bf3f4d772d8a43c91dd5c5e086b6c03e1f45","skill_md_path":"skills/48-copaper-ai-chinese-de-aigc/SKILL.md","default_branch":"main","skill_tree_url":"https://github.com/brycewang-stanford/Awesome-Agent-Skills-for-Empirical-Research/tree/main/skills/48-copaper-ai-chinese-de-aigc"},"layout":"multi","source":"github","category":"Awesome-Agent-Skills-for-Empirical-Research","frontmatter":{"name":"chinese-de-aigc","description":"面向中文学术论文的降 AIGC 检测率 Skill。针对知网、万方、维普、Turnitin 中文版的检测机制，识别并消除中文大语言模型的 17 类结构化写作痕迹。采用\"定位 → 诊断 → 改写 → 自评 → 复查\"五步闭环工作流，分章节差异化策略（摘要/引言/文献综述/方法/结果/讨论/结论），保持学术严谨性前提下通过检测。"},"skills_sh_url":"https://skills.sh/brycewang-stanford/Awesome-Agent-Skills-for-Empirical-Research/48-copaper-ai-chinese-de-aigc"},"updatedAt":"2026-04-22T06:54:27.393Z"}}