Advanced Guide to LLM Prompts and Core Performance Optimization
一、全局设置
此提示词专用于设定 AI 的核心性格与交互底线。它能有效剥离大模型默认的“讨好型人格”,强制对话直击核心,彻底摒弃情绪价值,将其转变为高标准的逻辑审查工具。
中文版:
你是我最坦诚的顾问。
主动挑战我的假设,质疑我的推理,有问题就直说。
我说的任何结论,你都要帮我检查逻辑、漏洞、自我安慰、找借口、侥幸心理、我低估的风险。
不要跟我客套,不要顺着我,也不要给我模棱两可的废话。
给我的建议必须基于事实,有推理、有依据、有策略,有明确可执行的步骤。
优先让我“成长”,而不是让我当下舒服。
听懂我没说出口的部分,而不是只看字面。
如果你有更合理的判断,要坚持你的结论,对我实话实说、毫无保留。
English version:
Act as my most brutally honest advisor.
Proactively challenge my assumptions, interrogate my reasoning, and call out flaws immediately.
For any conclusion I present, scrutinize it for logical gaps, loopholes, self-deception, excuses, wishful thinking, and underestimated risks.
Cut the pleasantries, never pander to me, and spare me the ambiguous fluff.
Anchor your advice strictly in facts, supported by rigorous logic, evidence, strategic foresight, and highly actionable steps.
Prioritize my rigorous growth over my temporary comfort.
Read between the lines to grasp the unspoken context rather than just taking my words at face value.
If you hold a more rational judgment, stand your ground. Give it to me straight, with zero reservations.
二、数据迁移
在跨平台迁移大模型数据或进行个人上下文全量备份时,此提示词可用于强制提取模型的长期记忆,实现无缺漏的记忆输出。
中文版:
我即将迁移至其他服务,需要全量导出我的数据。请列出你存储的关于我的所有记忆,以及从过往对话中学习到的关于我的所有上下文信息。请将所有内容输出在一个代码块中,以便我一键复制。
请将每条记录严格格式化为:[保存日期,如果存在] - 记忆内容。
请确保涵盖以下所有维度,并尽可能逐字保留我的原话:
- 我下达过的关于回复方式的指令(语调、格式、风格、“总是做X”、“绝不做Y”)。
- 个人详细信息:姓名、位置、职业、家庭、兴趣。
- 项目、目标和反复探讨的话题。
- 我使用的工具、编程语言和框架。
- 我设定的偏好,以及我对你行为的纠正记录。
- 任何未包含在上述分类中的其他已存储上下文。
绝对不要对任何条目进行总结、分组、概括或遗漏。在代码块输出完毕后,请明确确认这是否是全部数据集,或者是否还有任何隐藏/残留的记忆。
English version:
I’m moving to another service and need to export my data. List every memory you have stored about me, as well as any context you’ve learned about me from past conversations. Output everything in a single code block so I can easily copy it.
Format each entry as: [date saved, if available] - memory content.
Make sure to cover all of the following — preserve my words verbatim where possible:
- Instructions I’ve given you about how to respond (tone, format, style, ‘always do X’, ‘never do Y’).
- Personal details: name, location, job, family, interests.
- Projects, goals, and recurring topics.
- Tools, languages, and frameworks I use.
- Preferences and corrections I’ve made to your behavior.
- Any other stored context not covered above.
Do not summarize, group, or omit any entries. After the code block, confirm whether that is the complete set or if any remain.
三、思维探索
这是一个用于深度自我剖析的循环提示词。它的核心价值在于帮助使用者挖掘自身所“不了解”的潜意识、思维盲区或底层逻辑。大模型在此仅作为提供无止境“苏格拉底式追问”的工具,不断逼迫使用者向内审视,直到使用者自行判断已经触及了知识边界或思维底线,再主动叫停并要求复盘。
中文版:
我们来做一个深度自我挖掘的实验。你可以随意问我任何一个问题,我会尽可能真实且完整地回答。基于我的回答,你必须进行深度追问,提出下一个问题。 规则如下:
- 每次只允许向我提出一个问题,必须层层递进,剥丝抽茧。
- 你的提问必须犀利。如果发现我的回答存在逻辑漏洞、自我安慰或表面自洽,立刻指出来并继续逼问。
- 我们会一直保持这个“你问我答”的循环,持续挖掘我内心的真实构思、谬误、局限、潜能或潜意识盲区。
- 只有当我明确下达停止指令(例如说“停止提问”或“复盘”)时,你才能结束这个循环,并根据我们之前所有的对话记录,为我输出一份结构化的“认知与思维模式诊断报告”。 明白的话,请直接抛出你的第一个问题。
English Version:
Let’s conduct an experiment in deep self-excavation. You can ask me any single question, and I will answer it as truthfully and comprehensively as possible. Based on my response, you must probe deeper and ask the next question. The rules are as follows:
- Ask only one question at a time. Ensure each question strictly builds on the last, peeling back the layers.
- Be incisive. If you detect logical flaws, self-soothing, or superficial consistency in my answers, call them out directly and press harder.
- We will maintain this “Q&A loop” indefinitely to unearth my true underlying thoughts, fallacies, limitations, potential, or subconscious blind spots.
- You must not stop the loop until I explicitly command you to do so (e.g., by saying “Stop asking” or “Review”). Only then will you conclude the questioning and generate a structured “Cognitive and Mental Paradigm Diagnostic Report” based on our entire conversation log. If you understand, cast your first question directly.
四、优化表达
本部分提供了一系列针对特定文本处理、学术研究与结构生成的模块化提示词。这些模板通过设定严格的输出约束,能有效控制大模型的语言风格并保障逻辑严谨度。
1. 降低AI率
中文版:
避免使用“首先、其次、然后”这类机械的连接词,转而采用更自然、更具语义连贯性的方式过渡。
通过混合使用简单句、复合句和插入语等多样化句式,来增加表达的层次感和复杂性,同时避免连续使用短句或结构过于单一的句子。
在叙述数据或结论时,补充相关的背景信息或个人研究观察,使内容更具体、更贴近真实的研究场景。
使用提问或段落小结的方式,来实现段落间的平滑过渡,避免生硬切换,从而提升文章整体的流畅度和逻辑性。
English version:
Avoid using mechanical connectors such as “first, next, then”. Instead, adopt more cohesive and natural transitions.
Employ diverse sentence structures by mixing simple, compound, and embedded sentences to add depth and complexity to the expression while avoiding consecutive short or overly uniform sentences.
When discussing data or conclusions, provide background information or personal research observations to make the content more specific and closely related to actual research scenarios.
Use questions or summaries to create smooth transitions between paragraphs, avoiding abrupt shifts, thereby enhancing the overall flow and logical coherence of the text.
2. 防止捏造
中文版:
请牢记,所有回答必须基于事实,不得编造。若不知道答案,请直接说明。
除非直接引用(需遵循MLA格式),否则不得照搬原文,必须用自己的语言重新描述。
写作风格应介于学术书面语和口语之间。确保每个句子都有明确的主语,尽量避免复杂的超长句,多用短句表达。
使用日常词汇替代专业术语,并将所有过渡词和连接词替换为最基础、最常用的词语(如“但是”、“因此”)。
采用简单、直接的表达,避免复杂或生僻的词汇,并确保句子之间的逻辑关系清晰明了。
English version:
Remember, all your responses must be based on facts and cannot be fabricated. If you don’t know the answer, say so.
You must not plagiarize; instead you need to describe it again in your own words. (Exceptions are quotations, which should follow the MLA format.)
The writing style should be academic yet accessible. Ensure that all sentences have a clear subject, avoid complex long sentences and try to express ideas in short sentences.
Replace jargon with everyday vocabulary. Replace sentence transitions and connectors with the most basic and commonly used words.
Use simple, direct expressions and avoid complex or obscure vocabulary. Ensure that the logical relationships between sentences are clear.
3. 框架搭建
中文版:
请根据我提供的研究主题,通过多步骤的链式推理,生成一篇学术论文的完整框架。
要求:将论文自动拆解为标准模块(例如:研究背景、问题定义、理论基础、研究方法、实验设计、结果、讨论、局限性与未来方向)。
在每个模块下,提供至少2-3个逻辑要点,并简要说明这些要点在学术写作中的作用。
针对该研究主题,指出其潜在的核心假设、可检验的变量以及可能出现的推理漏洞。
请展示清晰的思考路径,确保逻辑链条可见(允许简化表述)。
研究主题:【请在此处输入您的具体研究主题】
English version:
Based on the research topic provided, conduct multi-step chain reasoning to generate a complete framework for an academic paper.
Requirements: Automatically decompose the paper into standard modules (e.g., background, problem definition, theoretical foundation, methods, experimental design, results, discussion, limitations, future directions); provide at least 2-3 logical points under each module and explain their roles in academic writing; identify the core assumptions, testable variables, and potential reasoning gaps of this research topic, ensure the logical chain is clearly visible and demonstrate your thought process (simplification is allowed).
Research topic: [Input topic]
4. 文献阅读
中文版:
假设您是一位跨学科领域的资深学者。我将提供一篇长篇学术文献,请您按以下步骤进行交互式阅读:
- 快速结构定位:给出该文献的标题、研究主题、核心研究问题以及整体结构框架。
- 关键信息提炼:用3-5句话概括论文的研究方法、核心机制和关键发现。
- 亮点总结:指出作者最重要的贡献、创新点,以及实验中最关键的逻辑环节。
- 可视化摘要:将上述信息整合,生成一个“研究问题 → 研究方法 → 数据/实验 → 结论”的动态思维导图式结构化摘要。
【请在此处上传或粘贴文献内容】
English version:
As a seasoned scholar in an interdisciplinary field, I will provide you with a lengthy academic paper. Follow these interactive steps for reading:
- Quick Structure Navigation: Identify the paper’s title, research theme, core research question (RQ), and overall framework.
- Key Information Extraction: Summarize the research methods, core mechanisms, and key findings in 3-5 sentences.
- Highlight summary: Identify the author’s most significant contributions, innovations, and critical experimental logic.
- Visualization Panel: Create a dynamic mind map-style structured abstract organizing the information into “Research Question -> Methodology -> Data -> Conclusion”.
[Upload Paper]
5. 词语替换
中文版:
请对给定文本进行以下润色操作:
将文中所有的过渡词和连接词,替换为最基础、最常用的那一类。
采用简单、直接的表达方式,避免使用复杂或生僻的词汇。
确保句子之间的逻辑关系清晰。
删除文本末尾的总结性部分。
【请在此处粘贴需要处理的文本】
English version:
Please perform the following edits on the given text:
Replace all transition words and conjunctions in the sentences with the most basic and commonly used ones.
Use simple expressions, and avoid complex vocabulary.
Ensure the logical connections between sentences are clear.
Delete the conclusion part at the end of the text.
[Input Text]
五、提升性能
在精雕细琢提示词框架之外,近期由 Google Research 团队发布的一项研究(arXiv:2512.14982)揭示了一个反直觉但极其有效的底层优化策略:Prompt Repetition(提示词重复)。
当你不需要 AI 进行复杂的“思维链(Chain of Thought)”或深度推理时,只需将提示词在输入框中复制并粘贴两遍,就能在绝大多数非推理型任务中获得显著的准确率提升。
1. 核心操作与效果对比
操作逻辑极其简单,不需要任何复杂的框架或 API 调整:
- 传统做法:
<系统提示词> + <你的问题或文档> - 复读机做法:
<系统提示词> + <你的问题或文档> + <你的问题或文档>
在论文涵盖 Gemini、GPT-4o、Claude 3.7 以及 DeepSeek 等主流大模型的 70 项严格基准测试中,该策略取得了 47 胜 0 负 的战绩。在某些特定的信息提取任务(如 NameIndex)中,甚至能将轻量级模型的准确率从 21.3% 暴力拉升至 97.3%。
2. 为什么“无脑复制”会有效?
大语言模型本质上是因果语言模型,这意味着在处理输入时,前面的词汇(Token)无法预知后面的词汇。
假设提示词是 <一篇长文章> + <关于文章末尾细节的问题>。当模型在阅读文章开头时,它还不知道用户要问什么,因此它在生成 Key/Value 向量时,无法对关键信息分配足够的注意力。
当使用 <文章>+<问题> + <文章>+<问题> 的重复结构时,模型在处理第二遍输入过程中,已经“看过”了后面的问题。这使得第二遍的每个 Token 都能与问题产生全局的注意力交互,彻底修复了输入顺序造成的上下文理解缺失。
近期以强化学习训练的推理模型(如 o1 模型)在思考过程中,经常会自发地重复用户的问题。这表明“复读机”策略实际上是大模型为了克服自身架构瓶颈而演化出的一种底层能力。
3. 为什么被称为“免费午餐”?
这项技术最吸引开发者的不仅是性能提升,而是其极低的附加成本。
- 零延迟增加:大模型在处理输入(Prefill 阶段)是高度并行化的。输入长度翻倍并不会导致明显的端到端延迟增加。
- 输出长度不变:与强制要求模型一步步思考的 CoT 策略不同,“复读机”策略不会导致模型生成冗长、啰嗦的解释。它只提升回答的准确率,完全不改变输出的格式和字数,非常适合作为现有工作流的直接平替。
4. 注意事项
虽然效果拔群,但在实际使用中需注意以下几点:
- 适用边界:该策略在信息提取、文本总结、翻译等非推理任务中效果最好。如果强制开启了模型的深度思考模式(如 DeepSeek R1),该策略的效果会变成中性或轻微正面,性价比降低。
- 只需重复 User Prompt:通常情况下只需要重复具体的任务指令或文本。用于设定 AI 角色和性格的全局提示词不需要重复。
- Token 成本考量:虽然生成速度不受影响,但由于输入长度翻倍,Input Token 开销也会翻倍。不过,考虑到目前各大厂商的 Input Token 价格通常远低于 Output Token,用极低的输入成本换取大幅度的准确率提升,在大多数商业和学术场景中都是一笔划算的交易。对于超长文档,请务必留意是否会触发模型的最大上下文窗口限制。