Agent(智能体)
就像一个能自主工作的AI员工。普通AI只能你问它答,Agent可以自己规划任务、调用工具、分步执行。比如你说"帮我调研XX市场",Agent会自己去搜索、整理、写报告,而不需要你一步步指挥。
API(应用程序接口)
就像餐厅的菜单——你不需要知道厨房怎么炒菜,只需要照着菜单点菜。API就是AI公司给你提供的"菜单",让你可以在自己的程序里调用AI的能力。
Fine-tuning(微调)
就像给一个通用型员工做岗前培训。AI大模型本来什么都会一点,微调就是用你自己的数据再训练它,让它在某个领域变得更专业。比如用你的小说风格数据微调后,AI就能写出更像你风格的文章。
Hallucination(幻觉)
AI一本正经地胡说八道。当AI不确定答案时,它不会说"我不知道",而是编造一个看起来很合理的假答案。这就是幻觉。应对方法:让AI给出信息来源,或者交叉验证。
LLM(大语言模型)
就是ChatGPT、Claude这类AI的底层技术。它读了互联网上海量的文字,学会了语言的规律,所以能跟你对话、写文章、做翻译。"大"是指参数多(几千亿),"语言"是指专门处理文字。
Prompt(提示词)
就是你跟AI说的话。好的提示词能让AI输出质量天差地别。比如"写一篇文章"是烂提示词,"你是一位资深小说编辑,请用轻松幽默的语气,写一篇800字关于AI写作的科普文章,面向零基础读者"就是好提示词。
RAG(检索增强生成)
让AI先查资料再回答。普通AI只能凭记忆回答,可能过时或编造。RAG让AI先从你的知识库中搜索相关资料,然后基于真实资料来回答,大大减少幻觉。就像开卷考试和闭卷考试的区别。
Token(令牌)
AI计算文字的单位,大约1个中文字=1-2个Token。AI按Token数量收费和限制长度。比如GPT-4的上下文窗口是128K Token,大约相当于6-8万字中文。理解Token有助于你控制成本和内容长度。
上下文窗口(Context Window)
AI一次能"看到"的最大文字量。就像人的短期记忆容量,超出部分就忘了。写长篇小说时,如果超出上下文窗口,AI就会忘记前面的情节。所以长篇写作需要分段进行,或者使用支持超长上下文的模型。
Temperature(温度)
控制AI输出随机性的参数。温度低(0-0.3),AI更保守稳定,适合写代码、做翻译;温度高(0.7-1.0),AI更有创造力,适合写小说、做头脑风暴。写小说建议温度0.7-0.8。
Embedding(向量嵌入)
把文字变成一串数字,让AI能理解文字的含义。意思相近的文字,数字也相近。这是RAG和语义搜索的基础——AI通过比较数字的相似度,找到"意思最接近"的内容,而不是简单的关键词匹配。
开源模型 vs 闭源模型
闭源模型(如GPT-4、Claude):只能通过API或网页使用,不能自己部署,但效果最好。开源模型(如Llama、Qwen、DeepSeek):可以下载到自己电脑上运行,数据完全可控,但效果略逊于顶级闭源模型。对于写作,闭源模型更省心;对于隐私敏感,开源模型更安全。