新年逼自己一把,学会使用DeepSeek R1
摘要
TLDRDeepSeek APP在发布后迅速在160个国家取得成功,日活跃用户超1500万,备受瞩目。其智能模型DeepSeek R1以简化的使用方式使得用户无需复杂提示即可获得满意的结果。视频指出用户需理解大语言模型的局限性,并提供了19条使用技巧,包括明确要求、提供背景信息及管理知识状态。强调不要再使用过时的提示词技巧,并指出DeepSeek R1在多个领域表现出色。
心得
- 🌟 DeepSeek APP迅速登顶全球160国
- 🚀 日活跃用户超1500万
- 🧠 R1模型使用简单,减少提示词依赖
- 📚 理解大语言模型的局限性
- 💡 提供充分的任务背景信息
- 🛑 避免使用过时的提示词技巧
- 🏆 适合多领域的复杂任务
- 🔍 需管理者思维与经验
- 🔗 联网搜索功能的使用时机
- ✨ R1在推理与决策上表现优异
时间轴
- 00:00:00 - 00:05:00
DeepSeek APP在全球上架后迅速取得成功,覆盖160多个国家,日活跃用户超1500万,并成为全球增速最快的AI应用。其影响力引起市场波动,曾导致美股市值蒸发超过1万亿美元。关键成就源自其发布的DeepSeek R1模型,通过简化用户对提示词的需求,令用户能以更直观的方式获得优质回答,标志着AI应用的新阶段。
- 00:05:00 - 00:10:00
DeepSeek R1作为推理模型,与传统执行指令的AI有所不同;它能够自主进行逻辑推理与多步骤分析,适合复杂任务。相较于需要付费的竞争产品,DeepSeek R1免费且功能强大。即使具备超强的推理能力,R1在多种任务中表现出色,带来了显著提升,使使用者只需明确需求而非复杂提示。这种简化使更多用户能够利用AI,推动AI应用的普及。
- 00:10:00 - 00:15:00
要充分利用DeepSeek R1,用户需理解其局限性与运作原理,并具备一定的管理思维。在与R1交互时,需要明晰任务、提供背景信息、定义目标等,以便R1能够生成更符合需求的内容。了解R1的输出限制和知识截止时间,能够帮助用户更精确地运用该模型,进一步提升操作效率和效果。
- 00:15:00 - 00:24:06
在总结提示技巧时,需注意R1的特性,避免无效的提示策略。有效的策略包括明确要求、提供背景信息、设定目标等。同时需要避开某些过时的提示技巧,如思维链提示和角色扮演。用户应适应R1的逻辑方式,使得与之交互变得更加高效,最终实现理想的成果。
思维导图
视频问答
DeepSeek APP是什么?
DeepSeek APP是一款全球流行的AI应用,拥有智能模型DeepSeek R1。
DeepSeek R1的特点是什么?
DeepSeek R1是推理模型,专注于逻辑推理和复杂决策,使用简单表述即可得到高质量回答。
如何有效使用DeepSeek R1?
使用时明确要求、提供充分背景信息、标注自己的知识状态等都是有效的策略。
DeepSeek R1的局限性有哪些?
包括知识截止时间、缺乏自我认知、上下文记忆限制等。
有什么提示词技巧需要避免?
避免过于复杂的思维链提示、角色扮演和解释已知概念等。
查看更多视频摘要
柴静访谈韩秀:“ 17岁我与周恩来跳舞时,问到那个人,他的表情是鄙夷”
YouTube审核真的已经被中共渗透了吗?YouTube团队里有没有中共间谍? | 大外宣 | 五毛党 | 水军 | 舆论控制 | 钢琴门 | K博士 | 伦敦火车站钢琴门 | 老周横眉
文化大衝擊!原住民阿嬤大解放一時差點hold不住😅😅《一日孫女租借ep.1》韓國孫女來了😍
主流媒體是怎麼毀掉你的投資
【巫师】春晚背后的资本博弈 #春晚
选错币、毁一生!现在哪个币有暴富潜力?Sui能抄底?我要在这天清仓这个币!要觉醒了!以太坊要更新代币机制,代币通缩即将来袭!鲍威尔阳痿了?但还没完,周五还有PCE数据!会是利好吗?谈谈Sol和XRP。
- 00:00:00DeepSeek APP上架18天之后
- 00:00:02便在全球160多个国家登顶
- 00:00:05日活跃用户数突破1,500万
- 00:00:08成了全球增速最快的AI应用
- 00:00:10并且在这个过程中
- 00:00:12它曾一度让美股市值
- 00:00:14一晚上蒸发超1万亿美金
- 00:00:17英伟达股价当日下跌16.97%
- 00:00:21能获得这个成就的原因只有一个
- 00:00:23那就是他们发布了一个免费
- 00:00:25且无比聪明的模型
- 00:00:27DeepSeek R1尤其是聪明这个特性
- 00:00:31它让大量的提示词技巧开始失效
- 00:00:34你只需要很简单的表述你的问题
- 00:00:37便能获得超出预期的回答
- 00:00:39如果回顾大语言模型发展历程的话
- 00:00:422025年1月20日DeepSeek R1的发布
- 00:00:45可能会是一个
- 00:00:47历史注定要记录的一个重要节点
- 00:00:492022年11月30日ChatGPT的发布
- 00:00:53让大模型进入了大众视野
- 00:00:55而两年后的DeepSeek R1
- 00:00:57则是让一个足够优秀的模型
- 00:01:00变得触手可及了
- 00:01:01作为一个在b站Youtuber做了一年多
- 00:01:04ChatGPT等AI产品教学
- 00:01:07教学视频播放量超400万的AI博主
- 00:01:11一方面我很高兴
- 00:01:12我原来教授的技巧成了无用的
- 00:01:14屠龙之术
- 00:01:15现在也有更多人
- 00:01:16可以更轻松的使用AI
- 00:01:18去辅助自己的工作
- 00:01:20学习和生活了
- 00:01:22另外一个方面
- 00:01:22经过我这几天
- 00:01:24每天5个小时以上的爆肝体验
- 00:01:26以及看了一些网友的测试之后
- 00:01:29我发现
- 00:01:30很多人对大语言模型依然怀着错误
- 00:01:33的认知和预期
- 00:01:35而这很可能会阻碍他使用R1的体验
- 00:01:39所以现在来说就是
- 00:01:40虽然很多人说就是有了R1之后
- 00:01:43不再需要任何提示词技巧了
- 00:01:47但...更接近实际的情况是
- 00:01:49我们确实不需要那么多的提示词技巧
- 00:01:52但是想要用好R1
- 00:01:55其实还有两点非常关键
- 00:01:57第一你需要理解
- 00:01:58大语言模型的工作原理和局限
- 00:02:01这能
- 00:02:01帮助你更好地知道
- 00:02:03AI可完成任务的边界
- 00:02:05第二就是在和R1合作时
- 00:02:08你最好有管理者的思维和经验
- 00:02:11你需要知道
- 00:02:12如何向R1
- 00:02:13这个聪明程度比你更高的下属
- 00:02:17去布置你的任务
- 00:02:18所以带着这样的预期
- 00:02:20我为你准备了19条
- 00:02:22帮助你更好使用DeepSeek R1的经验
- 00:02:24包括5个大语言模型的特点
- 00:02:277项与R1对话的技巧及7种验证无效
- 00:02:32你可以舍弃的那种提示策略
- 00:02:35在做任何深入的介绍之前
- 00:02:37如果你还没使用过DeepSeek的话
- 00:02:39我强烈建议你先去做一些尝试
- 00:02:42再回来看这个视频
- 00:02:44效果会更好一些
- 00:02:46你有两种官方使用的方式
- 00:02:48一种是直接访问DeepSeek的官网
- 00:02:51另一种的话
- 00:02:52就是你在AppStore或者安卓的应用商店
- 00:02:54去搜索DeepSeek
- 00:02:56去进行下载
- 00:02:57免费使用就好了
- 00:02:58然后在使用的时候
- 00:03:00嗯你需要注意
- 00:03:02就是在聊天输入框下方有两个选择
- 00:03:05分别是「深度思考R1」和「联网搜索」
- 00:03:09然后关于深度思考这个选项就是
- 00:03:12如果你需要一个更简单和快速的回答的话
- 00:03:15那你不必打开深度思考的模式
- 00:03:18使用它的默认模型V3就可以了
- 00:03:21然后当你需要完成更复杂的任务
- 00:03:23你希望AI输出的内容更结构化
- 00:03:27更深思熟虑的时候
- 00:03:28你应该打开深度思考R1的选项
- 00:03:31这也是我们今天这个视频
- 00:03:33在讨论的模型
- 00:03:35然后第二个就是关于联网搜索
- 00:03:37这几天的话
- 00:03:38DeepSeek可的联网搜索
- 00:03:39可能还处在就是不太能够使用的状态
- 00:03:43但当你发现它可以使用之后
- 00:03:47你需要的一个点是
- 00:03:49如果你的任务所涉及到的知识
- 00:03:51是在2023年12月之前的话
- 00:03:54那你其实不太有必要打开联网搜索
- 00:03:58的功能
- 00:03:58因为大模型本身就有在此之前的
- 00:04:02被充分训练过的那种语料知识了
- 00:04:05但是如果你所涉及的那个任务知识
- 00:04:08是在2023年12月以及之后的
- 00:04:12比方说你想了解昨天NBA比赛的赛果
- 00:04:15或者说想知道最近硅谷对
- 00:04:18DeepSeek R1的评价等等
- 00:04:19那你必须打开联网搜索功能
- 00:04:22否则大模型在回答时
- 00:04:23是会缺乏对应的这种知识的
- 00:04:25然后第一部分
- 00:04:27就是我们先来说说模型的一些特点
- 00:04:31就是在阐述任何技巧之前
- 00:04:33你最先需要知道的是
- 00:04:35DeepSeek的R1
- 00:04:37是个与你日常使用的对话类AI
- 00:04:39非常不同的模型
- 00:04:41像OpenAI的GPT4O
- 00:04:43DeepSeek的V3或者豆包等模型
- 00:04:46都属于指令模型
- 00:04:48也就是instruct model
- 00:04:49这类模型是专门设计
- 00:04:51用于遵循指令来生成内容
- 00:04:55或执行任务的
- 00:04:56而DeepSeek的R1则属于推理模型
- 00:04:59Reasoning model
- 00:05:00它是专注于逻辑推理问题解决的模型
- 00:05:03能够自主处理需要多步骤分析
- 00:05:06因果推断或者复杂决策的这种任务
- 00:05:09实际上还有一个非常知名的模型
- 00:05:11就是OpenAI的o1
- 00:05:13它也是推理模型
- 00:05:15但是
- 00:05:15你必须花20美元成为plus用户才能使用
- 00:05:20并且即使你成了Plus用户
- 00:05:22你每周也只有50次的使用权限
- 00:05:25如果你想要更多的使用权限的话
- 00:05:28那请你掏出200美金每月的费用
- 00:05:30也就是1,437元
- 00:05:33而DeepSeek R1现在是完全免费的
- 00:05:36从我实际的体验来说
- 00:05:37R1在大量的写作写代码的任务上
- 00:05:41甚至比o1要更强一些
- 00:05:44按理说
- 00:05:44就是R1是一个擅长数学推理
- 00:05:47编程竞赛的这种模型
- 00:05:51他在这些任务上擅长其实非常合理
- 00:05:54但是非常令人意外的是
- 00:05:55在有了这种超强的推理能力之后
- 00:05:59R1似乎在所有任务上都获得了质的飞跃
- 00:06:03涌现出了一些意料之外的技能
- 00:06:06在原本指令模型的时代
- 00:06:08AI的能力是受到很强的限制的
- 00:06:10你需要通过提示词的各类技巧
- 00:06:13才能激发模型更好的表现
- 00:06:15而对普通人来说
- 00:06:16学这些技巧实在是让人头大不已
- 00:06:20而在DeepSeek R1模型下
- 00:06:23你只需要清晰
- 00:06:24明确地表达你的需求就好了
- 00:06:27就像你拥有一个比你聪明得多的
- 00:06:29清北毕业的
- 00:06:30而且具有10年工作经验的下属
- 00:06:33你不需要一步步的套路他
- 00:06:35指导他的工作
- 00:06:36你只需要把所有他需要知道的信息
- 00:06:38告诉他
- 00:06:39然后将你的任务布置下去就可以了
- 00:06:43但是如何布置
- 00:06:44任务呢我觉得
- 00:06:45首先你得需要指导这个下属的特点
- 00:06:49所以
- 00:06:49我们先来了解一下大语言模型的本质
- 00:06:53的特征就是
- 00:06:54虽然像DeepSeek和R1这样的推理模型
- 00:06:56相比指令模型有了非常大的进步
- 00:07:00不需要那么多的技巧了
- 00:07:01但它依然本质是一个大型语言模型
- 00:07:04它依然存在语言模型的局限性
- 00:07:08所以理解它的特点
- 00:07:09将会帮助你更好地应用它
- 00:07:11特点一
- 00:07:12大模型在训练时是将内容TOKEN化的
- 00:07:15大模型所看到和理解的世界
- 00:07:18和你我是不一样的
- 00:07:20在理解模型行为之前
- 00:07:22我们需要了解它是如何学习的
- 00:07:25大型语言模型的预训练
- 00:07:27本质上是让模型建立文本
- 00:07:29片段之间的关联的规律
- 00:07:31为了实现这个目标
- 00:07:33所有训练的数据
- 00:07:34包括书籍网页对话记录等等
- 00:07:37都会经过特殊处理
- 00:07:39首先他们会将文本
- 00:07:40切割成称为TOKEN的基本单元
- 00:07:43就类似于文字的这种碎片
- 00:07:45然后会将这些TOKEN转化为数字编码
- 00:07:49这个过程就像把现实世界的语言
- 00:07:52翻译成只有模型能理解的这种密码本
- 00:07:56而在推理模型出来之前
- 00:07:57很多人非常喜欢用一个呃
- 00:08:00问题来考察大模型的这种智商
- 00:08:03就是Strawberry这个单词有几个字母r
- 00:08:07嗯很多时候就是指令模型
- 00:08:10会回答错误
- 00:08:11不是因为模型不够聪明
- 00:08:13而是他在被训练时的特点
- 00:08:16导致了这个结果
- 00:08:18比方说GPT3.5和GPT4在训练的时候
- 00:08:22词这个字被拆分成了两个TOKEN
- 00:08:26strawberry则被拆分成了三个TOKEN
- 00:08:29分别是str aw和Berry
- 00:08:32举这个例子是想告诉你
- 00:08:34就是大模型看到的世界
- 00:08:35和你看到的世界是不一样的
- 00:08:38当你在数字母时
- 00:08:39看到的是连续的这种字符流
- 00:08:42而模型看到的
- 00:08:43却是经过编码的那个TOKEN序列
- 00:08:46所以类似于数单词中的字母数量
- 00:08:50或者精确的要求
- 00:08:51大模型为你输出特定字数的内容
- 00:08:54都是有些强模型所难的
- 00:08:57他的机制决定了
- 00:08:58他不擅长处理这些任务
- 00:09:00当然现在
- 00:09:01推理模型
- 00:09:02可以完成我例子中的这些任务
- 00:09:05但是你看看推他的推理过程的话
- 00:09:08是不是觉得还是有一些费劲
- 00:09:10有一些于心不忍呢
- 00:09:11特点二
- 00:09:12就是大模型的知识是存在截止时间的
- 00:09:17虽然DeepSeekR1在2025年1月才正式发布
- 00:09:21但是它的基础模型的训练数据的窗口
- 00:09:24却是在很早之前就已经关闭了
- 00:09:27这其实有点像你要出版
- 00:09:30出版一本百科全书的话
- 00:09:32从资料收集到最终复印
- 00:09:34需要一个完整的生产周期
- 00:09:37具体来说的话
- 00:09:38对大模型来说
- 00:09:39它是有三重的这种时间壁垒
- 00:09:42第一个就是他预训练的阶段
- 00:09:44需要处理PB级别的原始数据
- 00:09:47而这种原始数据的清洗
- 00:09:50需要经过大量的工序
- 00:09:53会占用非常多的时间
- 00:09:54而且在训练完成之后
- 00:09:56他还要经过监督微调强化学习以及
- 00:10:00基于人类反馈的强化学习等等
- 00:10:03而这部分也是占据对应的时间的
- 00:10:06所以像DeepSeekR1
- 00:10:07他的知识库截止时间
- 00:10:09大概是2023年的10月到12月左右
- 00:10:12而这种时间的而这种知识的滞后性
- 00:10:16它其实会带来三个层面的
- 00:10:19这种认知局限
- 00:10:20就比方说有一个行业认知断带的问题
- 00:10:24模型训练完成之后出现的许多新事物
- 00:10:26就比方说GPT4O模型
- 00:10:28called 3.5 Sonic模型
- 00:10:30这些都是没有办法被DeepSeek
- 00:10:34R1自动识别和理解的
- 00:10:38然后另外就是训练之后
- 00:10:39发生的一些重大事件
- 00:10:41像最近2025年的春晚
- 00:10:43或者2024年的巴黎奥运会
- 00:10:45其实DeepSeek也不太了解这些事件
- 00:10:50所以嗯
- 00:10:52这些其实都是模型训练的特点导致的
- 00:10:54很多人拿类似的任务去问R1
- 00:10:57然后发现R1答非所问
- 00:10:59就轻易得出就是R1模型太差的结论
- 00:11:02这个其实是一个非常错误的思维
- 00:11:05然后如果你想突破这种知识限制的话
- 00:11:08其实也是可以的
- 00:11:10就第一个方式
- 00:11:10你可以去激活那个联网搜索的功能
- 00:11:13给R1提供
- 00:11:14就是他自主搜索和查找信息的权利
- 00:11:17第二个的话
- 00:11:18你可以自主去补充一些必要的知识
- 00:11:20就比方说上传文档
- 00:11:22或者说
- 00:11:23你在提示词里补充必要的这个信息
- 00:11:25再让R1去进行执行
- 00:11:28然后特点三的话
- 00:11:29就是大模型
- 00:11:30一般都是缺乏自我认知和自我意识的
- 00:11:34很多模型都是如此
- 00:11:35如果他自发有了自我意识的话
- 00:11:38那可能说明就是AGI临近
- 00:11:41我们需要有一些警惕了
- 00:11:43所以就是
- 00:11:45多数模型其实都不知道自己叫什
- 00:11:47么什么模型
- 00:11:47这是很正常的现象
- 00:11:49就除非大模型厂商在部署的时候
- 00:11:52在系统提示词里做了对应的设定
- 00:11:55或者说他们在预训练完成之后
- 00:11:57用的特定的语料去进行微调
- 00:12:00否则他都是不知道的
- 00:12:01就比方说
- 00:12:02在我现在展示的这个例子里
- 00:12:04ChatGPT的o1
- 00:12:05他也不知道
- 00:12:06自己是一个什么样的模型
- 00:12:08然后这种自我认知的那个缺乏的话
- 00:12:10其实会带来两个问题
- 00:12:12第一个问题是
- 00:12:13AI有时候会给出错误的自我认知
- 00:12:17就比方说DeepSeek还有很多别的模型
- 00:12:19他们经常会认为自己是ChatGPT
- 00:12:22这主要原因是因为
- 00:12:23ChatGPT在2022年底发布之后
- 00:12:26很多人把自己和ChatGPT的对话内容
- 00:12:29发布到了网上
- 00:12:30所以你在问一个模型你是谁的时候
- 00:12:33经常会出现对应的幻觉
- 00:12:35另外的话就是
- 00:12:36你也没法让DeepSeekR1来告诉你
- 00:12:38就是它自己有什么样的特点
- 00:12:40使用它有什么技巧等等
- 00:12:42这也是我就是依然要使用大量
- 00:12:47我自己的脑力算法
- 00:12:48去做这期视频的原因
- 00:12:50然后第四点的话
- 00:12:51就是大模型有记忆的限制
- 00:12:53就是多数模型
- 00:12:54它其实都是有上下文长度的
- 00:12:57这个限制的
- 00:12:57像DeepSeek和R1现在提供的上下文长度
- 00:13:01只有64K的token
- 00:13:02对应到中文字符的话
- 00:13:04大概是三四万字
- 00:13:06而这带来的问题是
- 00:13:07你没有办法一次投喂太长的文档给他
- 00:13:11就比方说你给他投喂一本红楼梦的话
- 00:13:14那你可以理解为
- 00:13:15他没有办法完整去读
- 00:13:17这本书的完整的内容
- 00:13:19而是在你对话的时候
- 00:13:20他会通过
- 00:13:21RAG也就是检索增强的方式
- 00:13:23去读取
- 00:13:24你给他提供的文档中的部分内容
- 00:13:27再进行回答
- 00:13:29所以
- 00:13:29他不是完整读你提供的所有资料的
- 00:13:33然后另外的话就是
- 00:13:35当你和他对话的轮次过多的时候
- 00:13:37他很可能会遗忘
- 00:13:39你们最初聊天的那部分内容
- 00:13:41这部分的限制
- 00:13:42在你开展AI写代码的任务的时候
- 00:13:45你的感受可能会尤其明显
- 00:13:47特点五
- 00:13:47就是相比上下文对话的输入长度
- 00:13:51大模型的输出长度呃会更短很多
- 00:13:55多数模型会将输出长度控制在4K
- 00:13:58或者8K也就是
- 00:13:59单次对话
- 00:14:00最多给你回答以 2,000-4,000个中文字符
- 00:14:05所以你有些任务没有办法去做
- 00:14:08就是你没有办法复制一篇万字的长文
- 00:14:11让DeepSeek去一次性完成翻译
- 00:14:13你也不能让DeepSeek
- 00:14:15一次性帮你写一篇5,000字以上的文章
- 00:14:18这些都是模型输出长度的限制导致的
- 00:14:21你需要理解这个问题的存在
- 00:14:23然后如果你要解决这个问题的话
- 00:14:26像长文翻译类的任务
- 00:14:28你可以通过多次复制
- 00:14:30或者你自己写代码去调用API
- 00:14:32多次执行的方式
- 00:14:34去帮你完成一篇长文
- 00:14:36甚至一本书的翻译
- 00:14:37而长文写作类的任务的话
- 00:14:39比较妥当的做法是
- 00:14:41你先让R1梳理框架列出提纲目录
- 00:14:45然后再根据目录
- 00:14:46去一次次
- 00:14:46分别生成不同阶段的这种内容
- 00:14:49接下来我们再来说说
- 00:14:51就是比较有效的R1使用技巧
- 00:14:54技巧一提出明确的要求
- 00:14:56能说清楚的信息
- 00:14:57不要让DeepSeek去猜
- 00:14:59DeepSeek虽然很聪明
- 00:15:01但它不是你肚子中的蛔虫
- 00:15:03你需要明确告
- 00:15:04诉DeepSeek需要他帮你做什么
- 00:15:06做到什么程度
- 00:15:07就比方说
- 00:15:08你复制一段英文文本给他的话
- 00:15:11你需要明确表达你的指令
- 00:15:13也就是需要他做什么
- 00:15:15否则
- 00:15:15dipstick并不会理解你想要做的东西
- 00:15:18到底是翻译总结还是要
- 00:15:21还是说你要学英语要让他给你出题呀
- 00:15:24这些信息都不要让阿one去猜
- 00:15:26又比如你想写一篇500字的公众号文章
- 00:15:29那你就明确表达你写的文章主题
- 00:15:32需要500字
- 00:15:33虽然我们前面提过了
- 00:15:34就是大模型并不擅长计算数字
- 00:15:37它大概率只会返回给你
- 00:15:40300-700之间长度的文章
- 00:15:43但这至少能大致符合你的篇幅的要求
- 00:15:46然后在我们的这个例子里
- 00:15:48我们让他写一个就是为服饰跨界
- 00:15:52跨境电商设计的
- 00:15:5330天新用户增长的计划
- 00:15:56然后我们希望突破的市场是哪里
- 00:15:58我们希望他方案中包含什么
- 00:16:00这个就会比
- 00:16:02仅仅让他写一个跨境电商平台方案
- 00:16:06这个要好很多
- 00:16:07第二点的话
- 00:16:07就是你可以要求特定的风格
- 00:16:12具有思维链的
- 00:16:13R1在进行特定风格的写作时
- 00:16:15相比其他模型
- 00:16:16我发现它已经出现了断层
- 00:16:19领先的水平
- 00:16:20就比方说
- 00:16:21你可以让R1用李白的风格去写诗
- 00:16:24按贴吧暴躁老哥的风格去骂人
- 00:16:27用鲁迅的文风进行讽刺
- 00:16:29或者模仿任意作家风格进行写作
- 00:16:31按脱口秀演员风格创作脱口秀脚本
- 00:16:34等等其他模型在这方面的表现
- 00:16:36都追不上R1的车尾
- 00:16:39在这个模式下
- 00:16:41有个很有效的表达方式
- 00:16:42是让R1说人话
- 00:16:44或者说让R1认为你是初中生
- 00:16:46他这样就能把复杂的概念
- 00:16:49简化为你更容易理解的这种解释
- 00:16:53又或者
- 00:16:53你完全可以去尝试特定风格的写作
- 00:16:56就比方说
- 00:16:57让他用半佛仙人的风格
- 00:17:00写一篇
- 00:17:00吐槽虎扑步行街用户的这个公众号
- 00:17:03文章
- 00:17:07R1甚至连表情包都帮我想好了
- 00:17:10技巧三提供充分的任务背景信息
- 00:17:13当你让DeepSeek帮你完成某项工作的时候
- 00:17:16提供充分的上下文背景信息
- 00:17:18告诉他你为什么要做这件事
- 00:17:20你面临的现实背景是什么
- 00:17:23或者问题是什么
- 00:17:24让DeepSeek可将其纳入
- 00:17:26所生成文本的思考中
- 00:17:28这可以让结果更符合你的需要
- 00:17:30就比方说
- 00:17:31你要DeepSeek可生
- 00:17:34帮你生成减肥计划的时候
- 00:17:36那你最好告诉他你的身体状况
- 00:17:38你目前的饮食摄入
- 00:17:40和运动情况是什么样的
- 00:17:41那他就能帮你生成一个
- 00:17:43更有针对性的计划
- 00:17:45技巧四主动标注自己的知识状态
- 00:17:48当你向DeepSeek寻求知识型的帮助时
- 00:17:51最好能明确标注自己
- 00:17:52相对应的知识状态
- 00:17:54就有点像老师备课前
- 00:17:56需要了解学生的那个能力水平
- 00:17:59然后
- 00:18:00清晰的这种知识坐标
- 00:18:01能让AI输出的内容
- 00:18:03更精确的匹配你的理解层次
- 00:18:06像我们前面提到了
- 00:18:07就是告诉R1我是初中生
- 00:18:09或者我是小学生
- 00:18:10是一个把自己放置在一个知识背景
- 00:18:13约等于0的知识状态的好方式
- 00:18:16但是当某些内容
- 00:18:17你希望能和AI深入探讨的时候
- 00:18:20那你最好能更清晰表达
- 00:18:22你在这个领域的知识状态
- 00:18:24或者你是否存在关联领域的知识
- 00:18:27这样能帮助AI更好的理解你
- 00:18:30为你提供更精确的回答
- 00:18:31技巧5:定义目标而非过程
- 00:18:34就是R1作为推理模型
- 00:18:36现在完成任务的思维过程
- 00:18:38是非常令人印象深刻的
- 00:18:40所以我很建议你提供清楚你的目标
- 00:18:42让R1具有一定的思考空间
- 00:18:45去帮助你执行
- 00:18:46执行的更好
- 00:18:47而非提供一个机械化的嗯执行指令
- 00:18:50你应该像产品经理提需求那样
- 00:18:53描述你想要什么
- 00:18:54而不是像程序员写代码那般
- 00:18:57就是规定怎么做
- 00:18:59就举个例子啊
- 00:18:59比方说你的产品评审会在开完之后
- 00:19:03你可能需要整理录音的文字稿
- 00:19:06一种做法是
- 00:19:07你可以直接要求R1
- 00:19:09去帮你进行文字稿的整理
- 00:19:12就比方说删掉语气词
- 00:19:14按时间分段
- 00:19:15每段加小标题等等
- 00:19:18这也是一个非常清晰明确的
- 00:19:20一个优质的提示语啊
- 00:19:21但是你同样可以进一步思考下
- 00:19:24就是这段录音文字稿所总结出的材料
- 00:19:27要如何用
- 00:19:28你去为R1提供目标
- 00:19:30让他创造性的帮助你去完成任务
- 00:19:33技巧六就是
- 00:19:34我们可以去提供AI不具备的知识背景
- 00:19:38我们在第二部分的时候就提到过了
- 00:19:40就是AI模型
- 00:19:41具有知识截止时间的那个特性
- 00:19:44当任务涉及到模型训练
- 00:19:46截止之后的新信息的话
- 00:19:48就以R1来说
- 00:19:49现在24年的一些赛事结果
- 00:19:51或者行业趋势
- 00:19:52他都是不具备的
- 00:19:53或者有些情况下
- 00:19:55你们公司可能有一些内部的信息
- 00:19:57是AI不知道的
- 00:19:59那么你就需要去帮R1
- 00:20:01拼上那块他缺失的那个拼图
- 00:20:04通过结构化的输入去帮助AI
- 00:20:07突破知识的限制
- 00:20:09避免让他因为信息的缺乏
- 00:20:12而出现这种错误的回答
- 00:20:14技巧七是从开放到收敛
- 00:20:17就是R1的思维链是全透明
- 00:20:19在你面前展开的
- 00:20:20我常常会觉得
- 00:20:22就是我从R1思考的过程中
- 00:20:24能收获的信息
- 00:20:26比他给我提供的结果还多
- 00:20:28尤其是他在展开思考你提的需求时
- 00:20:32会做一个可能性的预测
- 00:20:34有时在看这部分推测后
- 00:20:36你才会发现
- 00:20:37就是自己原来有些方面的信息
- 00:20:39你是没有考虑到的
- 00:20:41如果你把对应的信息
- 00:20:42补充的更完善的话
- 00:20:44那么就不需要R1再去猜了
- 00:20:46所以就是R1能这种情况下能为你
- 00:20:50提供更精确的更符合你需要的结果
- 00:20:52就比方说在下面的这个案例中
- 00:20:54R1在思考时
- 00:20:56为我们提供的三种不同的涨价方案
- 00:20:59就是分阶段的涨价
- 00:21:01增加产品价值
- 00:21:02以及通过营销活动转移注意力
- 00:21:04以及预测的
- 00:21:05我们可能具有的
- 00:21:06两种深深层次的这种需求
- 00:21:10保持市场的份额
- 00:21:12或者提升我们的品牌形象
- 00:21:15我们可以就是借此思考
- 00:21:17就是
- 00:21:17我们倾向的方法和目标究竟是什么
- 00:21:20对我们的提示词进行进一步的收敛
- 00:21:22那么接下来
- 00:21:23我们得到的结果就会更加的精准
- 00:21:26上面说完7个有用的
- 00:21:28R1提示词技巧之后
- 00:21:29我们再来说说一些无用的提示词技巧
- 00:21:32啊就是在使用R1的时候
- 00:21:34我发现就是下面的7个
- 00:21:36就是prompt策略
- 00:21:37其实已经记基本被验证是失效的
- 00:21:40甚至有时候
- 00:21:41会起一些反作用的效果
- 00:21:43你应该去避免
- 00:21:44第一个的话就是思维链的提示
- 00:21:46比方说要求模型一步步思考啊
- 00:21:48或者你主动去提供解答问题的那个
- 00:21:51思维的链路
- 00:21:52就这些都没有必要
- 00:21:53因为R1经过强化学习之后
- 00:21:56他其实已经能产生更好的思维链了
- 00:21:59第二个的话就是结构化提示词
- 00:22:01就这个还可以有
- 00:22:02但是没那么必要了
- 00:22:03就是你依然可以用Markdown格式的语句
- 00:22:07去让你的信息结构更清晰
- 00:22:10人类查看和机器阅读的时候更好理解
- 00:22:12但是因为你需要提示的内容少了
- 00:22:15所以必要性其实是不强的
- 00:22:17然后第三个的话
- 00:22:18就是去要求扮演专家角色
- 00:22:21这个的话
- 00:22:22其实已经变得完全没有必要了
- 00:22:24因为R1本身就是一个专家模型
- 00:22:27他会尝试专家思维
- 00:22:30所以你不需要让他去扮演所谓的专家
- 00:22:33第四个的话
- 00:22:34就是假装完成任务之后给奖励的
- 00:22:37这种小技巧也是无效的
- 00:22:39甚至会被R1认为是笑话
- 00:22:41所以我们就没必要再去骗AI了
- 00:22:44省得AI觉醒之后
- 00:22:46真的来找我们讨要那部分奖励
- 00:22:50呃第五个的话就是少势力提示
- 00:22:52FIA short这个也是没必要的
- 00:22:54而且dbseak的团队
- 00:22:56在发布R1技术报告的时候
- 00:22:58也明确提到了
- 00:23:00你应该规避这个提示词的技巧
- 00:23:03第六点的话就是角色扮演
- 00:23:05呃我之前的视频里很多人提到了
- 00:23:09就是能不能
- 00:23:10让R1去做各种各样的
- 00:23:12角色扮演的任务
- 00:23:14但我得告诉你
- 00:23:15他不太适合干这个事情
- 00:23:17呃我觉得
- 00:23:18很可能是因为
- 00:23:19这种情感化的对话都比较
- 00:23:22依赖直觉是反深思熟虑的
- 00:23:25而阿依每次都要进行深思熟虑
- 00:23:28就是他反馈的内容
- 00:23:30嗯我觉得还不如基础模型
- 00:23:34第七个就是对已知的概念进行解释
- 00:23:38很多人在原来写提示词的时候
- 00:23:40会解释自己想要的风格
- 00:23:43就比方说他想要一个鲁迅风格
- 00:23:45他会去描述鲁迅是有什么样的风格的
- 00:23:49这个其实完全没有必要
- 00:23:51就是R1非常理解
- 00:23:53这些知名的作家
- 00:23:55和知名人物的风格是什么样的
- 00:23:57以及他在思考的时候
- 00:23:59会进行更深入和更丰富的结构
- 00:24:03相比你写的内容有可能要好很多
- DeepSeek
- AI应用
- 用户增长
- 大语言模型
- 使用技巧
- DeepSeek R1
- 推理模型
- 提示词
- 成功案例
- 知识局限