新年逼自己一把,学会使用DeepSeek R1

00:24:06
https://www.youtube.com/watch?v=k2vHqdM8UUA

Zusammenfassung

TLDRDeepSeek APP在发布后迅速在160个国家取得成功,日活跃用户超1500万,备受瞩目。其智能模型DeepSeek R1以简化的使用方式使得用户无需复杂提示即可获得满意的结果。视频指出用户需理解大语言模型的局限性,并提供了19条使用技巧,包括明确要求、提供背景信息及管理知识状态。强调不要再使用过时的提示词技巧,并指出DeepSeek R1在多个领域表现出色。

Mitbringsel

  • 🌟 DeepSeek APP迅速登顶全球160国
  • 🚀 日活跃用户超1500万
  • 🧠 R1模型使用简单,减少提示词依赖
  • 📚 理解大语言模型的局限性
  • 💡 提供充分的任务背景信息
  • 🛑 避免使用过时的提示词技巧
  • 🏆 适合多领域的复杂任务
  • 🔍 需管理者思维与经验
  • 🔗 联网搜索功能的使用时机
  • ✨ R1在推理与决策上表现优异

Zeitleiste

  • 00:00:00 - 00:05:00

    DeepSeek APP在全球上架后迅速取得成功,覆盖160多个国家,日活跃用户超1500万,并成为全球增速最快的AI应用。其影响力引起市场波动,曾导致美股市值蒸发超过1万亿美元。关键成就源自其发布的DeepSeek R1模型,通过简化用户对提示词的需求,令用户能以更直观的方式获得优质回答,标志着AI应用的新阶段。

  • 00:05:00 - 00:10:00

    DeepSeek R1作为推理模型,与传统执行指令的AI有所不同;它能够自主进行逻辑推理与多步骤分析,适合复杂任务。相较于需要付费的竞争产品,DeepSeek R1免费且功能强大。即使具备超强的推理能力,R1在多种任务中表现出色,带来了显著提升,使使用者只需明确需求而非复杂提示。这种简化使更多用户能够利用AI,推动AI应用的普及。

  • 00:10:00 - 00:15:00

    要充分利用DeepSeek R1,用户需理解其局限性与运作原理,并具备一定的管理思维。在与R1交互时,需要明晰任务、提供背景信息、定义目标等,以便R1能够生成更符合需求的内容。了解R1的输出限制和知识截止时间,能够帮助用户更精确地运用该模型,进一步提升操作效率和效果。

  • 00:15:00 - 00:24:06

    在总结提示技巧时,需注意R1的特性,避免无效的提示策略。有效的策略包括明确要求、提供背景信息、设定目标等。同时需要避开某些过时的提示技巧,如思维链提示和角色扮演。用户应适应R1的逻辑方式,使得与之交互变得更加高效,最终实现理想的成果。

Mehr anzeigen

Mind Map

Video-Fragen und Antworten

  • DeepSeek APP是什么?

    DeepSeek APP是一款全球流行的AI应用,拥有智能模型DeepSeek R1。

  • DeepSeek R1的特点是什么?

    DeepSeek R1是推理模型,专注于逻辑推理和复杂决策,使用简单表述即可得到高质量回答。

  • 如何有效使用DeepSeek R1?

    使用时明确要求、提供充分背景信息、标注自己的知识状态等都是有效的策略。

  • DeepSeek R1的局限性有哪些?

    包括知识截止时间、缺乏自我认知、上下文记忆限制等。

  • 有什么提示词技巧需要避免?

    避免过于复杂的思维链提示、角色扮演和解释已知概念等。

Weitere Video-Zusammenfassungen anzeigen

Erhalten Sie sofortigen Zugang zu kostenlosen YouTube-Videozusammenfassungen, die von AI unterstützt werden!
Untertitel
zh
Automatisches Blättern:
  • 00:00:00
    DeepSeek APP上架18天之后
  • 00:00:02
    便在全球160多个国家登顶
  • 00:00:05
    日活跃用户数突破1,500万
  • 00:00:08
    成了全球增速最快的AI应用
  • 00:00:10
    并且在这个过程中
  • 00:00:12
    它曾一度让美股市值
  • 00:00:14
    一晚上蒸发超1万亿美金
  • 00:00:17
    英伟达股价当日下跌16.97%
  • 00:00:21
    能获得这个成就的原因只有一个
  • 00:00:23
    那就是他们发布了一个免费
  • 00:00:25
    且无比聪明的模型
  • 00:00:27
    DeepSeek R1尤其是聪明这个特性
  • 00:00:31
    它让大量的提示词技巧开始失效
  • 00:00:34
    你只需要很简单的表述你的问题
  • 00:00:37
    便能获得超出预期的回答
  • 00:00:39
    如果回顾大语言模型发展历程的话
  • 00:00:42
    2025年1月20日DeepSeek R1的发布
  • 00:00:45
    可能会是一个
  • 00:00:47
    历史注定要记录的一个重要节点
  • 00:00:49
    2022年11月30日ChatGPT的发布
  • 00:00:53
    让大模型进入了大众视野
  • 00:00:55
    而两年后的DeepSeek R1
  • 00:00:57
    则是让一个足够优秀的模型
  • 00:01:00
    变得触手可及了
  • 00:01:01
    作为一个在b站Youtuber做了一年多
  • 00:01:04
    ChatGPT等AI产品教学
  • 00:01:07
    教学视频播放量超400万的AI博主
  • 00:01:11
    一方面我很高兴
  • 00:01:12
    我原来教授的技巧成了无用的
  • 00:01:14
    屠龙之术
  • 00:01:15
    现在也有更多人
  • 00:01:16
    可以更轻松的使用AI
  • 00:01:18
    去辅助自己的工作
  • 00:01:20
    学习和生活了
  • 00:01:22
    另外一个方面
  • 00:01:22
    经过我这几天
  • 00:01:24
    每天5个小时以上的爆肝体验
  • 00:01:26
    以及看了一些网友的测试之后
  • 00:01:29
    我发现
  • 00:01:30
    很多人对大语言模型依然怀着错误
  • 00:01:33
    的认知和预期
  • 00:01:35
    而这很可能会阻碍他使用R1的体验
  • 00:01:39
    所以现在来说就是
  • 00:01:40
    虽然很多人说就是有了R1之后
  • 00:01:43
    不再需要任何提示词技巧了
  • 00:01:47
    但...更接近实际的情况是
  • 00:01:49
    我们确实不需要那么多的提示词技巧
  • 00:01:52
    但是想要用好R1
  • 00:01:55
    其实还有两点非常关键
  • 00:01:57
    第一你需要理解
  • 00:01:58
    大语言模型的工作原理和局限
  • 00:02:01
    这能
  • 00:02:01
    帮助你更好地知道
  • 00:02:03
    AI可完成任务的边界
  • 00:02:05
    第二就是在和R1合作时
  • 00:02:08
    你最好有管理者的思维和经验
  • 00:02:11
    你需要知道
  • 00:02:12
    如何向R1
  • 00:02:13
    这个聪明程度比你更高的下属
  • 00:02:17
    去布置你的任务
  • 00:02:18
    所以带着这样的预期
  • 00:02:20
    我为你准备了19条
  • 00:02:22
    帮助你更好使用DeepSeek R1的经验
  • 00:02:24
    包括5个大语言模型的特点
  • 00:02:27
    7项与R1对话的技巧及7种验证无效
  • 00:02:32
    你可以舍弃的那种提示策略
  • 00:02:35
    在做任何深入的介绍之前
  • 00:02:37
    如果你还没使用过DeepSeek的话
  • 00:02:39
    我强烈建议你先去做一些尝试
  • 00:02:42
    再回来看这个视频
  • 00:02:44
    效果会更好一些
  • 00:02:46
    你有两种官方使用的方式
  • 00:02:48
    一种是直接访问DeepSeek的官网
  • 00:02:51
    另一种的话
  • 00:02:52
    就是你在AppStore或者安卓的应用商店
  • 00:02:54
    去搜索DeepSeek
  • 00:02:56
    去进行下载
  • 00:02:57
    免费使用就好了
  • 00:02:58
    然后在使用的时候
  • 00:03:00
    嗯你需要注意
  • 00:03:02
    就是在聊天输入框下方有两个选择
  • 00:03:05
    分别是「深度思考R1」和「联网搜索」
  • 00:03:09
    然后关于深度思考这个选项就是
  • 00:03:12
    如果你需要一个更简单和快速的回答的话
  • 00:03:15
    那你不必打开深度思考的模式
  • 00:03:18
    使用它的默认模型V3就可以了
  • 00:03:21
    然后当你需要完成更复杂的任务
  • 00:03:23
    你希望AI输出的内容更结构化
  • 00:03:27
    更深思熟虑的时候
  • 00:03:28
    你应该打开深度思考R1的选项
  • 00:03:31
    这也是我们今天这个视频
  • 00:03:33
    在讨论的模型
  • 00:03:35
    然后第二个就是关于联网搜索
  • 00:03:37
    这几天的话
  • 00:03:38
    DeepSeek可的联网搜索
  • 00:03:39
    可能还处在就是不太能够使用的状态
  • 00:03:43
    但当你发现它可以使用之后
  • 00:03:47
    你需要的一个点是
  • 00:03:49
    如果你的任务所涉及到的知识
  • 00:03:51
    是在2023年12月之前的话
  • 00:03:54
    那你其实不太有必要打开联网搜索
  • 00:03:58
    的功能
  • 00:03:58
    因为大模型本身就有在此之前的
  • 00:04:02
    被充分训练过的那种语料知识了
  • 00:04:05
    但是如果你所涉及的那个任务知识
  • 00:04:08
    是在2023年12月以及之后的
  • 00:04:12
    比方说你想了解昨天NBA比赛的赛果
  • 00:04:15
    或者说想知道最近硅谷对
  • 00:04:18
    DeepSeek R1的评价等等
  • 00:04:19
    那你必须打开联网搜索功能
  • 00:04:22
    否则大模型在回答时
  • 00:04:23
    是会缺乏对应的这种知识的
  • 00:04:25
    然后第一部分
  • 00:04:27
    就是我们先来说说模型的一些特点
  • 00:04:31
    就是在阐述任何技巧之前
  • 00:04:33
    你最先需要知道的是
  • 00:04:35
    DeepSeek的R1
  • 00:04:37
    是个与你日常使用的对话类AI
  • 00:04:39
    非常不同的模型
  • 00:04:41
    像OpenAI的GPT4O
  • 00:04:43
    DeepSeek的V3或者豆包等模型
  • 00:04:46
    都属于指令模型
  • 00:04:48
    也就是instruct model
  • 00:04:49
    这类模型是专门设计
  • 00:04:51
    用于遵循指令来生成内容
  • 00:04:55
    或执行任务的
  • 00:04:56
    而DeepSeek的R1则属于推理模型
  • 00:04:59
    Reasoning model
  • 00:05:00
    它是专注于逻辑推理问题解决的模型
  • 00:05:03
    能够自主处理需要多步骤分析
  • 00:05:06
    因果推断或者复杂决策的这种任务
  • 00:05:09
    实际上还有一个非常知名的模型
  • 00:05:11
    就是OpenAI的o1
  • 00:05:13
    它也是推理模型
  • 00:05:15
    但是
  • 00:05:15
    你必须花20美元成为plus用户才能使用
  • 00:05:20
    并且即使你成了Plus用户
  • 00:05:22
    你每周也只有50次的使用权限
  • 00:05:25
    如果你想要更多的使用权限的话
  • 00:05:28
    那请你掏出200美金每月的费用
  • 00:05:30
    也就是1,437元
  • 00:05:33
    而DeepSeek R1现在是完全免费的
  • 00:05:36
    从我实际的体验来说
  • 00:05:37
    R1在大量的写作写代码的任务上
  • 00:05:41
    甚至比o1要更强一些
  • 00:05:44
    按理说
  • 00:05:44
    就是R1是一个擅长数学推理
  • 00:05:47
    编程竞赛的这种模型
  • 00:05:51
    他在这些任务上擅长其实非常合理
  • 00:05:54
    但是非常令人意外的是
  • 00:05:55
    在有了这种超强的推理能力之后
  • 00:05:59
    R1似乎在所有任务上都获得了质的飞跃
  • 00:06:03
    涌现出了一些意料之外的技能
  • 00:06:06
    在原本指令模型的时代
  • 00:06:08
    AI的能力是受到很强的限制的
  • 00:06:10
    你需要通过提示词的各类技巧
  • 00:06:13
    才能激发模型更好的表现
  • 00:06:15
    而对普通人来说
  • 00:06:16
    学这些技巧实在是让人头大不已
  • 00:06:20
    而在DeepSeek R1模型下
  • 00:06:23
    你只需要清晰
  • 00:06:24
    明确地表达你的需求就好了
  • 00:06:27
    就像你拥有一个比你聪明得多的
  • 00:06:29
    清北毕业的
  • 00:06:30
    而且具有10年工作经验的下属
  • 00:06:33
    你不需要一步步的套路他
  • 00:06:35
    指导他的工作
  • 00:06:36
    你只需要把所有他需要知道的信息
  • 00:06:38
    告诉他
  • 00:06:39
    然后将你的任务布置下去就可以了
  • 00:06:43
    但是如何布置
  • 00:06:44
    任务呢我觉得
  • 00:06:45
    首先你得需要指导这个下属的特点
  • 00:06:49
    所以
  • 00:06:49
    我们先来了解一下大语言模型的本质
  • 00:06:53
    的特征就是
  • 00:06:54
    虽然像DeepSeek和R1这样的推理模型
  • 00:06:56
    相比指令模型有了非常大的进步
  • 00:07:00
    不需要那么多的技巧了
  • 00:07:01
    但它依然本质是一个大型语言模型
  • 00:07:04
    它依然存在语言模型的局限性
  • 00:07:08
    所以理解它的特点
  • 00:07:09
    将会帮助你更好地应用它
  • 00:07:11
    特点一
  • 00:07:12
    大模型在训练时是将内容TOKEN化的
  • 00:07:15
    大模型所看到和理解的世界
  • 00:07:18
    和你我是不一样的
  • 00:07:20
    在理解模型行为之前
  • 00:07:22
    我们需要了解它是如何学习的
  • 00:07:25
    大型语言模型的预训练
  • 00:07:27
    本质上是让模型建立文本
  • 00:07:29
    片段之间的关联的规律
  • 00:07:31
    为了实现这个目标
  • 00:07:33
    所有训练的数据
  • 00:07:34
    包括书籍网页对话记录等等
  • 00:07:37
    都会经过特殊处理
  • 00:07:39
    首先他们会将文本
  • 00:07:40
    切割成称为TOKEN的基本单元
  • 00:07:43
    就类似于文字的这种碎片
  • 00:07:45
    然后会将这些TOKEN转化为数字编码
  • 00:07:49
    这个过程就像把现实世界的语言
  • 00:07:52
    翻译成只有模型能理解的这种密码本
  • 00:07:56
    而在推理模型出来之前
  • 00:07:57
    很多人非常喜欢用一个呃
  • 00:08:00
    问题来考察大模型的这种智商
  • 00:08:03
    就是Strawberry这个单词有几个字母r
  • 00:08:07
    嗯很多时候就是指令模型
  • 00:08:10
    会回答错误
  • 00:08:11
    不是因为模型不够聪明
  • 00:08:13
    而是他在被训练时的特点
  • 00:08:16
    导致了这个结果
  • 00:08:18
    比方说GPT3.5和GPT4在训练的时候
  • 00:08:22
    词这个字被拆分成了两个TOKEN
  • 00:08:26
    strawberry则被拆分成了三个TOKEN
  • 00:08:29
    分别是str aw和Berry
  • 00:08:32
    举这个例子是想告诉你
  • 00:08:34
    就是大模型看到的世界
  • 00:08:35
    和你看到的世界是不一样的
  • 00:08:38
    当你在数字母时
  • 00:08:39
    看到的是连续的这种字符流
  • 00:08:42
    而模型看到的
  • 00:08:43
    却是经过编码的那个TOKEN序列
  • 00:08:46
    所以类似于数单词中的字母数量
  • 00:08:50
    或者精确的要求
  • 00:08:51
    大模型为你输出特定字数的内容
  • 00:08:54
    都是有些强模型所难的
  • 00:08:57
    他的机制决定了
  • 00:08:58
    他不擅长处理这些任务
  • 00:09:00
    当然现在
  • 00:09:01
    推理模型
  • 00:09:02
    可以完成我例子中的这些任务
  • 00:09:05
    但是你看看推他的推理过程的话
  • 00:09:08
    是不是觉得还是有一些费劲
  • 00:09:10
    有一些于心不忍呢
  • 00:09:11
    特点二
  • 00:09:12
    就是大模型的知识是存在截止时间的
  • 00:09:17
    虽然DeepSeekR1在2025年1月才正式发布
  • 00:09:21
    但是它的基础模型的训练数据的窗口
  • 00:09:24
    却是在很早之前就已经关闭了
  • 00:09:27
    这其实有点像你要出版
  • 00:09:30
    出版一本百科全书的话
  • 00:09:32
    从资料收集到最终复印
  • 00:09:34
    需要一个完整的生产周期
  • 00:09:37
    具体来说的话
  • 00:09:38
    对大模型来说
  • 00:09:39
    它是有三重的这种时间壁垒
  • 00:09:42
    第一个就是他预训练的阶段
  • 00:09:44
    需要处理PB级别的原始数据
  • 00:09:47
    而这种原始数据的清洗
  • 00:09:50
    需要经过大量的工序
  • 00:09:53
    会占用非常多的时间
  • 00:09:54
    而且在训练完成之后
  • 00:09:56
    他还要经过监督微调强化学习以及
  • 00:10:00
    基于人类反馈的强化学习等等
  • 00:10:03
    而这部分也是占据对应的时间的
  • 00:10:06
    所以像DeepSeekR1
  • 00:10:07
    他的知识库截止时间
  • 00:10:09
    大概是2023年的10月到12月左右
  • 00:10:12
    而这种时间的而这种知识的滞后性
  • 00:10:16
    它其实会带来三个层面的
  • 00:10:19
    这种认知局限
  • 00:10:20
    就比方说有一个行业认知断带的问题
  • 00:10:24
    模型训练完成之后出现的许多新事物
  • 00:10:26
    就比方说GPT4O模型
  • 00:10:28
    called 3.5 Sonic模型
  • 00:10:30
    这些都是没有办法被DeepSeek
  • 00:10:34
    R1自动识别和理解的
  • 00:10:38
    然后另外就是训练之后
  • 00:10:39
    发生的一些重大事件
  • 00:10:41
    像最近2025年的春晚
  • 00:10:43
    或者2024年的巴黎奥运会
  • 00:10:45
    其实DeepSeek也不太了解这些事件
  • 00:10:50
    所以嗯
  • 00:10:52
    这些其实都是模型训练的特点导致的
  • 00:10:54
    很多人拿类似的任务去问R1
  • 00:10:57
    然后发现R1答非所问
  • 00:10:59
    就轻易得出就是R1模型太差的结论
  • 00:11:02
    这个其实是一个非常错误的思维
  • 00:11:05
    然后如果你想突破这种知识限制的话
  • 00:11:08
    其实也是可以的
  • 00:11:10
    就第一个方式
  • 00:11:10
    你可以去激活那个联网搜索的功能
  • 00:11:13
    给R1提供
  • 00:11:14
    就是他自主搜索和查找信息的权利
  • 00:11:17
    第二个的话
  • 00:11:18
    你可以自主去补充一些必要的知识
  • 00:11:20
    就比方说上传文档
  • 00:11:22
    或者说
  • 00:11:23
    你在提示词里补充必要的这个信息
  • 00:11:25
    再让R1去进行执行
  • 00:11:28
    然后特点三的话
  • 00:11:29
    就是大模型
  • 00:11:30
    一般都是缺乏自我认知和自我意识的
  • 00:11:34
    很多模型都是如此
  • 00:11:35
    如果他自发有了自我意识的话
  • 00:11:38
    那可能说明就是AGI临近
  • 00:11:41
    我们需要有一些警惕了
  • 00:11:43
    所以就是
  • 00:11:45
    多数模型其实都不知道自己叫什
  • 00:11:47
    么什么模型
  • 00:11:47
    这是很正常的现象
  • 00:11:49
    就除非大模型厂商在部署的时候
  • 00:11:52
    在系统提示词里做了对应的设定
  • 00:11:55
    或者说他们在预训练完成之后
  • 00:11:57
    用的特定的语料去进行微调
  • 00:12:00
    否则他都是不知道的
  • 00:12:01
    就比方说
  • 00:12:02
    在我现在展示的这个例子里
  • 00:12:04
    ChatGPT的o1
  • 00:12:05
    他也不知道
  • 00:12:06
    自己是一个什么样的模型
  • 00:12:08
    然后这种自我认知的那个缺乏的话
  • 00:12:10
    其实会带来两个问题
  • 00:12:12
    第一个问题是
  • 00:12:13
    AI有时候会给出错误的自我认知
  • 00:12:17
    就比方说DeepSeek还有很多别的模型
  • 00:12:19
    他们经常会认为自己是ChatGPT
  • 00:12:22
    这主要原因是因为
  • 00:12:23
    ChatGPT在2022年底发布之后
  • 00:12:26
    很多人把自己和ChatGPT的对话内容
  • 00:12:29
    发布到了网上
  • 00:12:30
    所以你在问一个模型你是谁的时候
  • 00:12:33
    经常会出现对应的幻觉
  • 00:12:35
    另外的话就是
  • 00:12:36
    你也没法让DeepSeekR1来告诉你
  • 00:12:38
    就是它自己有什么样的特点
  • 00:12:40
    使用它有什么技巧等等
  • 00:12:42
    这也是我就是依然要使用大量
  • 00:12:47
    我自己的脑力算法
  • 00:12:48
    去做这期视频的原因
  • 00:12:50
    然后第四点的话
  • 00:12:51
    就是大模型有记忆的限制
  • 00:12:53
    就是多数模型
  • 00:12:54
    它其实都是有上下文长度的
  • 00:12:57
    这个限制的
  • 00:12:57
    像DeepSeek和R1现在提供的上下文长度
  • 00:13:01
    只有64K的token
  • 00:13:02
    对应到中文字符的话
  • 00:13:04
    大概是三四万字
  • 00:13:06
    而这带来的问题是
  • 00:13:07
    你没有办法一次投喂太长的文档给他
  • 00:13:11
    就比方说你给他投喂一本红楼梦的话
  • 00:13:14
    那你可以理解为
  • 00:13:15
    他没有办法完整去读
  • 00:13:17
    这本书的完整的内容
  • 00:13:19
    而是在你对话的时候
  • 00:13:20
    他会通过
  • 00:13:21
    RAG也就是检索增强的方式
  • 00:13:23
    去读取
  • 00:13:24
    你给他提供的文档中的部分内容
  • 00:13:27
    再进行回答
  • 00:13:29
    所以
  • 00:13:29
    他不是完整读你提供的所有资料的
  • 00:13:33
    然后另外的话就是
  • 00:13:35
    当你和他对话的轮次过多的时候
  • 00:13:37
    他很可能会遗忘
  • 00:13:39
    你们最初聊天的那部分内容
  • 00:13:41
    这部分的限制
  • 00:13:42
    在你开展AI写代码的任务的时候
  • 00:13:45
    你的感受可能会尤其明显
  • 00:13:47
    特点五
  • 00:13:47
    就是相比上下文对话的输入长度
  • 00:13:51
    大模型的输出长度呃会更短很多
  • 00:13:55
    多数模型会将输出长度控制在4K
  • 00:13:58
    或者8K也就是
  • 00:13:59
    单次对话
  • 00:14:00
    最多给你回答以 2,000-4,000个中文字符
  • 00:14:05
    所以你有些任务没有办法去做
  • 00:14:08
    就是你没有办法复制一篇万字的长文
  • 00:14:11
    让DeepSeek去一次性完成翻译
  • 00:14:13
    你也不能让DeepSeek
  • 00:14:15
    一次性帮你写一篇5,000字以上的文章
  • 00:14:18
    这些都是模型输出长度的限制导致的
  • 00:14:21
    你需要理解这个问题的存在
  • 00:14:23
    然后如果你要解决这个问题的话
  • 00:14:26
    像长文翻译类的任务
  • 00:14:28
    你可以通过多次复制
  • 00:14:30
    或者你自己写代码去调用API
  • 00:14:32
    多次执行的方式
  • 00:14:34
    去帮你完成一篇长文
  • 00:14:36
    甚至一本书的翻译
  • 00:14:37
    而长文写作类的任务的话
  • 00:14:39
    比较妥当的做法是
  • 00:14:41
    你先让R1梳理框架列出提纲目录
  • 00:14:45
    然后再根据目录
  • 00:14:46
    去一次次
  • 00:14:46
    分别生成不同阶段的这种内容
  • 00:14:49
    接下来我们再来说说
  • 00:14:51
    就是比较有效的R1使用技巧
  • 00:14:54
    技巧一提出明确的要求
  • 00:14:56
    能说清楚的信息
  • 00:14:57
    不要让DeepSeek去猜
  • 00:14:59
    DeepSeek虽然很聪明
  • 00:15:01
    但它不是你肚子中的蛔虫
  • 00:15:03
    你需要明确告
  • 00:15:04
    诉DeepSeek需要他帮你做什么
  • 00:15:06
    做到什么程度
  • 00:15:07
    就比方说
  • 00:15:08
    你复制一段英文文本给他的话
  • 00:15:11
    你需要明确表达你的指令
  • 00:15:13
    也就是需要他做什么
  • 00:15:15
    否则
  • 00:15:15
    dipstick并不会理解你想要做的东西
  • 00:15:18
    到底是翻译总结还是要
  • 00:15:21
    还是说你要学英语要让他给你出题呀
  • 00:15:24
    这些信息都不要让阿one去猜
  • 00:15:26
    又比如你想写一篇500字的公众号文章
  • 00:15:29
    那你就明确表达你写的文章主题
  • 00:15:32
    需要500字
  • 00:15:33
    虽然我们前面提过了
  • 00:15:34
    就是大模型并不擅长计算数字
  • 00:15:37
    它大概率只会返回给你
  • 00:15:40
    300-700之间长度的文章
  • 00:15:43
    但这至少能大致符合你的篇幅的要求
  • 00:15:46
    然后在我们的这个例子里
  • 00:15:48
    我们让他写一个就是为服饰跨界
  • 00:15:52
    跨境电商设计的
  • 00:15:53
    30天新用户增长的计划
  • 00:15:56
    然后我们希望突破的市场是哪里
  • 00:15:58
    我们希望他方案中包含什么
  • 00:16:00
    这个就会比
  • 00:16:02
    仅仅让他写一个跨境电商平台方案
  • 00:16:06
    这个要好很多
  • 00:16:07
    第二点的话
  • 00:16:07
    就是你可以要求特定的风格
  • 00:16:12
    具有思维链的
  • 00:16:13
    R1在进行特定风格的写作时
  • 00:16:15
    相比其他模型
  • 00:16:16
    我发现它已经出现了断层
  • 00:16:19
    领先的水平
  • 00:16:20
    就比方说
  • 00:16:21
    你可以让R1用李白的风格去写诗
  • 00:16:24
    按贴吧暴躁老哥的风格去骂人
  • 00:16:27
    用鲁迅的文风进行讽刺
  • 00:16:29
    或者模仿任意作家风格进行写作
  • 00:16:31
    按脱口秀演员风格创作脱口秀脚本
  • 00:16:34
    等等其他模型在这方面的表现
  • 00:16:36
    都追不上R1的车尾
  • 00:16:39
    在这个模式下
  • 00:16:41
    有个很有效的表达方式
  • 00:16:42
    是让R1说人话
  • 00:16:44
    或者说让R1认为你是初中生
  • 00:16:46
    他这样就能把复杂的概念
  • 00:16:49
    简化为你更容易理解的这种解释
  • 00:16:53
    又或者
  • 00:16:53
    你完全可以去尝试特定风格的写作
  • 00:16:56
    就比方说
  • 00:16:57
    让他用半佛仙人的风格
  • 00:17:00
    写一篇
  • 00:17:00
    吐槽虎扑步行街用户的这个公众号
  • 00:17:03
    文章
  • 00:17:07
    R1甚至连表情包都帮我想好了
  • 00:17:10
    技巧三提供充分的任务背景信息
  • 00:17:13
    当你让DeepSeek帮你完成某项工作的时候
  • 00:17:16
    提供充分的上下文背景信息
  • 00:17:18
    告诉他你为什么要做这件事
  • 00:17:20
    你面临的现实背景是什么
  • 00:17:23
    或者问题是什么
  • 00:17:24
    让DeepSeek可将其纳入
  • 00:17:26
    所生成文本的思考中
  • 00:17:28
    这可以让结果更符合你的需要
  • 00:17:30
    就比方说
  • 00:17:31
    你要DeepSeek可生
  • 00:17:34
    帮你生成减肥计划的时候
  • 00:17:36
    那你最好告诉他你的身体状况
  • 00:17:38
    你目前的饮食摄入
  • 00:17:40
    和运动情况是什么样的
  • 00:17:41
    那他就能帮你生成一个
  • 00:17:43
    更有针对性的计划
  • 00:17:45
    技巧四主动标注自己的知识状态
  • 00:17:48
    当你向DeepSeek寻求知识型的帮助时
  • 00:17:51
    最好能明确标注自己
  • 00:17:52
    相对应的知识状态
  • 00:17:54
    就有点像老师备课前
  • 00:17:56
    需要了解学生的那个能力水平
  • 00:17:59
    然后
  • 00:18:00
    清晰的这种知识坐标
  • 00:18:01
    能让AI输出的内容
  • 00:18:03
    更精确的匹配你的理解层次
  • 00:18:06
    像我们前面提到了
  • 00:18:07
    就是告诉R1我是初中生
  • 00:18:09
    或者我是小学生
  • 00:18:10
    是一个把自己放置在一个知识背景
  • 00:18:13
    约等于0的知识状态的好方式
  • 00:18:16
    但是当某些内容
  • 00:18:17
    你希望能和AI深入探讨的时候
  • 00:18:20
    那你最好能更清晰表达
  • 00:18:22
    你在这个领域的知识状态
  • 00:18:24
    或者你是否存在关联领域的知识
  • 00:18:27
    这样能帮助AI更好的理解你
  • 00:18:30
    为你提供更精确的回答
  • 00:18:31
    技巧5:定义目标而非过程
  • 00:18:34
    就是R1作为推理模型
  • 00:18:36
    现在完成任务的思维过程
  • 00:18:38
    是非常令人印象深刻的
  • 00:18:40
    所以我很建议你提供清楚你的目标
  • 00:18:42
    让R1具有一定的思考空间
  • 00:18:45
    去帮助你执行
  • 00:18:46
    执行的更好
  • 00:18:47
    而非提供一个机械化的嗯执行指令
  • 00:18:50
    你应该像产品经理提需求那样
  • 00:18:53
    描述你想要什么
  • 00:18:54
    而不是像程序员写代码那般
  • 00:18:57
    就是规定怎么做
  • 00:18:59
    就举个例子啊
  • 00:18:59
    比方说你的产品评审会在开完之后
  • 00:19:03
    你可能需要整理录音的文字稿
  • 00:19:06
    一种做法是
  • 00:19:07
    你可以直接要求R1
  • 00:19:09
    去帮你进行文字稿的整理
  • 00:19:12
    就比方说删掉语气词
  • 00:19:14
    按时间分段
  • 00:19:15
    每段加小标题等等
  • 00:19:18
    这也是一个非常清晰明确的
  • 00:19:20
    一个优质的提示语啊
  • 00:19:21
    但是你同样可以进一步思考下
  • 00:19:24
    就是这段录音文字稿所总结出的材料
  • 00:19:27
    要如何用
  • 00:19:28
    你去为R1提供目标
  • 00:19:30
    让他创造性的帮助你去完成任务
  • 00:19:33
    技巧六就是
  • 00:19:34
    我们可以去提供AI不具备的知识背景
  • 00:19:38
    我们在第二部分的时候就提到过了
  • 00:19:40
    就是AI模型
  • 00:19:41
    具有知识截止时间的那个特性
  • 00:19:44
    当任务涉及到模型训练
  • 00:19:46
    截止之后的新信息的话
  • 00:19:48
    就以R1来说
  • 00:19:49
    现在24年的一些赛事结果
  • 00:19:51
    或者行业趋势
  • 00:19:52
    他都是不具备的
  • 00:19:53
    或者有些情况下
  • 00:19:55
    你们公司可能有一些内部的信息
  • 00:19:57
    是AI不知道的
  • 00:19:59
    那么你就需要去帮R1
  • 00:20:01
    拼上那块他缺失的那个拼图
  • 00:20:04
    通过结构化的输入去帮助AI
  • 00:20:07
    突破知识的限制
  • 00:20:09
    避免让他因为信息的缺乏
  • 00:20:12
    而出现这种错误的回答
  • 00:20:14
    技巧七是从开放到收敛
  • 00:20:17
    就是R1的思维链是全透明
  • 00:20:19
    在你面前展开的
  • 00:20:20
    我常常会觉得
  • 00:20:22
    就是我从R1思考的过程中
  • 00:20:24
    能收获的信息
  • 00:20:26
    比他给我提供的结果还多
  • 00:20:28
    尤其是他在展开思考你提的需求时
  • 00:20:32
    会做一个可能性的预测
  • 00:20:34
    有时在看这部分推测后
  • 00:20:36
    你才会发现
  • 00:20:37
    就是自己原来有些方面的信息
  • 00:20:39
    你是没有考虑到的
  • 00:20:41
    如果你把对应的信息
  • 00:20:42
    补充的更完善的话
  • 00:20:44
    那么就不需要R1再去猜了
  • 00:20:46
    所以就是R1能这种情况下能为你
  • 00:20:50
    提供更精确的更符合你需要的结果
  • 00:20:52
    就比方说在下面的这个案例中
  • 00:20:54
    R1在思考时
  • 00:20:56
    为我们提供的三种不同的涨价方案
  • 00:20:59
    就是分阶段的涨价
  • 00:21:01
    增加产品价值
  • 00:21:02
    以及通过营销活动转移注意力
  • 00:21:04
    以及预测的
  • 00:21:05
    我们可能具有的
  • 00:21:06
    两种深深层次的这种需求
  • 00:21:10
    保持市场的份额
  • 00:21:12
    或者提升我们的品牌形象
  • 00:21:15
    我们可以就是借此思考
  • 00:21:17
    就是
  • 00:21:17
    我们倾向的方法和目标究竟是什么
  • 00:21:20
    对我们的提示词进行进一步的收敛
  • 00:21:22
    那么接下来
  • 00:21:23
    我们得到的结果就会更加的精准
  • 00:21:26
    上面说完7个有用的
  • 00:21:28
    R1提示词技巧之后
  • 00:21:29
    我们再来说说一些无用的提示词技巧
  • 00:21:32
    啊就是在使用R1的时候
  • 00:21:34
    我发现就是下面的7个
  • 00:21:36
    就是prompt策略
  • 00:21:37
    其实已经记基本被验证是失效的
  • 00:21:40
    甚至有时候
  • 00:21:41
    会起一些反作用的效果
  • 00:21:43
    你应该去避免
  • 00:21:44
    第一个的话就是思维链的提示
  • 00:21:46
    比方说要求模型一步步思考啊
  • 00:21:48
    或者你主动去提供解答问题的那个
  • 00:21:51
    思维的链路
  • 00:21:52
    就这些都没有必要
  • 00:21:53
    因为R1经过强化学习之后
  • 00:21:56
    他其实已经能产生更好的思维链了
  • 00:21:59
    第二个的话就是结构化提示词
  • 00:22:01
    就这个还可以有
  • 00:22:02
    但是没那么必要了
  • 00:22:03
    就是你依然可以用Markdown格式的语句
  • 00:22:07
    去让你的信息结构更清晰
  • 00:22:10
    人类查看和机器阅读的时候更好理解
  • 00:22:12
    但是因为你需要提示的内容少了
  • 00:22:15
    所以必要性其实是不强的
  • 00:22:17
    然后第三个的话
  • 00:22:18
    就是去要求扮演专家角色
  • 00:22:21
    这个的话
  • 00:22:22
    其实已经变得完全没有必要了
  • 00:22:24
    因为R1本身就是一个专家模型
  • 00:22:27
    他会尝试专家思维
  • 00:22:30
    所以你不需要让他去扮演所谓的专家
  • 00:22:33
    第四个的话
  • 00:22:34
    就是假装完成任务之后给奖励的
  • 00:22:37
    这种小技巧也是无效的
  • 00:22:39
    甚至会被R1认为是笑话
  • 00:22:41
    所以我们就没必要再去骗AI了
  • 00:22:44
    省得AI觉醒之后
  • 00:22:46
    真的来找我们讨要那部分奖励
  • 00:22:50
    呃第五个的话就是少势力提示
  • 00:22:52
    FIA short这个也是没必要的
  • 00:22:54
    而且dbseak的团队
  • 00:22:56
    在发布R1技术报告的时候
  • 00:22:58
    也明确提到了
  • 00:23:00
    你应该规避这个提示词的技巧
  • 00:23:03
    第六点的话就是角色扮演
  • 00:23:05
    呃我之前的视频里很多人提到了
  • 00:23:09
    就是能不能
  • 00:23:10
    让R1去做各种各样的
  • 00:23:12
    角色扮演的任务
  • 00:23:14
    但我得告诉你
  • 00:23:15
    他不太适合干这个事情
  • 00:23:17
    呃我觉得
  • 00:23:18
    很可能是因为
  • 00:23:19
    这种情感化的对话都比较
  • 00:23:22
    依赖直觉是反深思熟虑的
  • 00:23:25
    而阿依每次都要进行深思熟虑
  • 00:23:28
    就是他反馈的内容
  • 00:23:30
    嗯我觉得还不如基础模型
  • 00:23:34
    第七个就是对已知的概念进行解释
  • 00:23:38
    很多人在原来写提示词的时候
  • 00:23:40
    会解释自己想要的风格
  • 00:23:43
    就比方说他想要一个鲁迅风格
  • 00:23:45
    他会去描述鲁迅是有什么样的风格的
  • 00:23:49
    这个其实完全没有必要
  • 00:23:51
    就是R1非常理解
  • 00:23:53
    这些知名的作家
  • 00:23:55
    和知名人物的风格是什么样的
  • 00:23:57
    以及他在思考的时候
  • 00:23:59
    会进行更深入和更丰富的结构
  • 00:24:03
    相比你写的内容有可能要好很多
Tags
  • DeepSeek
  • AI应用
  • 用户增长
  • 大语言模型
  • 使用技巧
  • DeepSeek R1
  • 推理模型
  • 提示词
  • 成功案例
  • 知识局限