北京大学两部 DeepSeek 秘籍新出炉!(附全集下载)
前几周共享来自清华的五部 DeepSeek 攻略之后,北大的肖睿团队也出品了两份 DeepSeek “内部秘籍”,这就赶忙来给咱们共享。
或许有的家友对什么是 DeepSeek?它有什么用?仍感到一头雾水。
就让咱们回归根底,从大言语模型的根底流程、才能鸿沟与适用场景看起。
对了,这次给咱们共享的 PDF 下载,是。原汁原味的原版哦。,网上有太多卖课者魔改的内置其广告版别。
一、从大模型根底讲起。
第一份秘籍。《DeepSeek 与 AIGC 运用》。,便是来为。没有专业的 AI 或 IT 技能布景。的咱们,回答 DeepSeek 是什么,有什么用的问题。
咱们常听到的 GPT 一词,其实便是生成式预练习变换器(Generative Pre-trained Transformer)的简写。
其根本作业流程是:
收到提示词。
将输入拆分为 token。
运用 Transformer 架构处理 token。
依据上下文。猜测。下一个 token。
依据概率分数挑选 token。
自回归:重复过程 4 和 5 ,直到构成完好的语句。
谈天对话机器人。
图画生成东西。
音频东西。
视频生成东西。
查找东西。
我要(做)XX,要给 XX 用,期望到达 XX 作用,但忧虑 XX 问题。
看到上面的作业流程后,咱们面临大模型“吐”出的成果时,也就不会感到奇怪了。
其优势在于,具有言语了解和生成才能、世界常识才能,以及必定的推理才能。
相对应而言,其下风便在于 AI 错觉、有限的常识库及上下文窗口约束。
了解完原理,咱们也就能让这些谈天机器人更好地为我所用。
二、拥抱 AIGC 的未来。
咱们在运用这些 AI 大模型东西的时分,需求留意其才能鸿沟的约束。
比方,GPT-3.5 与 GPT-4 的。上下文长度只要几千个字。
当需求接连处理长篇幅的文本时,咱们就需求运用。分段对话、定时总结、运用关键词提示及精简输入。的技巧,时刻重视大模型有没有遗失自己所重视的上下文。
在文本剖析范畴,它更拿手文本计算、摘要生成、分类与总结,而面临。常识更新、语境歧义、新颖和不知道类别。时,体现或许就没那么抱负。
相同,它的文本润饰才能,也体现在错别字辨认与批改、语法错误查看与批改、标点符号调整、词汇挑选优化、坚持写作风格等方面。
在面临。新词汇与表达、语境误判、不断更新的言语规矩。时,大模型也只能表明:“这我都没练习过啊!”。
三、。拥抱 AIGC 的未来。
了解完一些根底之后,咱们关于大模型精干什么,会有愈加深化的了解。
现在面向普通用户敞开商用的 AIGC 东西,首要有以下几个方向:
就以现在炽热的谈天机器人来看,DeepSeek-R1 的首要优势还在于。强壮的推理才能。,但其并不具有多模态的才能,无法直接处理图画、音频等信息。
而豆包则具有更拔尖的多模态才能,其语音情感交互才能更适合日常休闲对话。
比方当咱们想要制造 PPT 时,就能够。运用 DeepSeek R1 完结纲要规划,最终再来经过 Kimi 生成。
因为 AI 职业一日千里的开展,上面的列表随时都或许发生变化,咱们也需求依据自己的需求和方针,继续更新自己的 AI 东西列表。
四、。DeepSeek R1 提示词技巧。
来自北大的第二篇秘籍。《DeepSeek 提示词工程和落地场景》。,则更专心于 DeepSeek R1 运用过程中的提示词技巧。
作为一款 CoT 思想链(Chain-of-Thought)模型,咱们或许需求抛弃传统的提示词习气,能够直接“把 AI 当人看”:
此外,咱们还能够学会。“反向 PUA” DeepSeek。,让它经过自己的考虑逻辑,输出更好的成果。
这份文档中还给出了市场营销、公函写作、编程开发、数据剖析、会议纪要、学术研究等多范畴的的用法示例,等候咱们去发现。
微信大众号回复:AI。
即可获取北京大学原版秘籍,点此 或扫描 / 长按下方二维码皆可进入大众号,重视后发消息即可。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等方式),用于传递更多信息,节约甄选时刻,成果仅供参考,一切文章均包括本声明。
内容来源:https://a02.webvip.vn/app-1/gdcd 6 kết nối tri thức với cuộc sống,http://chatbotjud-teste.saude.mg.gov.br/app-1/wj-cassino-baixar
(责任编辑:新闻)