通宵玩 DeepSeek,发现 3 个炸裂的隐藏点

DeepA
发布于 2025-02-22 / 11 阅读
0
0

通宵玩 DeepSeek,发现 3 个炸裂的隐藏点

昨晚趁着不卡,通宵玩 DeepSeek 一个晚上,R1推理模型是真的牛逼。 结合这些天的接触,分享一些收获和有意思的点。

一.跨领域概念迁移 DeepSeek有个强迫症,就是特别爱玩“类比”修辞。用术语来说就是:跨领域概念迁移。 啥意思?就是不同领域的概念喜欢杂糅在一起。什么文字基因,情感脉冲,思维毛边,认知毛刺诸如此类。 严重的时候,一篇文章写下来后,会形成大量术语或概念的堆砌,组合起来看就很莫名其妙。 解决办法很简单,提前跟AI说: 【不要滥用跨领域概念迁移,请说人话。】

二.情绪反应链的应用 DeepSeek R1是个推理模型,使用它的唯一基础原则就是: 抛弃所有条条框框的束缚,忘掉提示词。 你要做的就是把“价值为导向”的最终结果说出来。 当你想要写某某故事文,文章最终是要给读者看的,你希望读者得到的价值是什么? 无论什么价值,会发现最终都会导向“情绪价值”。 情绪是有反应链的,有画面感的,公式就是: 【情绪状态+后续动作】 比如:感动哭了,笑得狂拍大腿,气得直咬牙等等。 那么提问时就可以这么说了: 请帮我写一篇某某故事文,要感情真挚,让人看了感动哭了。 r1会根据要求逆推,测试下来,成文效果非常不错。 更进阶的问法,可以用我上篇笔记提到的4W万能提问公式。

三.本地化优势 DeepSeek其实还有个优势很少人说:本地化。 为什么要单拉出来说?相信从以前国外AI一路用过来的人就懂了。 国外AI对话模型都有个通病,就是对一些中国本地化的东西,它理解很不到位。 这就导致了自己得专门弄提示词,来提升AI理解的精准性。 比如国内自媒体平台的受众,发文对应的接地气标题,国外AI模型都把握得很差。 而到了DeepSeek R1这里就不一样了,你让AI写国内自媒体文章,人家甚至连文末合适的钩子都给你设计好了,而且适配度极高。 选题拓展出来的标题,也非常适合国内平台用,真的是越用越爽。

攻略来源:https://www.xiaohongshu.com/explore/679f6aca000000002902a9f1?xsec_token=ABmHiOIu2Cb_TZxK4ocCklm8nWEjQ9UnUqSt1uSn4o7gw=&xsec_source=pc_user


评论