AI资讯新闻榜单内容搜索-DeepSeek

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: DeepSeek
世界引擎:Post-Training开启Physical AGI新纪元

世界引擎:Post-Training开启Physical AGI新纪元

世界引擎:Post-Training开启Physical AGI新纪元

一年前,DeepSeek R1 横空出世,人们才意识到,真正让模型产生推理能力质变的,不必是更大的预训练规模 —— 后训练,用强化学习、过程奖励、闭环反馈,以极低的代价解锁了原本需要数倍算力才能触达的能力边界。

来自主题: AI技术研报
6169 点击    2026-04-20 09:00
梁文锋,被曝融资20亿!

梁文锋,被曝融资20亿!

梁文锋,被曝融资20亿!

今日,据外媒The Information报道,DeepSeek正首次寻求外部融资,目标估值超过100亿美元(约合人民币681.8亿元)。据多位知情人士透露,DeepSeek已开始与投资人接触,计划融资至少3亿美元(约合人民币20.5亿元),以补充资金储备,应对AI大模型研发日益高昂的成本竞争。

来自主题: AI资讯
9720 点击    2026-04-18 07:30
DeepSeek核心研究员郭达雅,曝入职字节

DeepSeek核心研究员郭达雅,曝入职字节

DeepSeek核心研究员郭达雅,曝入职字节

刚刚,图灵联合创始人刘江在海外社交媒体X上透露,DeepSeek核心研究院——郭达雅已加入字节跳动。 郭达雅2023年博士毕业后加入DeepSeek,title是AI Researcher。公开论文显示,从 DeepSeek-Coder、DeepSeek-Math、DeepSeek-Prover、DeepSeek-V3到 DeepSeek-R1,他都出现在核心作者名单中。

来自主题: AI资讯
7956 点击    2026-04-16 08:00
月薪3万,去内蒙草原给DeepSeek守机房

月薪3万,去内蒙草原给DeepSeek守机房

月薪3万,去内蒙草原给DeepSeek守机房

月薪30K,去草原给DeepSeek运维机房。

来自主题: AI资讯
7202 点击    2026-04-14 15:46
DeepSeek,该卸下扫地僧的枷锁了

DeepSeek,该卸下扫地僧的枷锁了

DeepSeek,该卸下扫地僧的枷锁了

我每次翻《天龙八部》,翻到少林寺藏经阁那一段,都要停下来。

来自主题: AI资讯
7593 点击    2026-04-13 13:49
DeepSeek深夜更新后自曝:我是V4(?!)

DeepSeek深夜更新后自曝:我是V4(?!)

DeepSeek深夜更新后自曝:我是V4(?!)

不更是不更,一更就是个大动作,DeepSeek V4可能真的要来了!

来自主题: AI资讯
6115 点击    2026-04-08 17:33
北大团队改造DeepSeek注意力,速度快四倍还不丢精度

北大团队改造DeepSeek注意力,速度快四倍还不丢精度

北大团队改造DeepSeek注意力,速度快四倍还不丢精度

就在大家都急头白脸地等待DeepSeek-V4的时候,冷不丁一篇新论文引起了网友们的注意—— 提出新稀疏注意力机制HISA(分层索引稀疏注意力),突破64K上下文的索引瓶颈,相比DeepSeek正在用的DSA(DeepSeek Sparse Attention)提速2-4倍。

来自主题: AI技术研报
7153 点击    2026-04-07 10:30
搞懂“记忆”必看|吃透Engram,坐等Deepseek新模型

搞懂“记忆”必看|吃透Engram,坐等Deepseek新模型

搞懂“记忆”必看|吃透Engram,坐等Deepseek新模型

第一篇论文来自字节SEED团队, 打了一些基础; 《Over-Tokenized Transformer》。 论文标题看上去在讨论“过度分词”。 而重点必然是在第二篇上—— DeepSeek公司的学术成果Engram。 《Conditional Memory via Scalable Lookup》 也就是Engram模块所出处的论文。

来自主题: AI技术研报
9828 点击    2026-03-31 10:30
早于DeepSeek Engram!用「查表」重置Transformer记忆 | ICLR

早于DeepSeek Engram!用「查表」重置Transformer记忆 | ICLR

早于DeepSeek Engram!用「查表」重置Transformer记忆 | ICLR

ICLR论文STEM架构率先提出「查表式记忆」架构,早于DeepSeek Engram三个月。它将Transformer的FFN从动态计算改为静态查表,用token索引的embedding表直接读取记忆,彻底解耦记忆容量与计算开销。

来自主题: AI技术研报
8179 点击    2026-03-31 10:04