AI资讯新闻榜单内容搜索-压缩

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 压缩
RAE+VAE? 预训练表征助力扩散模型Tokenizer,加速像素压缩到语义提取

RAE+VAE? 预训练表征助力扩散模型Tokenizer,加速像素压缩到语义提取

RAE+VAE? 预训练表征助力扩散模型Tokenizer,加速像素压缩到语义提取

近期,RAE(Diffusion Transformers with Representation Autoencoders)提出以「 冻结的预训练视觉表征」直接作为潜空间,以显著提升扩散模型的生成性能。

来自主题: AI技术研报
11339 点击    2025-11-14 10:21
跨层压缩隐藏状态同时加速TTFT和压缩KV cache!

跨层压缩隐藏状态同时加速TTFT和压缩KV cache!

跨层压缩隐藏状态同时加速TTFT和压缩KV cache!

我们都知道 LLM 中存在结构化稀疏性,但其底层机制一直缺乏统一的理论解释。为什么模型越深,稀疏性越明显?为什么会出现所谓的「检索头」和「检索层」?

来自主题: AI技术研报
9775 点击    2025-11-13 15:19
a16z对话Nano Banana团队:2亿次编辑背后的"工作流革命"

a16z对话Nano Banana团队:2亿次编辑背后的"工作流革命"

a16z对话Nano Banana团队:2亿次编辑背后的"工作流革命"

创意工作流的“奇点”已经到来。曾经耗费团队数周的角色设计、风格探索和分镜绘制,如今在Nano Banana中被压缩到几分钟。高度一致的角色、一键迁移的风格、拖拽完成的复杂编辑。

来自主题: AI资讯
7644 点击    2025-11-12 15:15
两周复刻DeepSeek-OCR!两人小团队还原低token高压缩核心,换完解码器更实用

两周复刻DeepSeek-OCR!两人小团队还原低token高压缩核心,换完解码器更实用

两周复刻DeepSeek-OCR!两人小团队还原低token高压缩核心,换完解码器更实用

两人小团队,仅用两周就复刻了之前被硅谷夸疯的DeepSeek-OCR?? 复刻版名叫DeepOCR,还原了原版低token高压缩的核心优势,还在关键任务上追上了原版的表现。完全开源,而且无需依赖大规模的算力集群,在两张H200上就能完成训练。

来自主题: AI资讯
8946 点击    2025-11-07 15:22
AI研究员田渊栋:“AI顿悟”的真相、大模型如何学会压缩世界|独家

AI研究员田渊栋:“AI顿悟”的真相、大模型如何学会压缩世界|独家

AI研究员田渊栋:“AI顿悟”的真相、大模型如何学会压缩世界|独家

Meta首席执行官马克·扎克伯格近日批准了一项涉及约600名员工的AI部门裁员计划,这是Meta今年在人工智能领域规模最大的一次调整,主要波及公司核心研发机构。在此消息公布后,田渊栋首次公开露面,接受了腾讯科技特约作者「课代表立正」的独家深度访谈。

来自主题: AI资讯
9008 点击    2025-11-03 09:42
腾讯发布SpecExit算法,无损压缩端到端加速2.5倍!解决大模型长思考效率难题

腾讯发布SpecExit算法,无损压缩端到端加速2.5倍!解决大模型长思考效率难题

腾讯发布SpecExit算法,无损压缩端到端加速2.5倍!解决大模型长思考效率难题

为破解大模型长思维链的效率难题,并且为了更好的端到端加速落地,我们将思考早停与投机采样无缝融合,提出了 SpecExit 方法,利用轻量级草稿模型预测 “退出信号”,在避免额外探测开销的同时将思维链长度缩短 66%,vLLM 上推理端到端加速 2.5 倍。

来自主题: AI技术研报
8570 点击    2025-10-24 16:53
文本已死,视觉当立!Karpathy狂赞DeepSeek新模型,终结分词器时代

文本已死,视觉当立!Karpathy狂赞DeepSeek新模型,终结分词器时代

文本已死,视觉当立!Karpathy狂赞DeepSeek新模型,终结分词器时代

AI新突破!DeepSeek-OCR以像素处理文本,压缩率小于1/10,基准测试领跑。开源一夜4.4k星,Karpathy技痒难耐,展望视觉输入的通用性。

来自主题: AI技术研报
7727 点击    2025-10-21 16:48