AI资讯新闻榜单内容搜索-压缩

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 压缩
世界模型挑战赛,单项奖金10000美元!英伟达全新分词器助力下一帧预测

世界模型挑战赛,单项奖金10000美元!英伟达全新分词器助力下一帧预测

世界模型挑战赛,单项奖金10000美元!英伟达全新分词器助力下一帧预测

近日,人形机器人公司1X公布了世界模型挑战赛的二阶段:Sampling。一同登场的还有合作伙伴英伟达新发布的Cosmos视频分词器,超高质量和压缩率助力构建虚拟世界。

来自主题: AI资讯
8105 点击    2024-11-25 15:33
Dario Amodei:Scaling Law 还没遇到上限

Dario Amodei:Scaling Law 还没遇到上限

Dario Amodei:Scaling Law 还没遇到上限

Powerful AI 预计会在 2026 年实现,足够强大的 AI 也能够将把一个世纪的科研进展压缩到 5-10 年实现(“Compressed 21st Century”),在他和 Lex Fridman 的最新对谈中,Dario 具体解释了自己对于 Powerful AI 可能带来的机会的理解,以及 scaling law、RL、Compute Use 等模型训练和产品的细节进行了分享

来自主题: AI资讯
9653 点击    2024-11-22 10:06
大模型压缩KV缓存新突破,中科大提出自适应预算分配,工业界已落地vLLM框架

大模型压缩KV缓存新突破,中科大提出自适应预算分配,工业界已落地vLLM框架

大模型压缩KV缓存新突破,中科大提出自适应预算分配,工业界已落地vLLM框架

改进KV缓存压缩,大模型推理显存瓶颈迎来新突破—— 中科大研究团队提出Ada-KV,通过自适应预算分配算法来优化KV缓存的驱逐过程,以提高推理效率。

来自主题: AI技术研报
5287 点击    2024-11-02 19:10
深度|Anthropic CEO:强大的AI将在21世纪为我们带来什么?

深度|Anthropic CEO:强大的AI将在21世纪为我们带来什么?

深度|Anthropic CEO:强大的AI将在21世纪为我们带来什么?

Anthropic CEO Dario Amodei 预测,凭借强大的AI的力量,生物学和医学将加速进步,在未来5-10年内实现原本需要50-100年的成果。他称这一现象为“压缩的21世纪”,即AI能够让人类在几年内取得整整一个世纪的生物医学成就。

来自主题: AI资讯
8075 点击    2024-10-29 12:53
它来了,剑桥最新LLM提示词压缩调查报告

它来了,剑桥最新LLM提示词压缩调查报告

它来了,剑桥最新LLM提示词压缩调查报告

别说Prompt压缩不重要,你可以不在乎Token成本,但总要考虑内存和LLM响应时间吧?一个显著的问题逐渐浮出水面:随着任务复杂度增加,提示词(Prompt)往往需要变得更长,以容纳更多详细需求、上下文信息和示例。这不仅降低了推理速度,还会增加内存开销,影响用户体验。

来自主题: AI资讯
10641 点击    2024-10-29 12:28
大模型引领6G革命!最新综述探索「未来通信方式」:九大方向,覆盖多模态、RAG等

大模型引领6G革命!最新综述探索「未来通信方式」:九大方向,覆盖多模态、RAG等

大模型引领6G革命!最新综述探索「未来通信方式」:九大方向,覆盖多模态、RAG等

大语言模型(LLM)正在推动通信行业向智能化转型,在自动生成网络配置、优化网络管理和预测网络流量等方面展现出巨大潜力。未来,LLM在电信领域的应用将需要克服数据集构建、模型部署和提示工程等挑战,并探索多模态集成、增强机器学习算法和经济高效的模型压缩技术。

来自主题: AI技术研报
5643 点击    2024-10-18 13:40
腾讯混元大模型负责人王迪:揭秘万亿 MoE 系统工程之道|智者访谈

腾讯混元大模型负责人王迪:揭秘万亿 MoE 系统工程之道|智者访谈

腾讯混元大模型负责人王迪:揭秘万亿 MoE 系统工程之道|智者访谈

人工智能正经历一场由大模型引发的革命。这些拥有数十亿甚至万亿参数的庞然大物,正在重塑我们对 AI 能力的认知,也构筑起充满挑战与机遇的技术迷宫——从计算集群高速互联网络的搭建,到训练过程中模型稳定性和鲁棒性的提升,再到探索更快更优的压缩与加速方法,每一步都是对创新者的考验。

来自主题: AI资讯
12140 点击    2024-08-21 14:13
2B多模态新SOTA!华科、华南理工发布Mini-Monkey,专治「切分增大分辨率」后遗症

2B多模态新SOTA!华科、华南理工发布Mini-Monkey,专治「切分增大分辨率」后遗症

2B多模态新SOTA!华科、华南理工发布Mini-Monkey,专治「切分增大分辨率」后遗症

Mini-Monkey 是一个轻量级的多模态大型语言模型,通过采用多尺度自适应切分策略(MSAC)和尺度压缩机制(SCM),有效缓解了传统图像切分策略带来的锯齿效应,提升了模型在高分辨率图像处理和文档理解任务的性能。它在多项基准测试中取得了领先的成绩,证明了其在多模态理解和文档智能领域的潜力。

来自主题: AI技术研报
5532 点击    2024-08-12 17:18
70倍极致压缩!大模型的检查点再多也不怕

70倍极致压缩!大模型的检查点再多也不怕

70倍极致压缩!大模型的检查点再多也不怕

大模型作为当下 AI 工业界和学术界当之无愧的「流量之王」,吸引了大批学者和企业投入资源去研究与训练。随着规模越做越大,系统和工程问题已经成了大模型训练中绕不开的难题。例如在 Llama3.1 54 天的训练里,系统会崩溃 466 次,平均 2.78 小时一次!

来自主题: AI技术研报
9849 点击    2024-08-05 14:04