AI资讯新闻榜单内容搜索-LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLM
连Karpathy都怕了!9千万级AI包被投毒,竟靠黑客写出bug救命

连Karpathy都怕了!9千万级AI包被投毒,竟靠黑客写出bug救命

连Karpathy都怕了!9千万级AI包被投毒,竟靠黑客写出bug救命

一次只持续了不到1小时的投毒事件,撕开了AI基础设施「信任链」的致命裂缝。更魔幻的是,全行业逃过一劫,居然靠黑客自己写出bug。

来自主题: AI资讯
9487 点击    2026-03-26 14:45
东方理工团队提出HiDrop:重构MLLM计算路径,压缩90%视觉Token实现2.2倍加速

东方理工团队提出HiDrop:重构MLLM计算路径,压缩90%视觉Token实现2.2倍加速

东方理工团队提出HiDrop:重构MLLM计算路径,压缩90%视觉Token实现2.2倍加速

随着多模态大语言模型(MLLM)支持更长上下文,高分辨率图像和长视频会产生远多于文本的视觉 Token,在自注意力二次复杂度下迅速成为效率瓶颈。

来自主题: AI技术研报
9132 点击    2026-03-24 10:13
扩散语言模型总是均匀发力,华为诺亚教它「抓重点」

扩散语言模型总是均匀发力,华为诺亚教它「抓重点」

扩散语言模型总是均匀发力,华为诺亚教它「抓重点」

这两年,扩散语言模型(Diffusion LLM)一直是个很有讨论度的方向。

来自主题: AI技术研报
6002 点击    2026-03-23 09:51
比现有框架快22倍,浙大开源EasySteer:高性能LLM Steering统一框架

比现有框架快22倍,浙大开源EasySteer:高性能LLM Steering统一框架

比现有框架快22倍,浙大开源EasySteer:高性能LLM Steering统一框架

在此背景下,浙江大学研究团队提出了 EasySteer——一个基于 vLLM 构建的高性能、可扩展 LLM Steering 统一框架。该框架通过与 vLLM 推理引擎的深度集成,相比现有 Steering 框架实现了 10.8-22.3 倍的推理加速,同时提供更细粒度的干预控制,并为八大应用场景提供了预计算 Steering 向量与完整复现示例,方便研究者快速上手和对照复现。

来自主题: AI技术研报
7675 点击    2026-03-22 09:35
卡帕西点赞Transformer内置计算机!每秒3万Token吞吐,拿下世界最难数独

卡帕西点赞Transformer内置计算机!每秒3万Token吞吐,拿下世界最难数独

卡帕西点赞Transformer内置计算机!每秒3万Token吞吐,拿下世界最难数独

LLM推理已经顶尖,精确计算却跟不上。这局怎么破?卡帕西点赞的解决方法来了,在大模型内部构建一台原生计算机。新方法不搞外包那一套(不依赖任何外部工具),直接在Transformer权重里内嵌可执行程序。

来自主题: AI技术研报
8404 点击    2026-03-18 10:28
以「图」破局,HyperOffload定义超节点存储管理新范式

以「图」破局,HyperOffload定义超节点存储管理新范式

以「图」破局,HyperOffload定义超节点存储管理新范式

随着生成式 AI 迈入万亿参数时代,大语言模型(LLM)的推理与部署面临着前所未有的“显存墙”挑战。如何在超节点(SuperNode)复杂的异构存储架构下,实现海量张量的高效管理和调度,已成为大模型落地的胜负手。

来自主题: AI技术研报
9885 点击    2026-03-18 09:30