AI资讯新闻榜单内容搜索-数据

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 数据
中国巨头的AI商业图谱

中国巨头的AI商业图谱

中国巨头的AI商业图谱

大模型的狂热已然退潮。当我们将目光从参数榜单转向真实的活跃数据,四家头部大厂的底层商业图谱已极度收敛。AI的竞争,早已变成一场基于算力成本与高频场景的残酷算账。

来自主题: AI技术研报
7860 点击    2026-03-31 09:49
ICRA 2026 | NUS邵林团队提出Goal-VLA:生成式大模型化身「世界模型」,实现零样本机器人操作

ICRA 2026 | NUS邵林团队提出Goal-VLA:生成式大模型化身「世界模型」,实现零样本机器人操作

ICRA 2026 | NUS邵林团队提出Goal-VLA:生成式大模型化身「世界模型」,实现零样本机器人操作

在具身智能领域,机器人操作的泛化能力一直是一个核心挑战。当前,视觉 - 语言 - 动作(VLA)模型主要分为两大范式:端到端模型与分层模型。端到端 VLA 模型(如 RT-2 [1], OpenVLA [2])严重依赖海量的 “指令 - 视觉 - 动作” 成对数据,获取成本极高,导致其在面对新任务或新场景时零样本泛化能力受限。

来自主题: AI技术研报
5949 点击    2026-03-30 15:00
Karpathy紧急叫停!别再喂数据了,曝AGI方向全错

Karpathy紧急叫停!别再喂数据了,曝AGI方向全错

Karpathy紧急叫停!别再喂数据了,曝AGI方向全错

Karpathy给一支平均年龄25岁的「叛军」站台,红杉和GV连眼都不眨就拍出1.8亿美金。这群人放话:要么把效率干得比人脑高10倍,要么看着AI把地球烧干!

来自主题: AI资讯
6167 点击    2026-03-30 09:57
打破代码大模型训练瓶颈:微软&剑桥&普林推出MicroCoder,算法、数据、框架、训练经验全面升级

打破代码大模型训练瓶颈:微软&剑桥&普林推出MicroCoder,算法、数据、框架、训练经验全面升级

打破代码大模型训练瓶颈:微软&剑桥&普林推出MicroCoder,算法、数据、框架、训练经验全面升级

新一代代码模型的训练动态已与旧模型截然不同,主流强化学习方法和数据集在其上几乎“失效”。

来自主题: AI技术研报
10027 点击    2026-03-30 09:29
独家 | 3个月融3轮,2026“物理AI”黑马诞生

独家 | 3个月融3轮,2026“物理AI”黑马诞生

独家 | 3个月融3轮,2026“物理AI”黑马诞生

就在行业仍为数据瓶颈焦虑时,一家名为深度机智(DeepCybo)的公司悄然浮出水面。投中网独家获悉,作为北京中关村学院与中关村人工智能研究院孵化的首家具身智能企业,它凭借独特的“人类第一视角”技术路线,在短短3周内吸引了超60家投资机构密集对接。

来自主题: AI资讯
8841 点击    2026-03-29 11:05
Claude Code auto mode 解析:如何用 AI 分类器替代人工审批

Claude Code auto mode 解析:如何用 AI 分类器替代人工审批

Claude Code auto mode 解析:如何用 AI 分类器替代人工审批

用 Claude Code 写代码的人都熟悉一个场景:Claude 每执行一个命令、每改一个文件,都要你点一次“同意”。Anthropic 的数据显示,用户 93% 的操作都会批准。也就是说,这个“安全审批”环节,绝大多数时候只是一个条件反射。

来自主题: AI技术研报
9220 点击    2026-03-26 16:52
刷榜多元时序预测,性能波动0%!打破CI/CD二元对立 | ICLR'26

刷榜多元时序预测,性能波动0%!打破CI/CD二元对立 | ICLR'26

刷榜多元时序预测,性能波动0%!打破CI/CD二元对立 | ICLR'26

ICLR'26新研究CPiRi打破时序预测僵局:用冻结底座提取时序特征,轻量模块专注学习通道间真实关系,不靠位置编码「背答案」。测试中通道乱序性能零波动,仅用25%数据即可泛化至全网络,真正实现鲁棒与精准双赢。

来自主题: AI技术研报
7190 点击    2026-03-26 10:50
「百万级」视频推理数据集!30+顶尖高校联合发布

「百万级」视频推理数据集!30+顶尖高校联合发布

「百万级」视频推理数据集!30+顶尖高校联合发布

AI视频生成已能「画得像」,但不会「想得对」。VBVR推出百万级视频推理数据集,首次系统评测模型对空间、物理、逻辑和抽象的推理能力,发现顶尖模型通过率仅68%,暴露其缺乏真实认知,推动视频AI从「视觉模仿」迈向「智能推理」。

来自主题: AI技术研报
6368 点击    2026-03-26 10:49
用SFT打出RL的效果?微软联合提出高效后训练算法

用SFT打出RL的效果?微软联合提出高效后训练算法

用SFT打出RL的效果?微软联合提出高效后训练算法

在大模型后训练阶段,监督微调(SFT)和强化学习(RL)是两根不可或缺的支柱。SFT 利用高质量的离线(Off-policy)数据快速注入知识,但受限于静态数据分布,泛化能力往往容易触及天花板并带来灾难性遗忘;RL 则允许模型在探索中不断自我迭代,产生与当前策略同分布(On-policy)的数据,上限极高,但往往伴随着训练极度不稳定、计算资源消耗巨大的痛点。

来自主题: AI技术研报
5484 点击    2026-03-26 10:47
MemoryLake让你养虾省91%词元!AI记忆公司质变科技用1亿个多模态文件验证了!

MemoryLake让你养虾省91%词元!AI记忆公司质变科技用1亿个多模态文件验证了!

MemoryLake让你养虾省91%词元!AI记忆公司质变科技用1亿个多模态文件验证了!

一家企业花了七周时间部署 AI:第 1 周精准回答行业分析问题,团队欢呼;第 3 周反复回答相同的错误结论,因为它“忘了”上周的修正;第 5 周在董事会汇报中引用了已被否定的数据,造成决策偏差;第 7 周项目暂停,“AI 不可信”成为共识。问题不在于 AI 不够聪明,而在于它每次醒来都是一张白纸。

来自主题: AI资讯
8161 点击    2026-03-25 14:18