AI资讯新闻榜单内容搜索-Tokens

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Tokens
GPT-5.4据传下周上线!200万上下文窗口+持久化状态,告别频繁遗忘

GPT-5.4据传下周上线!200万上下文窗口+持久化状态,告别频繁遗忘

GPT-5.4据传下周上线!200万上下文窗口+持久化状态,告别频繁遗忘

OpenAI 意外泄露 GPT-5.4!新版凭 200 万 Tokens 与「状态化 AI」实现跨会话持久记忆,并支持全分辨率视觉直读。AI 将从聊天工具向「全自动代理」进化,彻底重塑工作流并引爆底层硬件内存之战。

来自主题: AI资讯
10310 点击    2026-03-03 10:56
重磅!阿里云Coding Plan全面上线Qwen3.5、GLM-5、MiniMax M2.5、Kimi K2.5

重磅!阿里云Coding Plan全面上线Qwen3.5、GLM-5、MiniMax M2.5、Kimi K2.5

重磅!阿里云Coding Plan全面上线Qwen3.5、GLM-5、MiniMax M2.5、Kimi K2.5

刚刚,阿里云Coding Plan订阅服务全面上线Qwen3.5、GLM-5、MiniMax M2.5、Kimi K2.5四大顶尖开源模型。用户订阅套餐后,可在Qwen Code、Claude Code、Cline、OpenClaw等AI工具上自由切换使用这些模型,享受更稳定、Tokens额度更高的模型服务。

来自主题: AI资讯
8715 点击    2026-02-27 11:18
扩散模型成最快深度思考!告别自回归每秒1009个tokens,英伟达微软都投了

扩散模型成最快深度思考!告别自回归每秒1009个tokens,英伟达微软都投了

扩散模型成最快深度思考!告别自回归每秒1009个tokens,英伟达微软都投了

前面已经说了,传统自回归就像打字机一样,一次只能处理一个token,且必须按照从左到右的顺序。但扩散模型Mercury 2的工作方式更像一位编辑——最终,Mercury 2能将生成速度提升5倍以上,且速度曲线截然不同。

来自主题: AI资讯
9843 点击    2026-02-26 12:26
只要1100美元tokens,一周重写 Next.js!

只要1100美元tokens,一周重写 Next.js!

只要1100美元tokens,一周重写 Next.js!

今天,Web 开发社区爆发了一条令人咋舌的技术新闻。Cloudflare 的一名工程师在一周之内,借助 AI 模型从头重建了 Next.js 。该公司的首席技术官 Dane Knecht 发推庆祝这一史诗级的成就,称之为「Next.js 的解放日」,Next.js 属于每个人。

来自主题: AI资讯
8036 点击    2026-02-26 12:17
5 亿 ARR的Cursor,已经没人讨论它了?

5 亿 ARR的Cursor,已经没人讨论它了?

5 亿 ARR的Cursor,已经没人讨论它了?

最近Cursor 发布了 Composer 1.5。这一版把强化学习规模扩大了 20 倍,后训练计算量甚至超过了基座模型的预训练投入。还加了 thinking tokens 和自我摘要机制,让模型能在复杂编程任务里做更深度的推理。

来自主题: AI资讯
9937 点击    2026-02-22 11:39
豆包有Seed,火山有种

豆包有Seed,火山有种

豆包有Seed,火山有种

结果今天就等到豆包全家族了。Seedance 2.0都把贾樟柯干Fomo了,现在又上了个最全面的多模态Agent模型,还有人管管字节吗?Seed团队跳动得停不下来了💃烧的全是火山引擎上的Tokens,同时火山引擎上已经有豆包2.0系列的API了。

来自主题: AI资讯
10099 点击    2026-02-15 21:53
Z Tech|ICLR 2026字节发布:从短句到篇章,DiscoX为长文翻译提供评测新范式

Z Tech|ICLR 2026字节发布:从短句到篇章,DiscoX为长文翻译提供评测新范式

Z Tech|ICLR 2026字节发布:从短句到篇章,DiscoX为长文翻译提供评测新范式

DiscoX构建了一套200题的长文翻译数据集,以平均长度1,712 tokens的长篇章做评测单元,要求整个长文文本作为一个整体来翻译,除翻译准确度外,重点考察跨段落的逻辑与风格一致性、上下文中的术语精确性、以及专业写作规范,贴合用户真实的使用场景。

来自主题: AI技术研报
10699 点击    2026-02-13 11:03
小众架构赢麻了!通过编辑功能 LLaDA2.1 让100B扩散模型飙出892 tokens/秒的速度!

小众架构赢麻了!通过编辑功能 LLaDA2.1 让100B扩散模型飙出892 tokens/秒的速度!

小众架构赢麻了!通过编辑功能 LLaDA2.1 让100B扩散模型飙出892 tokens/秒的速度!

谁能想到啊,在自回归模型(Autoregressive,AR)当道的现在,一个非主流架构的模型突然杀了回马枪——被长期视为学术玩具的扩散语言模型,直接在复杂编程任务中飙出了892 tokens/秒的速度!

来自主题: AI资讯
10682 点击    2026-02-11 10:47