AI资讯新闻榜单内容搜索-GEM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: GEM
Gemini桌面客户端终于上线:直接读取屏幕上下文,帮你解读一切!

Gemini桌面客户端终于上线:直接读取屏幕上下文,帮你解读一切!

Gemini桌面客户端终于上线:直接读取屏幕上下文,帮你解读一切!

Gemini 终于推出桌面客户端了!除了能做网页端的一切,它的杀手锏是能捕捉屏幕上所有窗口,突破浏览器限制,把一切都装进模型上下文,帮你解读一切。

来自主题: AI资讯
8448 点击    2026-04-17 09:14
挤干大模型高分「水分」!最强模型仅49分,南大傅朝友发布Video-MME-v2

挤干大模型高分「水分」!最强模型仅49分,南大傅朝友发布Video-MME-v2

挤干大模型高分「水分」!最强模型仅49分,南大傅朝友发布Video-MME-v2

现有大模型评测分数日趋饱和,但与真实体验差距显著。南京大学傅朝友团队牵头,在 Google Gemini 评测团队邀约下推出视频理解新基准 Video-MME-v2。凭借创新的分层能力体系与组级非线性评分,以及 3300 + 人工时高质量标注,揭示模型与人类的巨大鸿沟(49 vs 90)、传统 Acc 指标虚高、以及 “Thinking” 并非总是增益等现象。

来自主题: AI技术研报
10075 点击    2026-04-13 15:01
南大团队直击大模型高分神话:人类90分,最强模型仅49分

南大团队直击大模型高分神话:人类90分,最强模型仅49分

南大团队直击大模型高分神话:人类90分,最强模型仅49分

现有大模型评测分数日趋饱和,但与真实体验差距显著。南京大学傅朝友团队牵头,在Google Gemini评测团队邀约下推出视频理解新基准Video-MME-v2。凭借创新的分层能力体系与组级非线性评分,以及3300+人工时高质量标注,揭示模型与人类的巨大鸿沟(49vs90)、传统Acc指标虚高、以及「Thinking」并非总是增益等现象。

来自主题: AI技术研报
7611 点击    2026-04-13 13:48
OpenClaw的风刮到了多模态生成,6B小模型超越Nano Banana 2!

OpenClaw的风刮到了多模态生成,6B小模型超越Nano Banana 2!

OpenClaw的风刮到了多模态生成,6B小模型超越Nano Banana 2!

近日,上海人工智能实验室联合南京大学、香港中文大学及上海交通大学,将OpenClaw的成功应用于多模态生成领域。他们提出GEMS(Agent-Native Multimodal Generation with Memory and Skills),激发小模型潜力,甚至让6B小模型在部分任务超越了Nano Banana 2。

来自主题: AI技术研报
7902 点击    2026-04-11 10:36
又一国产模型黑马出世,追平Gemini 2.5 Pro,空间编辑反超视频模型?

又一国产模型黑马出世,追平Gemini 2.5 Pro,空间编辑反超视频模型?

又一国产模型黑马出世,追平Gemini 2.5 Pro,空间编辑反超视频模型?

近日,京东开源图像模型JoyAI-Image-Edit,将空间智能纳入图像理解与编辑,让AI开始处理真实世界中的空间关系,让模型真正“理解空间,编辑空间”。简单解释,这是一个以空间智能为核心的图像生成与编辑模型,让 AI 真正“看懂”三维空间,从而让生成更合理、编辑更精准。

来自主题: AI资讯
8600 点击    2026-04-10 21:09
Google重磅整合:Gemini×NotebookLM知识库双向同步,正面硬刚ChatGPT Projects

Google重磅整合:Gemini×NotebookLM知识库双向同步,正面硬刚ChatGPT Projects

Google重磅整合:Gemini×NotebookLM知识库双向同步,正面硬刚ChatGPT Projects

Google放出重磅整合:Gemini正式上线「Notebooks」功能,与NotebookLM实现知识库双向同步——你在任意一端添加的资料,另一端自动出现。The Verge直言这是在硬刚ChatGPT Projects。Gemini团队成员Logan Kilpatrick发推官宣,4.4万人围观,近900人点赞。AI助手的「第二大脑」时代,来了。

来自主题: AI资讯
8321 点击    2026-04-10 10:29
Mac用户可以在oMLX中使用TurboQuant了,搭配Gemma-4-31B,谷歌全家桶实测很能打!

Mac用户可以在oMLX中使用TurboQuant了,搭配Gemma-4-31B,谷歌全家桶实测很能打!

Mac用户可以在oMLX中使用TurboQuant了,搭配Gemma-4-31B,谷歌全家桶实测很能打!

对本地部署玩家,尤其是Mac用户来说,长上下文推理最大的痛点往往不是“模型不够聪明”,而是稍微多用点上下文,统一内存就被撑爆了”,这一点在最近的Gemma-4 31B的部署中尤为明显,在同等上下文的情况,显存占用比Qwen3.5-27B高约一倍不止,直接劝退了不少人。但好消息是,谷歌近期提出的TurboQuant KV缓存量化算法,正是为了解决这个痛点而生。

来自主题: AI技术研报
7853 点击    2026-04-09 09:47