AI资讯新闻榜单内容搜索-华为

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 华为
华为哈勃,出手具身智能

华为哈勃,出手具身智能

华为哈勃,出手具身智能

华为哈勃首次投资机器人公司千寻智能,5月将发新Demo。

来自主题: AI资讯
8621 点击    2025-05-09 12:19
Bye,英伟达!华为NPU,跑出了准万亿参数大模型

Bye,英伟达!华为NPU,跑出了准万亿参数大模型

Bye,英伟达!华为NPU,跑出了准万亿参数大模型

现在,跑准万亿参数的大模型,可以彻底跟英伟达Say Goodbye了。

来自主题: AI技术研报
9313 点击    2025-05-08 14:36
ICML 2025 Spotlight|华为诺亚提出端侧大模型新架构MoLE,内存搬运代价降低1000倍

ICML 2025 Spotlight|华为诺亚提出端侧大模型新架构MoLE,内存搬运代价降低1000倍

ICML 2025 Spotlight|华为诺亚提出端侧大模型新架构MoLE,内存搬运代价降低1000倍

Mixture-of-Experts(MoE)在推理时仅激活每个 token 所需的一小部分专家,凭借其稀疏激活的特点,已成为当前 LLM 中的主流架构。然而,MoE 虽然显著降低了推理时的计算量,但整体参数规模依然大于同等性能的 Dense 模型,因此在显存资源极为受限的端侧部署场景中,仍然面临较大挑战。

来自主题: AI技术研报
8183 点击    2025-05-07 09:30
不用英伟达GPU!华为盘古Ultra来了:昇腾原生、135B稠密通用大模型

不用英伟达GPU!华为盘古Ultra来了:昇腾原生、135B稠密通用大模型

不用英伟达GPU!华为盘古Ultra来了:昇腾原生、135B稠密通用大模型

终于,华为盘古大模型系列上新了,而且是昇腾原生的通用千亿级语言大模型。我们知道,如今各大科技公司纷纷发布百亿、千亿级模型。但这些大部分模型训练主要依赖英伟达的 GPU。

来自主题: AI技术研报
8968 点击    2025-04-13 16:12
芯片设计效率提升2.5倍,中科大华为诺亚联合,用GNN+蒙特卡洛树搜索优化电路设计 | ICLR2025

芯片设计效率提升2.5倍,中科大华为诺亚联合,用GNN+蒙特卡洛树搜索优化电路设计 | ICLR2025

芯片设计效率提升2.5倍,中科大华为诺亚联合,用GNN+蒙特卡洛树搜索优化电路设计 | ICLR2025

芯片设计是现代科技的核心,逻辑优化(Logic Optimization, LO)作为芯片设计流程中的关键环节,其效率直接影响着芯片设计的整体性能。

来自主题: AI技术研报
5079 点击    2025-04-10 11:03