每个人都想要这款昂贵的人工智能芯片,但它是什么?

每个人都想要这款昂贵的人工智能芯片,但它是什么?

  • 训练生成人工智能AI)需要消耗大量数据。
  • 一款芯片以其令人印象深刻的处理能力垄断了市场。
  • 但正如世界经济论坛峰会所强调的那样,负责任地开发人工智能仍然是一个令人担忧的问题。

它被誉为推动人工智能 (AI) 繁荣的微芯片。售价40,000美元,并不便宜,但该芯片已经被更强大的版本所取代。介绍Nvidia H100。

创建生成式人工智能应用程序是一项成本高昂的业务,无论是从现金方面还是从训练人工智能所需的计算能力方面来看。事实上,它的要求如此之高,以至于只有少数芯片能够满足。

从登月到生成人工智能

当然,微芯片就在我们周围。没有它们,我写这篇文章的笔记本电脑和您阅读本文的设备就无法运行。而且,随着我们对设备功能的期望不断扩大,它们的功能也变得越来越强大。

早在1965年,科技巨头英特尔的创始人之一戈登·摩尔就预测微芯片中的晶体管数量及其处理能力每年都会增加一倍。它被称为摩尔定律,专家表示它至今仍然适用。

您无需成为计算机专家即可欣赏处理能力的变化 – 数字不言而喻。负责阿波罗登月太空任务的计算机大约有78字节内存。H100有80GB,即800亿字节。

人工智能需要更快的处理器

但值得注意的是,H100也是计算机能力另一场革命的一部分。H100是GPU(图形处理单元),顾名思义,它是一种微处理器,最初开发用于为游戏和视频提供屏幕图形。

事实上,Nvidia早在1999年就创造了第一个GPU。从那时起,其卓越的处理能力使GPU成为人工智能所需的大量数据处理的默认选择。

彭博社估计, Nvidia控制着亚马逊、谷歌云和微软运营的人工智能数据中心加速器约80%的市场。根据Bllomberg的分析,其他主要参与者是Advanced Micro Devices Inc (AMD) 和英特尔。

正如开头提到的,H100即将被更强大的GH200 Grace Hopper超级芯片取代,该芯片拥有282GB内存,以美国编程先驱Grace Murray Hopper的名字命名。

Nvidia 创始人兼首席执行官黄仁勋在GH200发布会上表示:“为了满足生成式AI不断增长的需求,数据中心需要具有特殊需求的加速计算平台。”

Nvidia表示,Grace Hopper是“为处理世界上最复杂的生成式人工智能工作负载而创建的,涵盖大型语言模型……和矢量数据库”。训练人工智能确实需要大量数据。

IBM 的Rune Mejer Rasmussen在博客中表示:“智能AI算法风光无限,但如果没有大量可靠数据的稳定供应,它们就毫无用处。” “这些算法需要访问大量数据。它可能高达PB级别。” PB是 1,000,000,000,000,000字节。

据彭博社报道,Nvidia表示,H100在训练大型语言模型方面比其前身A100快四倍,在响应用户提示方面快30倍,为人工智能开发人员提供了关键的性能优势。

开发负责任的人工智能

但快速的发展速度让许多人担心监管跟不上。世界经济论坛发起了人工智能治理联盟,汇集了行业领袖、政府、学术机构和民间社会组织,以倡导负责任的全球设计和发布透明和包容的人工智能系统。

2023年4月,论坛在旧金山召开“负责任的人工智能领导力:生成式人工智能全球峰会”,100多名技术专家和政策制定者出席。他们共同商定了30 项建议,以确保人工智能的开发负责任、公开并服务于社会进步。

论坛人工智能、数据和元宇宙主管Cathy Li和论坛董事总经理Jeremy Jurgens在《议程》中撰文表示:“事实证明,生成式人工智能……正在成为我们经济和社会的变革力量。

“近几个月来的快速发展凸显了人工智能作为数字景观发展的基础设施的重要作用,并强化了确保其负责任、合乎道德的使用的必要性。”

本站是提供个人分享的知识,所有内容均来源于网络,不代表本人观点。如有侵权,请告知!

发表评论

邮箱地址不会被公开。