HABANA LABSがGaudi AIトレーニングプロセッサーを発表

Habana Labs, Ltd.

HABANA LABSがGaudi AIトレーニングプロセッサーを発表

AsiaNet 79242 (1091)

【テルアビブ(イスラエル)、サンノゼ(米カリフォルニア州)2019年6月17日PR Newswire=共同通信JBN】

*Gaudiは記録破りのパフォーマンスとイーサネットのネイティブ統合による拡張を提供

AIプロセッサーの大手開発業者であるHabana Labs, Ltd.(www.habana.ai)は17日、Habana Gaudi(TM)AIトレーニングプロセッサーを発表した。Gaudiプロセッサーをベースにしたトレーニングシステムは、同数のGPUで構築されたシステムよりも最大4倍のスループット向上を実現する。

Photo - https://mma.prnewswire.com/media/903245/HLS_1_with_heatsink_small.jpg

Photo - https://mma.prnewswire.com/media/903246/HL_205_small.jpg

Photo -https://mma.prnewswire.com/media/903247/HLS_1_Open_Overhead_View_smaller.jpg

ロゴ -  https://mma.prnewswire.com/media/744578/Habana_Labs_Ltd___Logo.jpg

Gaudiの革新的なアーキテクチャーは、小さいバッチサイズでも高いスループットが維持されるため、トレーニングシステムのパフォーマンスをほぼ直線的に拡張可能で、これにより、Gaudiベースシステムのパフォーマンスを、単一デバイスから数百のGaudiプロセッサーで構築される大規模システムに拡張できる。

記録破りのパフォーマンスに加え、Gaudiはもう1つの業界初をAIトレーニングにもたらした。それは、標準イーサネットを使用してAIシステムをあらゆるサイズに拡張できるようにする、AIプロセッサー内のRDMA over Converged Ethernet(RoCE v2)機能のオンチップ統合である。Gaudiを使用することで、Habana Labsの顧客は、スケールアップとスケールアウトの両方のAIトレーニングシステムに標準イーサネットスイッチングを利用できるようになった。イーサネットスイッチはマルチソースで、速度とポート数の点で事実上無制限の拡張性を提供でき、既にコンピューティングとストレージのシステム拡張のため、データセンターで使用されている。Habanaの標準ベースのアプローチとは対照的に、GPUベースのシステムは独自のシステムインターフェースに依存しているため、拡張性とシステム設計者の選択肢がもともと制限されている。

Linley Groupの主任アナリスト、リンレイ・グウェンナップ氏は「Habanaは、その新製品で推論からトレーニングまで素早く手を広げ、ニューラルネットワーク機能の全領域をカバーした。Gaudiは、AIトレーニングアクセラレーターの中でも強力なパフォーマンスと業界をリードする電力効率を提供している。100GイーサネットリンクをRoCEサポートと統合した初のAIプロセッサーとして、業界標準コンポーネントを使用して構築された大規模なアクセラレータークラスターを実現している」とコメントした。

Gaudiプロセッサーは32GBのHBM-2メモリーを搭載、現在2つの形態で提供されている。

*HL-200 - 100Gbイーサネット8ポートをサポートするPCIeカード

*HL-205 - 10ポートの100Gbイーサネットまたは20ポートの50Gbイーサネットをサポートする、OCP-OAM仕様に準拠したメザニンカード

Habanaは、外部ホスト接続用のPCIeコネクターと既製のイーサネットスイッチ接続用の24の100Gbpsイーサネットポートを備えた8つのHL-205メザニンカードを含むHLS-1と呼ばれる8-Gaudiシステムも導入しており、複数のHLS-1システムを搭載することで、標準の19インチラックでのスケールアップが可能になった。

Gaudiは、Habana Goya(TM)AI推論プロセッサーに続き、Habana Labsによって昨年発売された2番目の専用AIプロセッサーである。Goyaは、2018年第4四半期から出荷され、業界最高のスループット、業界最高の電力効率(1ワット時毎秒の画像数)、およびリアルタイム遅延で、業界トップの推論性能を実証してきた。

Habana Labsのデービッド・ダーハン最高経営責任者(CEO)は「トレーニングAIモデルは毎年、幾何学級数的に高い計算能力を必要とするため、生産性と拡張性の劇的な向上を必要とするデータセンターとクラウドの差し迫ったニーズへの対応は不可欠だ。Gaudi の革新的なアーキテクチャーにより、Habanaは業界標準のイーサネット接続を統合しつつ、業界最高のパフォーマンスを提供している。GaudiはAIトレーニングプロセッサー市場の現状を一変させるだろう」と語った。

Facebookの技術・戦略担当ディレクターであるビジェイ・ラオ氏は「Facebookは、われわれの業界が集まれるイノベーションのためのオープンプラットフォームを提供しようとしている。Habana Goya AI推論プロセッサーがGlow機械学習コンパイラーのバックエンドを実装し、オープンソース化したこと、そしてHabana Gaudi AIトレーニングプロセッサーがOCP Accelerator Module(OAM)仕様をサポートしていることをうれしく思う」と語った。

Gaudiプロセッサーは完全にプログラム、カスタマイズ可能で、包括的かつ柔軟なソリューションを提供する開発ツール、ライブラリー、コンパイラーと共に第2世代のTensor Processing Core(TPC(TM))クラスターを備えている。Habana Labs SynapseAI(TM)ソフトウエアスタックは、豊富なカーネルライブラリーと顧客が独自のカーネルを追加するためのオープンツールチェーンで構成されている。

Habanaは2019年後半に、限られた顧客にGaudiプラットフォームをサンプル出荷する予定。Gaudi AIトレーニングとGoya AI推論プロセッサーの詳細については、www.habana.ai を参照。

して顧客を選択する予定です。

▽HABANA LABSについて

Habana Labsは、ディープニューラルネットワークのトレーニングや生産環境での推論展開に最適化された、新規プロセッサープラットフォームから開発を行うために2016年に設立されたAIプロセッサー企業である。処理性能、拡張性、コスト、消費電力を大幅に改善したプラットフォームを提供することで、当社はAIの真の可能性を解き放ちつつある。Habanaは、イスラエルのテルアビブ、カリフォルニア州サンノゼ、中国の北京、ポーランドのグダニスクにあり、世界中で150人を雇用している。

詳細については、www.habana.ai を参照するか、pr@habana.ai に問い合わせを。

ソース:Habana Labs, Ltd.

HABANA LABS Announces Gaudi AI Training Processor

PR79242

TEL-AVIV, Israel and SAN JOSE, California, June 17, 2019 /PRNewswire=KYODO JBN/ --

- Gaudi Delivers Record-Breaking Performance and Native Integration of Ethernet

for Scaling

Habana Labs, Ltd. (www.habana.ai), a leading developer of AI processors, today

announced the Habana Gaudi(TM) AI Training Processor. Training systems based on

Gaudi processors will deliver an increase in throughput of up to four times

over systems built with equivalent number GPUs.

Photo - https://mma.prnewswire.com/media/903245/HLS_1_with_heatsink_small.jpg

Photo - https://mma.prnewswire.com/media/903246/HL_205_small.jpg

Photo -

https://mma.prnewswire.com/media/903247/HLS_1_Open_Overhead_View_smaller.jpg

Logo - https://mma.prnewswire.com/media/744578/Habana_Labs_Ltd___Logo.jpg

Gaudi's innovative architecture enables near-linear scaling of training systems

performance, as high throughput is maintained even at smaller batch sizes, thus

allowing performance scaling of Gaudi-based systems from a single device to

large systems built with hundreds of Gaudi processors.

In addition to record-breaking performance, Gaudi brings another industry first

to AI training: on-chip integration of RDMA over Converged Ethernet (RoCE v2)

functionality within the AI processor, to enable the scaling of AI systems to

any size, using standard Ethernet. With Gaudi, Habana Labs' customers can now

utilize standard Ethernet switching for both scaling-up and scaling-out AI

training systems. Ethernet switches are multi-sourced, offering virtually

unlimited scalability in speeds and port-count, and are already used in

datacenters to scale compute and storage systems. In contrast to Habana's

standards-based approach, GPU-based systems rely on proprietary system

interfaces, that inherently limit scalability and choice for system designers.

"With its new products, Habana has quickly extended from inference into

training, covering the full range of neural-network functions," commented

Linley Gwennap, principal analyst of The Linley Group. "Gaudi offers strong

performance and industry-leading power efficiency among AI training

accelerators. As the first AI processor to integrate 100G Ethernet links with

RoCE support, it enables large clusters of accelerators built using

industry-standard components."

The Gaudi processor includes 32GB of HBM-2 memory and is currently offered in

two forms:

    -- HL-200 – a PCIe card supporting eight ports of 100Gb Ethernet;

    -- HL-205 – a mezzanine card compliant with the OCP-OAM specification,

       supporting 10 ports of 100Gb Ethernet or 20 ports of 50Gb Ethernet.

Habana is also introducing an 8-Gaudi system called HLS-1, which includes eight

HL-205 Mezzanine cards, with PCIe connectors for external Host connectivity and

24 100Gbps Ethernet ports for connecting to off-the-shelf Ethernet switches,

thus allowing scaling-up in a standard 19'' rack by populating multiple HLS-1

systems.

Gaudi is the second purpose-built AI processor to be launched by Habana Labs in

the past year, following the Habana Goya(TM) AI Inference Processor. Goya has

been shipping since Q4, 2018, and has demonstrated industry-leading inference

performance, with the industry's highest throughput, highest power efficiency

(images-per-second per Watt), and real-time latency.

"Training AI models require exponentially higher compute every year, so it's

essential to address the urgent needs of the datacenter and cloud for radically

improved productivity and scalability. With Gaudi's innovative architecture,

Habana delivers the industry's highest performance, while integrating

standards-based Ethernet connectivity, enabling unlimited scale," said David

Dahan, CEO of Habana Labs. "Gaudi will disrupt the status quo of the AI

Training processor landscape."

"Facebook is seeking to provide open platforms for innovation around which our

industry can converge," said Vijay Rao, Director of Technology, Strategy at

Facebook. "We are pleased that the Habana Goya AI inference processor has

implemented and open-sourced the backend for the Glow machine learning compiler

and that the Habana Gaudi AI training processor is supporting the OCP

Accelerator Module (OAM) specification."

The Gaudi Processor is fully programmable and customizable, featuring a second-

generation Tensor Processing Core (TPC(TM)) cluster, along with development

tools, libraries, and a compiler, that collectively deliver a comprehensive and

flexible solution. Habana Labs SynapseAI(TM) software stack consists of a rich

kernel library and open toolchain for customers to add proprietary kernels.

Habana will sample Gaudi platforms to select customers in the second half of

2019. For more information on Gaudi AI Training and Goya AI Inference

Processors, please visit www.habana.ai

ABOUT HABANA LABS

Habana Labs is an AI Processor company founded in 2016 to develop from the

ground-up processor platforms that are optimized for training deep neural

networks and for inference deployment in production environments. We are

unlocking the true potential of AI with platforms offering orders of magnitude

improvements in processing performance, scalability, cost, and power

consumption. Habana is located in Tel-Aviv, Israel, San Jose, California,

Beijing, China and Gdansk, Poland, employing 150 people worldwide.

For more information, please visit www.habana.ai or contact pr@habana.ai.

SOURCE  Habana Labs, Ltd.

本プレスリリースは発表元が入力した原稿をそのまま掲載しております。また、プレスリリースへのお問い合わせは発表元に直接お願いいたします。

このプレスリリースには、報道機関向けの情報があります。

プレス会員登録を行うと、広報担当者の連絡先や、イベント・記者会見の情報など、報道機関だけに公開する情報が閲覧できるようになります。

プレスリリース受信に関するご案内

SNSでも最新のプレスリリース情報をいち早く配信中