ファーウェイがAI時代向けの業界初のデータセンター・スイッチCloudEngine 16800をリリース

ファーウェイ(Huawei)

2019/1/10 14:57

ファーウェイがAI時代向けの業界初のデータセンター・スイッチCloudEngine 16800をリリース

AsiaNet 77015 (0054)

【北京2019年1月9日PR Newswire=共同通信JBN】ファーウェイ(Huawei、華為技術)は9日、「A CloudEngine Built for the AI Era(AI時代向けに構築されたCloudEngine)」をテーマに掲げた2019年春の同社のネットワーク製品発表イベントで、人工知能(AI)時代に向けた業界初のデータセンター・スイッチCloudEngine 16800を公開した。ファーウェイは、AI時代のデータセンター・スイッチの3つの特徴、すなわち、組み込み式AIチップ、スロット当たり48ポート400GEラインカード、自動運転ネットワークに進化する能力を規定しており、AIテクノロジーをデータセンター・スイッチに革新的に組み込んでいる。広範にAIを使用することで、顧客はインテリジェントな変革を加速することが可能になる。

ファーウェイのGlobal Industry Vision(GIV)2025によると、AI導入率は2015年の16%から2025年には86%に増加する。ビジネスモデルを再形成し、決定を下し、顧客体験を向上させるためにAIを活用する能力は重要な推進力になる。ファーウェイ・ネットワーク・プロダクトラインのプレジデントであるケビン・フー氏は「全面的にコネクテッドかつインテリジェントな世界が急速に近づいている。データセンターは5GやAIなどの新しいインフラストラクチャーの中核になる。ファーウェイはAIテクノロジーをデータセンター・スイッチに最初に導入し、データセンター・ネットワークをクラウド時代からAI時代に導く」と語った。

AI時代の到来によって、AIコンピューティングパワーはデータセンター・ネットワークの性能に左右され、これはAI商用プロセスの主要な障害になっている。従来のEthernet上では、データセンターのAIコンピューティングパワーは1/1000のパケットロス率のために最大50%までしか到達できない。同時に、業界は世界の年間データ量が2018年の10ゼタバイトから2025年の180ゼタバイト(1800億テラバイト)に増大すると予測している。既存の100GEデータセンター・ネットワークは、予測されるこのデータの洪水に対処することができなくなる。さらに、多数のデータセンター・サーバーが増加の一途をたどり、コンピューティング・ネットワーク、ストレージ・ネットワーク、データネットワークがコンバージされるため、従来のマニュアルのO&M手法では、要求を満たすことは不可能となる。このため、革新的なテクノロジーが開発、導入され、インテリジェントなO&M能力を向上させることが絶対に必要である。

ケビン・フー氏は「AI時代のために構築されたデータセンター・スイッチは3つの特徴を備えている。すなわち、組み込み式AIチップ、スロット当たり48ポート400GEラインカード、自動運転ネットワークに進化する能力である」と語った。

▽組み込み式AIチップを搭載した業界初のデータセンター・スイッチはAIコンピューティングパワーを100%発揮

CloudEngine 16800は、組み込まれた高性能AIチップのパワーを活用する業界初のデータセンター・スイッチであり、革新的なロスレス・アルゴリズムを採用してトラフィックモデルの自動センシングおよび自動最適化を実行するため、ゼロ・パケットロスに基づくより低いレイテンシーとより大きなスループットを実現する。CloudEngine 16800は、従来のEthernet上でのパケットロスに起因するコンピューティングパワーの限界を克服し、AIコンピューティングパワーを50%から100%に高めるとともに、データストレージの入出力操作毎秒(IOPS)を30%向上させる。

▽業界最大の密度であるスロット当たり48ポート400GEラインカードはAI時代に5倍になるトラフィック増加の要件に対処する

CloudEngine 16800は最新のハードウエア・スイッチングプラットフォームであり、直行性アーキテクチャーによって高速シグナル伝送、放熱、パワーサプライなど多数の技術課題を克服する。CloudEngine 16800は業界最大の密度であるスロット当たり48ポート400GEカードラインと業界最大の768ポート400GEスイッチング能力(業界平均の5倍)を提供し、AI時代のトラフィック増加要件を満たす。さらに、ビット当たりの電力消費は50%軽減され、環境に配慮したオペレーションを実現する。

▽自動運転ネットワークの実現、数秒内での障害の発見、数分内での障害箇所の自動検出

CloudEngine 16800は、AIチップが組み込まれており、ネットワークエッジに展開されるデバイスのインテリジェンス・レベルを大幅に向上させるとともに、このスイッチがリアルタイムでローカル推論と迅速な意思決定を履行することを可能にする。CloudEngine 16800のローカル・インテリジェンスおよび集中ネットワークアナライザーのFabricInsightによって、分散型AI O&Mアーキテクチャーは数秒内に障害を突き止め、数分以内にその障害箇所を自動検出して自動運転ネットワークの到来を加速する。さらに、このアーキテクチャーはO&Mシステムの柔軟性と配置可能性を大幅に向上させる。

ファーウェイのデータセンター・ネットワーク・ドメインのゼネラルマネージャーであるレオン・ワン氏は「ファーウェイのCloudEngineシリーズのデータセンター・スイッチは、6000以上の顧客が商業的な利用を開始し、金融、インターネット、キャリアの顧客など産業顧客のデジタル変革に役立っている。ファーウェイはCloudEngine 16800を発売し、顧客がインテリジェントな変革を加速し、広範なAI利用を実現し、全面的にコネクテッドかつインテリジェントな世界を連携して構築することを支援した」と語った。

ソース:Huawei


Huawei Releases Industry's First Data Center Switch Built for the AI Era: CloudEngine 16800

PR77015

BEIJING, Jan. 9, 2019 /PRNewswire=KYODO JBN/ --

Today Huawei unveiled the industry's first data center switch built for the
Artificial Intelligence (AI) era -- CloudEngine 16800, at its network product
launch event for Spring 2019 themed "A CloudEngine Built for the AI Era".
Huawei defines three characteristics of data center switches in the AI era:
embedded AI chip, 48-port 400GE line card per slot, and the capability to
evolve to the autonomous driving network, and innovatively incorporates AI
technologies into data center switches. The pervasive use of AI will help
customers accelerate intelligent transformation.

According to Huawei's Global Industry Vision (GIV) 2025, the AI adoption rate
will increase from 16% in 2015 to 86% in 2025. The capability of leveraging AI
to reshape business models, make decisions, and improve customer experiences
will become a key driving force. Kevin Hu, President of Huawei Network Product
Line, said, "A fully connected, intelligent world is fast approaching. Data
centers become the core of the new infrastructures such as 5G and AI. Huawei
will first introduce AI technology to data center switches, leading data center
networks from the cloud era to the AI era."

With the advent of the AI era, the AI computing power is affected by the
performance of data center networks, which is becoming a key bottleneck of the
AI commercial process. On a traditional Ethernet, the AI computing power of
data centers can only reach up to 50 percent due to a packet loss rate of
1/1000. At the same time, the industry expects that the annual volume of data
worldwide will increase from 10 zettabytes in 2018 to 180 zettabytes (180
billion terabytes) in 2025. Existing 100GE data center networks will be unable
to handle the predicted data flood. In addition, traditional manual O&M methods
will be unable to meet requirements as the number of data center servers
continues to increase and the computing network, storage network, and data
network become converged. It is therefore imperative that innovative
technologies be developed and introduced to improve the intelligent O&M
capability.

"The data center switch built for the AI era has three characteristics," said
Kevin Hu, namely "embedded AI chip, 48-port 400GE line card per slot, and the
capability to evolve to the autonomous driving network."

Industry's first data center switch with an embedded AI chip, reaching an AI
computing power of 100%

The CloudEngine 16800, the first data center switch in the industry to leverage
the power of an embedded high-performance AI chip, uses the innovative
iLossless algorithm to implement auto-sensing and auto-optimization of the
traffic model, thereby realizing lower latency and higher throughput based on
zero packet loss. The CloudEngine 16800 overcomes the computing power
limitations caused by packet loss on the traditional Ethernet, increasing the
AI computing power from 50 percent to 100 percent and improving the data
storage Input/Output Operations Per Second (IOPS) by 30 percent.

Industry's highest density 48-port 400GE line card per slot, meeting the
requirements for 5-fold traffic growth in the AI era

The CloudEngine 16800 boasts an upgraded hardware switching platform, and with
its orthogonal architecture, overcomes multiple technical challenges such as
high-speed signal transmission, heat dissipation, and power supply. It provides
the industry's highest density 48-port 400GE line card per slot and the
industry's largest 768-port 400GE switching capacity (five times the industry
average), meeting the traffic multiplication requirements in the AI era. In
addition, the power consumption per bit is reduced by 50%, ensuring greener
operation.

Enabling the autonomous driving network, identifying faults in seconds, and
automatically locating faults in minutes

The CloudEngine 16800 is embedded with an AI chip, greatly enhancing the
intelligence level of devices deployed at the network edge and enabling the
switch to implement local inference and rapid decision-making in real time.
With CloudEngine 16800's local intelligence and the centralized network
analyzer FabricInsight, the distributed AI O&M architecture identifies faults
in seconds and automatically locates the faults in minutes, helping to
accelerate the advent of autonomous driving network. Furthermore, this
architecture greatly improves the flexibility and deployability of O&M systems.

Leon Wang, General Manager of Huawei Data Center Network Domain, said, "Huawei
CloudEngine series data center switches have been successfully launched into
commercial use for more than 6000 customers, helping digital transformation of
industry customers such as finance, Internet, and carrier customers. Huawei
launched the CloudEngine 16800 to help customers accelerate intelligent
transformation, achieve pervasive use of AI, and jointly build a fully
connected and intelligent world."

SOURCE: Huawei


本プレスリリースは発表元が入力した原稿をそのまま掲載しております。また、プレスリリースへのお問い合わせは発表元に直接お願いいたします。

このプレスリリースには、報道機関向けの情報があります。

プレス会員登録を行うと、広報担当者の連絡先や、イベント・記者会見の情報など、報道機関だけに公開する情報が閲覧できるようになります。

プレスリリース受信に関するご案内

ソーシャルメディアでも最新のリリース情報をいち早く配信中