このページの本文へ移動

Menu

メニュー

  • 企業 
  • ニュース 
  • サービス 
  • 技術・デザイン 
  • 採用 
  • 投資家情報 
  • サステナビリティ 
  • CyberAgent Way 

 

プレスリリース

大規模なAI開発に対応する「NVIDIA DGX H100」を国内初導入 -80基の「NVIDIA H100 Tensor コア GPU」でAI開発を大幅強化、機械学習モデルの大規模化・構築の高速化へ-

広告

株式会社サイバーエージェント(本社:東京都渋谷区、代表取締役:藤田晋、東証プライム市場:証券コード4751)は、AI事業の根幹である機械学習モデルの大規模化を躍進させる技術への積極投資として、大規模なAI開発に対応する「NVIDIA DGX H100」を国内で初めて導入※1し、80基の「NVIDIA H100 Tensor コア GPU※2を活用したAI開発環境の大幅強化を図ることをお知らせいたします。

サイバーエージェントとNVIDIAは、2022年6月よりデジタルヒューマン事業をはじめ様々な領域における高度なAI開発を推進するため協業しており、最高クラスのインフラストラクチャと高速かつスケーラブルなパフォーマンスを提供することができるAI開発環境の構築に取り組んでいます。

今回の 「NVIDIA H100 Tensor コア GPU」 導入により、当社が提供する「極予測AI」「極予測TD」「極予測LP」などAIを活用した広告クリエイティブ制作領域のサービスおよび、「デジタルツインレーベル」やAI Lab「完全自動対話研究センター」等が取り組むデジタルヒューマンやAIチャットボットなどの研究開発における機械学習モデルの大規模化と、構築の高速化を行います。画像や文章の自動生成など、AIによる広告クリエイティブ制作推進における計算リソースが大幅に増強され、各提供サービスのさらなる性能向上および、新機能の開発・提供が期待されます。

■「NVIDIA H100 Tensor コア GPU」の導入設置について
近年、AI技術の発展スピードは凄まじく、特に「基盤モデル」と呼ばれる大量のデータで大量のパラメータを持つモデルを長時間学習させた機械学習モデルには、企業、アカデミック、一般ユーザー問わず多くの注目が集まっています。基盤モデルは、高い性能を持つモデルの構築が一度完了すると、少量のサンプルデータで追加学習することによって、下流タスクでも品質の高いアウトプットを出すことが可能となります。

この度導入する「NVIDIA H100 Tensor コア GPU」は、NVIDIA Hopper GPU アーキテクチャを採用した機械学習用のGPUで、前世代比最大 9 倍高速化するTransformer Engine を備えています※3。また、GPUとGPUを毎秒 900GBで相互接続する第4世代 NVLinkを備えており、当社が管理するデータセンターへ設置される予定です。

このデータセンターにはこれらの計算リソースをより利用しやすくするために独自開発した機械学習基盤 ML Platformを設置しており、AI事業の開発に取り組む研究者やデータサイエンティストが簡単に機械学習の単一ジョブや分散学習を実行できる環境を用意しています。これらの仕組みと増強した計算リソースを広告クリエイティブ画像や日本語テキストの自動生成、CGやデジタルヒューマン、音声合成等の大規模な機械学習モデルの構築に活用し、各提供サービスの改善および研究に取り組んでまいります。

■今後
当社は今後も、積極的な技術投資を実施し、広告クリエイティブ表現の多様性や予測精度の更なる向上および、より品質の高い広告配信技術の実現を目指して研究・開発に努めてまいります。


※1 2023年1月時点、NVIDIA社調べ
※2「NVIDIA DGX H100」を含む構成にて80基導入を実現
※3 NVIDIA公式サイト参考 https://www.nvidia.com/ja-jp/data-center/h100/