(Image = サムスンSDS)

(Seoul=NSP NEWS) = サムスンSDSはNVIDIA B300 GPUをベースとしたGPUaaSを導入し、企業向けAI推論インフラの拡大に取り組んでいる。

今回のサービスは、企業におけるAI活用がモデル学習中心から実際のサービス運用・推論段階へと移行する流れに合わせて設計された点が特徴である。

B300 GPUは12層HBM3Eを採用し、GPUあたり288GBのメモリと秒間約8TBの帯域幅を提供する。従来のH100に比べてメモリ容量は3.6倍、帯域幅は2.4倍に拡大された構造だ。

これにより、大規模言語モデルの実行時に発生するメモリボトルネックを削減し、AIエージェントや画像・映像・コード生成などの高性能AIサービスの処理効率を向上させる環境が整った。

サービスはサブスクリプション方式で運用され、初期インフラ投資の負担を軽減し、利用量ベースのコスト構造を採用した。また、セキュリティ機能を組み合わせ、企業のデータ処理環境に対応できるよう設計されている。

サムスンSDSは、今年第3四半期にサーバーレスベースの推論サービスと自動分散学習ベースのAI学習サービスも追加する計画だ。

By Min-jung Kim(alswjd5176@nspna.com) and Bok-hyun Lee(bhlee2016@nspna.com)

ⓒNSP News Agency·NSP TV. All rights reserved.