NetApp

ネットアップとインテルの強みを生かし
企業におけるRAG推論の導入を促進

NetApp AIPod Mini with Intel
ネットアップ

生成AIの活用に当たって、顧客が生成AIをオンプレミスでホストしたいと考える主な理由は二つある。一つ目はデータプライバシーが心配で、データをクラウドサービスにさらしたくない場合。二つ目は、クラウドAPIでトークンごとに支払うのではなく、自社のインフラを購入してフル活用することでコストを最適化したい場合だ。こうしたことから、プライベートAIやRAG推論を利用する生成AIの導入を検討する企業が増えている。そうした企業にお薦めなのが、ネットアップの統合型AIソリューション「NetApp AIPod Mini with Intel」だ。

高性能なAI推論を実現

ネットアップの「NetApp AIPod Mini with Intel」は、企業や組織の各部門でRAG推論を効率的に導入、運用するために設計された統合型AIソリューションだ。本製品は、ネットアップのオールフラッシュストレージ「NetApp AFF A」シリーズ、「Intel Xeon 6プロセッサー」を搭載したサーバー、イーサネットスイッチ、「NetApp ONTAPデータ管理ソフトウェア」、Open Platform for Enterprise AI(OPEA)を基盤としたソフトウェアスタックなどで構成される。ネットアップとインテルそれぞれの技術を掛け合わせることで、高性能かつコスト効率の高いAI推論を実現する。

NetApp AIPod Mini with Intelの特長の一つが、サーバーにインテル Xeon 6 プロセッサーを搭載していることだ。インテル Xeon6 プロセッサーは、要求の厳しいAI推論ワークロードに対応できるように設計されている。加えて、推論と機械学習処理のパフォーマンスを向上させる内蔵アクセラレーター「Intel Advanced Matrix Extensions」(Intel AMX)を搭載しているため、最大限のパフォーマンスで推論処理が行える。

RAG推論を利用する生成AIは、PDF、テキスト、CSV、Excel、ナレッジグラフなどさまざまな形式の企業のドキュメントリポジトリからナレッジを取得している。これらのデータには通常「Amazon Simple Storage Service」(Amazon S3)などのオブジェクトストレージやシステムがデータソースとして利用されるが、NetApp AI Pod Mini with IntelはAmazon S3、NFS、SMBなどのマルチプロトコルをサポートしているため、幅広くさまざまなデータの活用が可能だ。また、NetApp AIPod Mini with Intelを導入することで、ナレッジデータのシームレスな管理、保護、モビリティ化ができるようにもなる。

NetApp AIPod Mini with Intelはネットアップとインテルそれぞれの技術を生かし、高性能かつコスト効率の高いAI推論を実現する。

セキュリティに考慮した運用が可能

高い信頼性と機密性を実現していることもNetApp AIPod Mini with Intelの特長だ。ランサムウェア攻撃を検知・防御する「NetApp Autonomous Ransomware Protection」(ARP)やデータ保護機能、ソフトウェアとハードウェアベースの暗号化によって強固なセキュリティ体制を整えている。また、全てのSSL接続において米国連邦情報処理標準規格の「FIPS 140-2」に準拠しているため、安全性も確保されている。

さらに、OPEA を基盤とするNetApp AIPod Mini with Intel には、最新のサービスベース・アーキテクチャとのシームレスな統合を実現する「サービスメッシュ」機能、パイプラインの信頼性を検証するための「本番環境対応検証」、ワークフローの管理と監視を容易にするRAG as a Service向けの機能豊富なUIなどが含まれている。さらに、インテルとネットアップのパートナーのサポートによって、幅広いソリューション・エコシステムへのアクセスが提供される。UIとアプリケーションが統合された「アイデンティティおよびアクセス管理」(IAM:Identity and Access Management)と組み合わせることで、コンプライアンスに準拠した安全な運用が可能になる。

ネットアップとインテルの強みを兼ね備えたNetApp AIPod Mini with Intelは、企業における生成AI活用の幅を広げてくれるだろう。