リアルタイムAIインサイトをエンタープライズデータにもたらす

VAST InsightEngineは、リアルタイムデータ処理、無制限のリニアスケーリング、安全なAIネイティブのベクトル検索、自律型意思決定を備えた新しいエンタープライズAI基盤を提供し、動的なデータストリームに即座に反応して、より迅速かつスマートな意思決定を可能にします。

VASTのレプリケーションは最大36拠点まで拡張でき、現在ではNHLの32アリーナすべてが1つのプラットフォームにデジタルコンテンツを送信しています。試合が行われているスタジアムで、コンテンツプラットフォームを構築する土台が整いました。

Derek Kennedy
NHL メディアオペレーション&DevOps担当副社長, NHL
パワー

自律型エージェントによるリアルタイムAI意思決定を実現

VAST InsightEngineは、従来のAIアーキテクチャにおけるボトルネックを排除し、リアルタイムかつイベント駆動型のAI意思決定を可能にします。VAST DataEngineはライブデータを即座に処理・対応できる自律エージェントを実現し、金融サービスにおける不正検出の自動化、サイバーセキュリティのリアルタイム対応、産業オートメーションにおける予知保全、メディアにおける自動コンテンツタグ付けなどを可能にします。リアルタイムベクトル検索とイベント駆動型推論により、AIアプリケーションは最新データへの継続的なアクセスが得られ、精度と応答性を最大化します。

合理化

AIデータパイプラインを自動化し、シームレスなワークフローを実現

VAST InsightEngineは、イベント駆動型のトリガーとファンクション、ならびにリアルタイム推論の自動化により、AIパイプラインから手動介入を排除します。データが取り込まれると同時に処理が始まり、バッチ型ETLパイプラインによる遅延を解消します。VASTの統合ベクトルデータベースにおけるAI最適化検索により、ペタバイト〜エクサバイト規模のデータセットからの即時検索が可能になります。生データとベクトルの保存、検索、推論を1つのAIネイティブプラットフォームに統合することで、企業はインフラ管理からAIによる洞察抽出へと焦点を移すことができます。

リアルタイム

データを即座にAI対応インサイトへ変換

VAST InsightEngineは、エンタープライズデータをリアルタイムでベクトル化し、従来のバッチ処理による遅延を排除します。AIネイティブのベクトル埋め込みにより、非構造化データは即座にVASTのベクトルデータベースで検索可能となり、RAG(検索拡張生成)によりAIモデルは常に最新かつ関連性の高いデータにアクセスできます。メモリ速度でのインデックス作成により検索待ちがなくなり、数兆のベクトル埋め込みを含む膨大なデータセットに対するリアルタイムのセマンティック検索が可能になります。

スケール

AIワークフローをあらゆるスケールで統合・保護

VAST InsightEngineは、リアルタイムストレージ、処理、検索を1つのAIネイティブプラットフォームに統合し、サイロ化されたデータアーキテクチャの非効率性を解消します。AIパイプラインはすべて暗号化され、各データ要素レベルでのきめ細やかなアクセス制御により、AIモデルが許可された情報のみにアクセスできるようになります。VAST DataのDASEアーキテクチャは容易にスケーリング可能であり、複雑なインフラなしでエクサバイト規模のAIワークロードを処理できます。データのサイロ化、冗長コピー、サードパーティSaaS依存を排除することで、VASTは設計段階から安全性を備えた将来対応型のAIデータ基盤を提供します。

簡素化

統合アーキテクチャでAIデータ管理を簡素化

従来のアーキテクチャでは、AIパイプラインを実現するためにデータベースやデータレイク、データウェアハウス、サードパーティSaaSツールなど複数の技術の統合が必要でしたが、VAST InsightEngineは、リアルタイムストレージ、処理、ベクトルストア、検索を単一の自動化システムに統合します。これにより、データのコピー、複雑なETLパイプライン、多層的な統合作業が不要になります。企業は、ファイル、オブジェクト、テーブル、ブロック、ストリームをその場で管理でき、AI対応データへの即時アクセスを実現すると同時に、インフラ負荷の軽減とインサイト抽出までの時間短縮が可能になります。



統合

AIにおけるアトミックレベルのデータセキュリティとコンプライアンスを実現

VAST InsightEngineは、すべてのAIデータ要素をアトミックレベルで保護し、堅牢なアクセス制御リスト(ACL)ときめ細やかなアクセス管理を、生データおよびベクトルデータの両方に統一して適用します。これにより、断片化されたデータシステム間での手動による権限同期が不要となり、セキュリティ、コンプライアンス、監査対応が常時維持されます。暗号化、リアルタイム監視、AI対応のガバナンス機能が組み込まれており、企業はフルコンプライアンスとエンドツーエンドのデータセキュリティを確保しながら、AI駆動のワークフローを安心して展開できます。

AIにおけるアトミックレベルのデータセキュリティとコンプライアンスを実現

生成AIとRAG機能により、企業はデータの活用方法を一変させました。VAST InsightEngineにNVIDIA NIMを統合することで、あらゆるスケールでの安全かつ効率的なデータアクセスが実現され、データを迅速に実用的なインサイトへと変換できます。

Justin Boitano
エンタープライズAI担当バイスプレジデント, NVIDIA
機能

リアルタイムデータ処理

データは書き込みと同時にベクトル埋め込みおよびグラフ関係に変換され、従来のバッチ処理による遅延を回避します。このリアルタイム処理により、新しく取り込まれたデータは即座にAI処理に利用可能となり、より迅速かつ正確な意思決定が可能になります。

スケーラブルなベクトルデータベース

VASTの統合型・高速セマンティックデータベースは、数兆件のベクトル埋め込みをサポートし、大規模データセットに対するリアルタイムの類似検索と関係分析を可能にします。Storage Class Memory(SCM)層およびNVMe-oFを活用することで、企業の増大するデータニーズにもシームレスに対応可能です。

統合データアーキテクチャ

データの保存・処理・取得を1つの統合プラットフォームに集約し、外部のデータレイクやSaaSツールの必要性を排除します。このアーキテクチャによりデータ管理が簡素化され、コストが削減され、複雑なETLプロセスが不要となり、AIワークフロー全体が効率化されます。

データガバナンスとセキュリティ

ファイルシステム、オブジェクトストレージ、ベクトルデータベース間でのデータ更新はアトミックに同期されます。組み込みのアクセス制御リスト(ACL)により、データライフサイクル全体にわたって完全なセキュリティ管理と規制遵守が確保され、AI処理における整合性と保護が維持されます。また、きめ細かなアクセス制御(FAC)により、適切なユーザーとエージェントだけが正しいデータにアクセスできます。

NVIDIA NIMとの統合

NVIDIAの推論マイクロサービスを活用し、受信データからリアルタイムに意味情報を埋め込み、推論および検索処理にも活用します。NVIDIA GPU上で動作するモデルは、埋め込みを即座にVAST DataBaseに格納し、AIによる検索などのタスクに即時利用できるようになり、処理遅延を排除してインサイトを加速させます。

VAST Undivided Attention(VUA):AI推論の革新

無限のAIキャッシュ、無限のパフォーマンス

VUAは、GPUメモリを共有NVMeに拡張するオープンソースのグローバルKVキャッシュです。AIモデルに事実上無限のコンテキストを提供し、推論速度を飛躍的に向上させ、効率を高め、最先端キャッシュへのアクセスをAIコミュニティ全体に解放してイノベーションを加速させます。

AIコンテキストを無限にスケーリング

VUAは、注意メモリを共有EBスケールNVMeフラッシュへ拡張し、GPUメモリの制限を超えた大規模コンテキストをAIモデルが処理可能にします。これにより、First Token生成までの時間を最大90%短縮できます。

スマートキャッシュで最適効率を

部分コンテキスト一致を用いたインテリジェントなプレフィックスキャッシングにより、ヒット率が向上し、冗長性が削減されます。これにより、RAGのような高負荷AIワークロードでのGPUおよびCPUメモリ使用量が大幅に削減されます。

オープンキャッシュとグローバルアクセス

VUAのオープンソースでグローバルに共有されたアーキテクチャにより、すべてのGPUサーバーが拡張KVキャッシュにアクセス可能となり、負荷分散とアクセシビリティが強化されます。

無限のAIキャッシュ、無限のパフォーマンス

VUAは、GPUメモリを共有NVMeに拡張するオープンソースのグローバルKVキャッシュです。AIモデルに事実上無限のコンテキストを提供し、推論速度を飛躍的に向上させ、効率を高め、最先端キャッシュへのアクセスをAIコミュニティ全体に解放してイノベーションを加速させます。

AIコンテキストを無限にスケーリング

VUAは、注意メモリを共有EBスケールNVMeフラッシュへ拡張し、GPUメモリの制限を超えた大規模コンテキストをAIモデルが処理可能にします。これにより、First Token生成までの時間を最大90%短縮できます。

スマートキャッシュで最適効率を

部分コンテキスト一致を用いたインテリジェントなプレフィックスキャッシングにより、ヒット率が向上し、冗長性が削減されます。これにより、RAGのような高負荷AIワークロードでのGPUおよびCPUメモリ使用量が大幅に削減されます。

オープンキャッシュとグローバルアクセス

VUAのオープンソースでグローバルに共有されたアーキテクチャにより、すべてのGPUサーバーが拡張KVキャッシュにアクセス可能となり、負荷分散とアクセシビリティが強化されます。