AIインフラの常識を変える!SSDでGPUメモリを拡張し、AI開発コストを大幅削減する新技術「aiDAPTIV+」と「AI-Stack」とは?【Japan IT Week 2026出展】

AI(人工知能)の技術は目覚ましい速度で進化しており、私たちの社会やビジネスに大きな変革をもたらしています。しかし、その進化の裏側には、AIを動かすための膨大な計算資源、特にGPU(画像処理装置)のメモリ容量の制約や、高額な導入・運用コストという課題が常に存在していました。AI開発に携わる多くの企業が、これらの課題に頭を悩ませています。

このような状況の中、台湾のAIインフラソフトウェア企業であるINFINITIXと、ストレージソリューションのリーディングカンパニーであるPhison(ファイソン)が、画期的なソリューションを共同で開発しました。このソリューションは、SSD(ソリッドステートドライブ)を活用してGPUメモリを拡張するという新発想で、AIインフラのコスト効率と運用効率を劇的に向上させることが期待されています。

両社は、2026年4月8日から10日まで東京ビッグサイトで開催される「Japan IT Week 春 2026」の「TAIWAN Tech」パビリオンにて、この「異種計算資源の柔軟な最適配分とTCO最適化ソリューション」を共同で展示することを発表しました。AI開発の未来を拓くこの革新的な技術について、詳しく見ていきましょう。

Japan IT Weekのイベント告知。2026年4月8-10日に東京ビッグサイト西4Fで開催。INFINITIXとPHISONがTAIWAN TechのW20-22ブースに出展予定。

AIの発展とインフラが抱える課題

Gartnerが発表した「Top Strategic Technology Trends for 2026」でも指摘されているように、AIの発展は、単なる技術開発の段階から、それを支えるプラットフォームやインフラの管理へと焦点が移りつつあります。企業がAI競争で優位に立つためには、いかに計算資源を効率的に活用し、コストを抑えるかが重要な鍵となります。

現在のAI開発において、企業は主に二つの大きな課題に直面しています。

  1. GPUメモリ容量の制約と高コスト:大規模なAIモデル(例えば、ChatGPTのような生成AI)を学習させるには、膨大なデータとそれを処理するためのGPUメモリが必要です。しかし、高性能なGPU、特にHBM(High Bandwidth Memory)を搭載したGPUは非常に高価であり、導入コストが企業の大きな負担となっています。また、GPUメモリには物理的な上限があり、それを超えるモデルの学習には、より多くのGPUを導入するか、学習方法を工夫する必要がありました。
  2. 異種計算資源の管理の複雑性:AI開発では、NVIDIA製やAMD製といった異なるメーカーのGPUが使われることがあります。また、CPUやFPGA(Field-Programmable Gate Array)など、さまざまな種類の計算資源が存在します。これら異なる種類の資源を効率的に連携させ、一元的に管理することは非常に複雑で、運用コストもかさむ原因となっていました。

これらの課題を解決し、AI開発をより加速させるために、INFINITIXとPhisonは新たなアプローチを提案しています。

INFINITIXとPhisonが提案する革新的なAIインフラソリューション

この共同ソリューションは、INFINITIXのAIインフラソフトウェア「AI-Stack」と、Phisonの高速AI SSD技術「aiDAPTIV+」を組み合わせることで、上記の課題を根本から解決しようとします。

1. 異種計算資源を統合管理する「AI-Stack」

INFINITIXの「AI-Stack」は、AIインフラの管理を根本から変える中核製品です。このソフトウェアは、以下の特徴を持っています。

  • Kubernetesネイティブアーキテクチャ:Kubernetesは、コンテナ化されたアプリケーションのデプロイ、スケーリング、管理を自動化するためのオープンソースシステムです。AI-StackはKubernetesを基盤としているため、NVIDIAとAMDのGPU、さらにはPhisonの高速AI SSDといった、異なるブランドやアーキテクチャを持つ計算資源を柔軟に統合し、一元的に管理することができます。これにより、インフラ管理の複雑性が大幅に低減されます。

  • 柔軟なスケジューリングと動的配分:AI-Stackは、複数のノード(サーバー)にまたがって存在する計算資源を、AIタスクの要求に応じて柔軟にスケジューリングし、動的に配分する能力を持っています。これにより、特定のGPUがアイドル状態になることを防ぎ、資源の利用率を最大化します。

  • マルチテナントアクセス制御:複数のユーザーやチームが同じAIインフラを共有する場合でも、それぞれのアクセス権限を細かく設定し、安全かつ効率的に利用できる環境を提供します。

  • 集中監視と課金機能:AIインフラ全体の稼働状況や資源の利用状況をリアルタイムで監視し、各ユーザーやプロジェクトごとの利用量を正確に把握できる課金機能も統合されています。これにより、コスト管理が容易になり、透明性が向上します。

AI-Stackは、これらの機能を通じて、企業が単一のプラットフォーム上でAI計算資源を包括的に管理できるようになり、異種環境の統合や運用管理に伴う複雑さを大幅に軽減します。

2. SSDでGPUメモリを拡張する「aiDAPTIV+」

AI学習におけるGPUメモリ容量の制約は、特に大規模なAIモデルを扱う際に深刻な問題となります。高価なHBM GPUを大量に導入することは現実的ではない企業も多いでしょう。

ここでPhisonの「aiDAPTIV+」技術が登場します。aiDAPTIV+は、高速AI SSDをGPUメモリの動的な拡張に活用するという画期的なアプローチを採用しています。従来のシステムでは、GPUは自身の搭載メモリ内でのみデータを処理するのが一般的でした。しかし、aiDAPTIV+はストレージ層(SSD)をAI演算アーキテクチャに組み込むことで、GPUメモリが不足した際に、高速なSSDを仮想的なメモリとして利用できるようにします。

これにより、以下のようなメリットが生まれます。

  • 大規模モデル学習の実現:物理的なGPUメモリの限界を超えて、より大規模なAIモデルの学習が可能になります。高価なHBM GPUを全面的に導入することなく、高性能なAI開発環境を構築できます。

  • 計算資源利用効率の向上:GPUメモリの不足によってAI学習が停止したり、処理が遅くなったりする問題を解消し、GPUの稼働率を高めます。

  • 投資対効果(ROI)の最大化:高価なGPUの導入数を抑えつつ、必要なAI学習能力を確保できるため、AIインフラへの投資対効果が大幅に向上します。

  • 柔軟なインフラ構成戦略:企業の予算やAI開発のニーズに合わせて、GPUとSSDの組み合わせを柔軟に選択できるようになり、最適なインフラ構成を構築できます。

aiDAPTIV+は、ストレージを単なるデータ保存場所としてではなく、AI演算の一部として活用することで、AIインフラのボトルネックを解消し、より効率的でコストパフォーマンスの高いAI開発環境を提供します。

インテリジェントなオーケストレーションでTCOを最適化

この共同ソリューションのもう一つの重要な側面は、TCO(総保有コスト)の最適化です。TCOとは、製品やシステムの購入費用だけでなく、運用、保守、管理、エネルギー消費など、そのライフサイクル全体にかかる全ての費用を合計したものです。AIインフラのTCOを削減することは、企業の長期的な競争力に直結します。

AI-Stackは、計算資源のインテリジェントなオーケストレーションを通じて、TCO最適化を実現します。具体的には、AI-Stackはタスクの優先度に応じて計算資源を動的に配分します。

  • 高性能GPUの最適利用:最も高性能なGPUは、モデル学習やリアルタイム推論といった、高い処理能力が求められるタスクに優先的に割り当てられます。これにより、クリティカルなAIワークロードのパフォーマンスが保証されます。

  • SSD拡張アーキテクチャの活用:研究開発やオフライン処理など、即時性がそれほど要求されないタスクに対しては、SSD拡張アーキテクチャが活用されます。これにより、高価なGPUをこれらのタスクに占有させることなく、効率的に処理を進めることができます。

このような精緻な計算資源管理により、GPUの利用率が向上し、アイドル状態のGPUから発生する遊休コスト(使われていないのにかかる費用)が削減されます。結果として、多様なAIワークロード環境において最適なリソース配分が実現され、全体のTCOが大幅に削減されることになります。

日本市場での展開とEdge AI、データセンターの高度化

INFINITIXは、今回のPhisonとの協業が、単なるソフトウェアとハードウェアの統合にとどまらず、日本市場におけるデジタルトランスフォーメーション(DX)の推進、Edge AI(エッジAI)、そしてデータセンターの高度化という重要なトレンドにも対応するものであると強調しています。

日本では、DXの推進に伴い、企業はビジネスのあらゆる側面でAIを活用しようとしています。特に、工場や店舗、自動運転車など、データが発生する場所(エッジ)でリアルタイムにAI処理を行うEdge AIに対する需要が高まっています。Edge AIでは、低遅延での処理が求められるため、集中型クラウドだけでなく、エッジコンピューティングと分散型AIインフラの併存へと産業構造が移行しつつあります。

INFINITIXのAI-StackとPhisonのaiDAPTIV+を組み合わせることで、日本企業は限られたデータセンターのリソースの中でも、以下のようなメリットを享受できます。

  • 拡張性の高いAIインフラの構築:GPUメモリの制約に縛られることなく、必要に応じてSSDを活用してAI処理能力を拡張できるため、将来のAIモデルの進化にも柔軟に対応できます。

  • 性能とコストの両立:高価なGPUへの過度な投資を抑えつつ、高いAI処理性能を維持できるため、コスト効率の良いAIインフラ運用が可能になります。

  • AIアプリケーションの実装加速:インフラの制約が緩和されることで、企業はより迅速にAIアプリケーションを開発・導入できるようになり、DXを加速させることができます。

  • データセンターの高度化:既存のデータセンターリソースを最大限に活用し、AIワークロードに最適化された、より高性能で効率的なデータセンターへと進化させることが可能になります。

このソリューションは、日本企業がAIを活用した新たなビジネス価値を創出し、国際競争力を高めるための強力な基盤となるでしょう。

「Japan IT Week 春 2026」で最新技術を体験

INFINITIXとPhisonの革新的なAIインフラソリューションは、「Japan IT Week 春 2026」にて実際に展示されます。AI開発の課題解決やTCO最適化に関心のある方は、ぜひ会場に足を運び、この最新技術を直接ご覧ください。

展示会では、AI-Stackによる異種計算資源の統合管理や、aiDAPTIV+によるSSDを活用したGPUメモリ拡張のデモンストレーションなど、具体的なソリューションの仕組みやメリットを詳しく知る機会となるでしょう。

展示会情報

この展示会は、AIインフラの未来を考える上で見逃せないイベントです。AI初心者の方も、専門家の方も、この機会に最先端の技術に触れ、AIがもたらす可能性を実感してみてはいかがでしょうか。

まとめ

AIの進化は止まることを知りませんが、それに伴うインフラの課題もまた、常に変化し続けています。INFINITIXとPhisonが共同で開発した「AI-Stack」と「aiDAPTIV+」は、SSDでGPUメモリを拡張し、異種計算資源を一元管理することで、AI開発のコストと複雑性を大幅に削減する画期的なソリューションです。

この技術は、高価なHBM GPUへの依存度を下げ、大規模AIモデルの学習をより身近なものにするとともに、AIインフラの総保有コスト(TCO)を最適化します。日本市場におけるDX推進やEdge AIの需要の高まりにも対応し、企業がAIを最大限に活用するための強力な基盤を提供することでしょう。

「Japan IT Week 春 2026」での展示は、この革新的な技術を直接体験し、AIインフラの未来について考える絶好の機会です。AIの可能性を広げ、ビジネスを加速させたいと考えるすべての企業にとって、このソリューションはきっと、新たな扉を開くことになるでしょう。

AIインフラの効率化とコスト削減は、これからのAI時代において、企業競争力を高めるための不可欠な要素となります。INFINITIXとPhisonの共同ソリューションが、その実現に向けた強力な一歩となることに期待が集まります。

タイトルとURLをコピーしました