AI インフラストラクチャについて

URL をコピー

 

Red Hat OpenShift AI で、あらゆる環境での AI の導入を迅速化

Red Hat® OpenShift® AI が統合されたツール、反復可能なワークフロー、柔軟なデプロイメント・オプション、および信頼できるパートナーエコシステムを通して AI/ML モデルのライフサイクル全体とアプリケーションの提供をどのように加速するのかを、この動画でご確認ください。

 

AI インフラは、人工知能と機械学習 (AI/ML) 搭載のアプリケーションの構築、デプロイ、拡張に不可欠な技術スタックであり、スケーラビリティ、自動化などの利点があります。

日常生活において AI (人工知能) の存在感が増している中、効率的で効果的なワークフローを実現する構造が重要になっています。そのため、人工知能インフラストラクチャ (AI インフラストラクチャ) が必要となっています。

適切に設計されたインフラストラクチャは、データサイエンティストや開発者によるデータへのアクセス、機械学習アルゴリズムのデプロイ、ハードウェアのコンピューティング・リソースの管理を支援します。

AI インフラストラクチャは、人工知能と機械学習 (AI/ML) テクノロジーを組み合わせ、信頼できるスケーラブルなデータ・ソリューションを開発およびデプロイします。機械学習 (ML) を実現し、機械が人間のように考えられるようにするテクノロジーです。

機械学習は、明示的にプログラムしなくても、パターンを見つけ、予測し、経験から学習するようにコンピュータをトレーニングする手法です。生成 AI に適用でき、それを可能にしているのがディープラーニング (深層学習) です。ディープラーニングは、大量のデータを分析および解釈するための機械学習の手法です。

AI/ML とは何か、ビジネスにとってなぜ重要なのか

AI インフラストラクチャのテクノロジースタック 

テクノロジースタック、略してテックスタックは、ソフトウェア・アプリケーションの構築およびデプロイに使用されるテクノロジー、フレームワーク、ツールのセットです。見かけ上、これらのテクノロジーはそれぞれの上に積み重ねられ (スタック)、アプリケーションを構築します。AI インフラストラクチャのテクノロジースタックにより、3 つの基本レイヤーを通じてアプリケーションの開発とデプロイを迅速化できます。 

アプリケーションレイヤーは、固有のモデルを使用するエンドツーエンドのアプリケーションや固有ではないエンドユーザー向けのアプリケーションなどの基本的なワークフローツールで人間とマシンがコラボレーションできるようにします。エンドユーザー向けのアプリケーションは通常、オープンソース AI フレームワークを使用して構築され、カスタマイズ可能で特定のビジネスニーズに合わせて調整できるモデルを作成します。 

モデルレイヤーは、AI 製品の原動力となるチェックポイントで構成されます。このレイヤーにはデプロイメントをホストするソリューションが必要です。このレイヤーの基盤を提供する 3 つのモデルがあります。
汎用型 AI:人間のような思考と意思決定プロセスをまねた人工知能。ChatGPT や OpenAI の DALL-E などの AI アプリケーションが該当します。
特化型 AI:極めて限定的で関連性のあるデータでトレーニングされ、高い精度で実行される人工知能。広告コピーや歌詞の生成などのタスクが該当します。 
ハイパーローカル AI:その分野のスペシャリストとして設計され、最高レベルの精度と関連性を達成できる人工知能。科学記事の執筆や内装デザインのモックアップの作成などが該当します。

インフラストラクチャ・レイヤーは、AI モデルの構築とトレーニングに必要なハードウェアとソフトウェアのコンポーネントで構成されます。GPU などの専用プロセッサー (ハードウェア) や最適化およびデプロイツール (ソフトウェア) などのコンポーネントが、このレイヤーに該当します。クラウド・コンピューティング・サービスも、インフラストラクチャ・レイヤーの一部です。 

AI インフラストラクチャに含まれる 3 つのレイヤーを説明したので、次に AI モデルの構築、デプロイ、維持に必要なコンポーネントをいくつか見ていきましょう。 

データストレージ

データストレージとは、デジタル情報 (アプリケーション、ネットワークプロトコル、ドキュメント、メディア、アドレス帳、ユーザー設定などを構成する情報) を収集および保持するものです。AI のトレーニングと検証に必要となる量のデータを保管、整理、取得するためには、強力なデータストレージおよび管理システムが重要です。

データ管理

データ管理は、データを収集し、保存し、使用するプロセスで、その実現には多くの場合、データ管理ソフトウェアが使用されます。データ管理により、組織が所持するデータの内容、保存場所、所有者、閲覧権限を持つ人、およびアクセス方法を把握できます。適切に制御および実装されたデータ管理ワークフローがあれば、よりよい意思決定を行うために必要な分析的知見を得ることができます。

機械学習フレームワーク

機械学習 (ML) は人工知能 (AI) のサブカテゴリで、アルゴリズムを使用してパターンを識別し、一連のデータ内で予測を行います。機械学習フレームワークは、機械学習モデルの設計、トレーニング、検証のためのツールとライブラリを提供します。 

機械学習運用 

機械学習運用 (MLOps) とは、機械学習 (ML) モデルの作成、保守、監視のプロセスを最適化することを目的としたワークフローの一連のプラクティスです。DevOps や GitOps の理念にヒントを得た MLOps は、ML モデルをソフトウェア開発プロセスに統合するための継続的で常に変化するプロセスを確立しようとしています。

適切に設計された AI インフラストラクチャは、AI および機械学習 (ML) 運用を成功させるための道筋を作ります。イノベーションと効率性を促進します。 

メリット

AI インフラストラクチャには、AI 運用および組織にとっていくつかのメリットがあります。メリットの 1 つはスケーラビリティで、特にクラウドベースの AI/ML ソリューションでは、運用をオンデマンドでアップスケールおよびダウンスケールする機会を得られます。もう 1 つのメリットは自動化で、反復作業のミスを減少し、成果物の提供スピードを改善できます。 

課題

AI インフラストラクチャにはメリットがありますが、いくつかの課題もあります。最大の課題の 1 つが、処理する必要があるデータの量と品質です。AI システムの学習と意思決定には大量のデータが必要であるため、従来のデータストレージおよび処理手法は、AI ワークロードの規模と複雑さを処理するには不十分な可能性があります。もう 1 つの課題は、リアルタイムの分析と意思決定の要件です。この要件は、インフラストラクチャはデータをすばやく効率的に処理しなければならないということで、大量のデータを処理する適切なソリューションの統合を考慮に入れる必要があります。

アプリケーション

これらの課題に対処できるアプリケーションがあります。Red Hat® OpenShift® クラウドサービスを利用すると、アプリケーションを素早く構築、デプロイ、スケーリングできます。プロアクティブな管理とサポートにより、一貫性とセキュリティを向上させることで効率も向上できます。Red Hat Edge は、データが収集される場所の近くにデプロイし、実用的な知見を取得するための助けになります。

AI は私たちの日常生活だけでなく、組織にも影響を与えています。Red Hat のオープンソース・プラットフォームはさまざまな分野や業界で新たな発見や体験の原動力となり、AI モデルとアプリケーションを構築、デプロイ、監視し、会社の未来を主導するために役立ちます。

Red Hat OpenShift AI は、データサイエンティスト、エンジニアおよび開発者がより迅速に、かつ効率的にプロジェクトをビルドし、デプロイし、統合できるようにするための柔軟な環境を提供します。組み込み型のセキュリティやオペレーターのライフサイクル統合なども Red Hat OpenShift AI のメリットに​含まれます。Jupyter-as-a-service と、関連する TensorFlow、Pytorch、その他のフレームワークライブラリが提供されます。さらに、数社のソフトウェア・テクノロジー・パートナー (Starburst、IBM、Anaconda、Intel、NVIDIA) が AI サービスに統合され、データ獲得からモデルの構築、モデルのデプロイ、監視まで、新しいツールを見つけて試すのが容易になりました。このすべてを先進的なクラウドネイティブ環境で行えます。

Red Hat の AI パートナーは、Red Hat インフラストラクチャを基盤として、AI/ML アプリケーション開発を完了および最適化します。データの統合と準備から、AI モデルの開発とトレーニング、新しいデータに基づくモデルの提供と推論 (予測の作成) に至るソリューションを使用した AI ライフサイクルの完成を支援します。 

関連資料

記事

生成 AI とは

生成 AI は、大規模なデータセットで訓練されたディープラーニングモデルを使用して新しいコンテンツを作成します。

記事

機械学習とは

機械学習は、明示的にプログラムしなくても、パターンを見つけ、予測し、経験から学習するようにコンピュータをトレーニングする手法です。

記事

基盤モデルとは

基盤モデルは、さまざまなタスクを実行するように訓練された機械学習 (ML) モデルの一種です。 

AI/ML についてさらに詳しく

製品

新規

エンタープライズアプリケーション向けの Granite 大規模言語モデル (LLM) ファミリーをシームレスに開発し、テストし、実行するための基盤モデルプラットフォームです。

AI に重点を置いたポートフォリオであり、Red Hat OpenShift 上で AI/ML 実験やモデルをトレーニング、チューニング、提供、監視、管理するためのツールを提供します。

統合されたテスト済みのサービス一式を備えたエンタープライズ・アプリケーション・プラットフォームであり、ユーザーの選ぶインフラストラクチャを使ってアプリケーションを市場に投入するために活用できます。 

Red Hat Ansible Lightspeed with IBM watsonx Code Assistant は、Ansible の自動化作成者、運用担当者、および開発者によって、彼ら自身のために設計された生成 AI サービスです。 

関連資料

e ブック

本番利用に適した AI/ML 環境構築のための最重要事項

アナリスト資料

MLOps 向け Red Hat ハイブリッドクラウド・プラットフォームの Total Economic Impact™

Web セミナー

オープンソースと Kubernetes で AI を最大限に活用する