ボトリング施設のコンベアーに置かれた、水が充填された紺色キャップ付きペットボトルの光景。ティール色のキャップ付きボトル上に黄色の四角い輪郭線が表示されており、コンピューター・ビジョン・システムが商品の不一致を警告している

エンタープライズ AI ソリューションを迅速かつ安全に導入

AI 強化された機能へのシンプルなアプローチを見つけるためのヒント、インサイト、戦略をご紹介します。

AI 導入の課題を克服

エンタープライズ組織は、競争で優位に立ち、収益性と効率性を最大化し、顧客体験を向上させるのに役立つ AI 強化された新機能をいち早く導入しようと競争しています。

しかし、多くのソリューション・アーキテクト、開発者、テクノロジー業界のリーダーが気付き始めたように、エンタープライズ AI プロジェクトを概念実証から本番環境に導いていくのは容易な作業ではありません。企業はこの取り組みの過程で、拡張可能で適切なサイズの AI インフラストラクチャーの構築、プライバシーとセキュリティーの保護、ソリューション開発期間の最適化などさまざまな課題に直面します。

これらの課題を解決し、新たに現れる AI の落とし穴を回避するために、本記事では、エンタープライズ AI ソリューション構築に不可欠な考慮事項、インサイト、ヒントを紹介します。また、成果の向上に役立つインテルのハードウェアおよびソフトウェアも取り上げます。

ゼロから構築する場合、構築済みコンポーネントからソリューションを作成する場合、既製の製品を購入する場合のいずれにおいても活用できる、エンタープライズ AI への取り組みを効率化する方法を次にご紹介します。

必要なければ専用ハードウェアに投資しないこと

多くの技術者の間には、AI ワークロードに GPU または特殊なディスクリート AI アクセラレーターが必要であるという誤解があります。簡単に言えば、これは真実ではありません。このような間違った認識は、企業に対して AI を実現するためには大規模なハードウェア投資が当然だと思わせ、AI イニシアチブは自社のビジネスにとってコストがかかりすぎるとの判断に至ることがあります。

例えば、古典的機械学習のワークロードは、ディスクリート・アクセラレーターの恩恵をあまり受けないため、ロジスティック回帰、決定木、線形回帰などのアルゴリズムでは、CPU が非常に効率的な選択肢となります。

GPU (ライセンスを含む) などの高度な機器に労力とリソースを投資する前に、ワークロードが実際に何を求めているのかを必ず調査することが必要です。データセンターやエッジの AI ワークロードは、インテル® Xeon® スケーラブル・プロセッサーを使用してサポートできる場合があります。このプロセッサーには AI エンジンが内蔵されており、学習と推論の両方で AI ワークロードを大幅に高速化することができます。

インテル® Xeon® スケーラブル・プロセッサーに搭載されている 2 つの AI エンジンにより、CPU のみのアーキテクチャーを使用して、強力な AI パフォーマンスを実現できます。

 

インテル® Xeon® スケーラブル・プロセッサーのみで AI ワークロードを実行することで、企業はエネルギー効率を向上させながらハードウェアのコストを削減できます。同時に、開発者にとっても専用ハードウェアの複雑さを回避し、コードやアプリケーションの変更の必要性を最小限に抑えることができるというメリットがあります。企業はすでにインテル® Xeon® スケーラブル・プロセッサーに投資している可能性が高いため、AI への採用は容易な選択となります。

インテルは、あらゆる種類の極めて高性能な AI ソリューションを提供していますが、ほとんどの企業に対してインテル® Xeon® スケーラブル・プロセッサーから始めることをお勧めしています。エッジからクラウドまで使用でき、企業の AI への取り組みの成果を最大化するのに役立ちます。

また、インテルは、RedHatVMware など主要なエンタープライズ・インフラストラクチャー・プラットフォーム・プロバイダーとも協業し、エッジからクラウドまでのパフォーマンスを高速化しながら、AI の柔軟性と効率性を最大化しています。

要求の厳しいワークロードについては、NVIDIA H100 以外も検討してみる

インテル® Xeon® スケーラブル・プロセッサーは、低・中程度に複雑なタスクに対応できますが、ユースケースによっては、専門のハードウェアを追加のレイヤーとして必要とする負荷の高いワークロードが含まれる場合があります。AI のユースケースの負荷が高い場合、GPU または専用の AI プロセッサーのいずれかで、強力なディスクリート・アクセラレーターが必要となることがあります。

もちろん、ここで最も重要なポイントはパフォーマンスと効率であり、インテルのテクノロジーは競合製品と比較して強固な優位性を提供します。例えば、インテル® Gaudi 3 AI アクセラレーターは、以下のパフォーマンスを実現します。

 

  • 平均で NV H100 よりもトレーニング時間が 1.5 倍高速1
  • 平均で NV H100 よりも推論が 1.5 倍高速2
  • 平均で NV H100 よりも推論の電力効率が 1.4 倍高い3

インテル® AI データセンター製品のパフォーマンス統計の詳細は、こちらをご覧ください。

ソフトウェア・ツールは、AI の「秘密兵器」

AI ソリューションをゼロから構築するにしても、事前構築済みの要素を活用してソリューションを構築するにしても、AI のソフトウェア開発とモデル・トレーニングの要素がハードウェアと同じぐらい重要であることは容易に想像できます。この認識は、ほとんどのエンタープライズ AI イニシアチブが直面する異種アーキテクチャーをサポートしようとする場合に特に重要です。

価値実現までの時間を短縮するために、インテルは、専用ソフトウェア・ツール、リファレンス・キット、最適化されたフレームワークとライブラリー、事前構築済みのソリューション要素の幅広いポートフォリオを提供しています。インテルの AI 開発リソースを使用することで、開発者の生産性の向上、パフォーマンスの最適化、AI 機能導入の柔軟性を高めることができます。

インテルでは、エンタープライズ AI イニシアチブに大きなインパクトを与える以下のような、さまざまなツールを提供しています。

 

さらに、重要なエンタープライズ AI ユースケースに対応した、強力なトレーニング・キットとリファレンス・キットも提供しています。

 

また、Accenture と共同で構築した、AI リファレンス・キットのフルスイートもぜひご覧ください。

インテルは堅牢なソフトウェア・ツールのポートフォリオを提供するだけでなく、Linux Foundation Open Platform for Enterprise AI (OPEA) でも重要な役割を果たしています。OPEA では、生成 AI テクノロジーとワークフローを効率的に統合するエコシステム・オーケストレーション・フレームワークの開発を支援しており、共同開発による迅速な導入とビジネス価値の向上につながっています。インテルの貢献には、次のフレームワークを含む一連のリファレンス実装が含まれます。

 

  • インテル® Xeon® スケーラブル・プロセッサーとインテル® Gaudi® AI アクセラレーターを搭載したチャットボット
  • インテル® Gaudi® AI アクセラレーターを使用したドキュメントの要約
  • インテル® Gaudi® AI アクセラレーターにおける画像に対する質問への回答 (VQA)
  • インテル® Gaudi® AI アクセラレーターの Visual Studio Code でのコード生成向けに設計された Copilot

基盤モデルをカスタマイズしてイニシアチブを加速

AI のユースケースはどれもユニークなものであり、その多くはある程度のモデル・トレーニングを必要とします。幸いなことに、トレーニングをゼロから始める必要はありません。

基盤モデルとも呼ばれるオープンソース・モデルは、AI 機能の出発点となります。これらのモデルは、AI ソリューションの特定のニーズに合わせて、カスタマイズして微調整することができます。全体として、基盤モデルを微調整するプロセスは、ゼロから構築するよりも簡単で高速です。この基盤モデルを微調整するアプローチにより、競争相手と競争する際の貴重な時間を節約することができます。

インテル® Xeon® スケーラブル・プロセッサーは、モデルの微調整に最適なプラットフォームであるため、AI 開発者は次のことができます。

 

  • 内蔵のインテル® アドバンスト・マトリクス・エクステンション (インテル® AMX) アクセラレーターにより、PyTorch のリアルタイム推論とトレーニングのパフォーマンスが最大 10 倍向上4
  • DistilBERT などの自然言語処理 (NLP) モデルを 4 分未満で微調整できるため、専用のアクセラレーターの必要性を軽減または排除可能5
  • ディープラーニング最適化パッケージの DeepSpeed と組み合わせて、Llama 2 大規模言語モデル (LLM) のプロンプト待ち時間を短縮。

主要な AI ユースケース向けに押さえておきたい一般的な基盤モデルは次の通りです。

 

  • コンピューター・ビジョン: CLIPYOLO
  • 生成 AI: ChatGPT および Llama 2
  • 自然言語処理: ChatGPT、Llama 2、BERT

移転学習とも呼ばれるオープンソースのモデルをカスタマイズするプロセスについて、詳細をご確認ください。また、Hugging Face とのコラボレーションによる開発者向けリソースもぜひご覧ください。

検索拡張生成で生成 AI モデルのカスタマイズを迅速化

生成 AI アプリケーションを導入しようとする企業は、RAG を活用することで、AI から価値を得るための時間を短縮することができます。

RAG 手法では、基盤となる大規模言語モデルをナレッジベース (多くの場合、企業固有の独自データ) に接続し、関連するコンテキストと情報を注入します。このアプローチを取ることで、カスタマイズした AI 機能を実現しながら、モデルの追加トレーニングの必要性を回避し、イニシアチブの全体的なコストと複雑さを軽減できます。

RAG の実装方法の詳細については、こちらの記事をご覧ください

専門家をデータ・サイエンティストに変える

チームの専門知識を活用し、インテリジェントな AI 機能に変換することは、多くの企業組織にとって大きなハードルです。特にチームが技術志向でない場合、データサイエンスに慣れてない場合はなおさらです。

コンピューター・ビジョン・アプリケーション向けに、インテルはデータ・サイエンティストでなくてもより簡単にモデルの学習を支援できる、インテル® Geti™ プラットフォームを提供しています。インテル® Geti™ プラットフォームでは、データラベリングとアノテーションが容易にに行えるので、チームの専門知識を活用して、より優れた、より正確なコンピューター・ビジョン・ソリューションを簡単に作成できます。インテル® Geti™ プラットフォームは、モデルのエクスポート、再トレーニング、ハイパーパラメーターの最適化に完全対応しているため、異常検出、分類、オブジェクト検出など、コンピューター・ビジョンの重要なユースケース向けにエンドツーエンドのソリューションとして使用できます

セキュリティーとコンプライアンスにコンフィデンシャル・コンピューティングを適用

セキュリティーと法規制のコンプライアンスは、新しい AI 時代を舵取りしている企業にとっては重要な懸念事項であり、特にモデルのトレーニング中に複数の機密データセットをまとめる必要がある場合ではなおさらです。

実行されている場所に関係なく、機密データとワークロードを保護するために、インテルはインテル® Xeon® スケーラブル・プロセッサーの主な機能として、コンフィデンシャル・コンピューティングの機能スイートを提供しています。これらのテクノロジーは、分離、暗号化、制御、検証機能により、使用中のデータを保護するように設計されており、新たなエンタープライズ AI のビジネスチャンスを生み出すのに役立ちます。

インテルのコンフィデンシャル・コンピューティングのポートフォリオには、次のものが含まれます。

 

エンドユーザーの AI 対応 PC 資産を評価

AI のユースケースに、組織内のエンドユーザーがローカルで AI ワークロードを実行することが含まれる場合は、PC 資産の AI 適合性を評価する必要があります。AI ワークロードは新たな需要をチームの日常使用のノートブック PC とデスクトップ PC にもたらしますが、これらのマシンのパフォーマンスが低下すると AI 機能へのアップストリーム投資を損なう可能性があります。

AI 対応 PC への投資を効率化するために、インテル® Core™ Ultra プロセッサーを提供しています。このプロセッサーは、3 つの異なるコンピューティング・エンジンを単一のパッケージに組み込みエンドユーザーの AI パフォーマンスを大幅に向上させます。このプロセッサーには、持続的で頻繁に使用される AI ワークロードを低消費電力で処理できる統合ニューラル・プロセッシング・ユニットが含まれ、効率性を高めています。インテルは、100 社以上の ISV パートナーと 300 を超える AI アクセラレーション機能に関して連携し、音響効果、コンテンツ作成、ゲーム、セキュリティー、ストリーミング、動画を使ったコラボレーション等で PC 体験を強化しています。

インテルで AI をあらゆる場所に届ける

企業には、AI 機能を通じてイノベーションを実現しなければならないというプレッシャーがかかっています。インテルには、イノベーションを迅速かつ効率的に実現するためのサポート体制が整っています。常に業界をリードする企業組織と協業し、必要とされる AI 機能を最大限の効率、パフォーマンス、セキュリティーで実現できるよう支援しています。

また、インテルは企業が AI による変革を実現するために依存している ISV、OEM、SI、AI スペシャリスト、クラウド・プロバイダーとも連携しています。インテルとエコシステム・パートナーのコンポーネントを基盤とした拡張性の高いシステムにより、企業は AI を容易に導入できます。インテルのプラットフォームをお選びいただくと、世界中の革新的な組織のために AI 導入を実現してきた長年の実践的な経験から恩恵を受けることができます。インテルの広範で奥行きのあるパートナー・エコシステム、お客様が現在、そして将来に向けて AI の成果を提供するために必要なオープン性と相互運用性を保証します。

AI の可能性を検討するに当たり、インテル® Tiber™ デベロッパー・クラウドを使用して、本記事で取り上げたインテルのテクノロジーの多くを試用できることを念頭に置いておいてください。

また、インテル® パートナー・ショーケースでは、AI パートナーのエコシステムで提供される製品もご覧いただけます。