リビングルームのソファで、2 人が隣り合って座っています。1 人は、テレビリモコンを使用して、薄型テレビに表示されたストリーミング・サービス選択メニューを操作しています。

推奨システム: AIを使用して、関連性と価値を向上

強力な AI ハードウェアおよびソフトウェア・ソリューションを使用して、適切なコンテンツを適切なユーザーにマッチさせる推奨 (またはリコメンダー) システムで、高いユーザーエンゲージメントと販売を促進します。

推奨システムの要点

  • 推奨システムは、AI を使用して、エンドユーザーに関連した、所望のコンテンツ、製品、サービスをご提案します。

  • 優れた推奨システムとは、正確でコスト効率の高いものです。

  • リコメンダーは、いくつかの AI モデルを組み合わせて、分類、リコール、ランキングを行います。

  • ワークロード負荷の高いリコメンダーシステムは、データセンター・インフラストラクチャーの並列化により、AI トレーニングと推論を調整します。

  • リーディング・リコメンダーは、インテル® GPU、AI プロセッサー、高コア数プロセッサー、最適化されたソフトウェアを組み合わせたものを活用しています。

author-image

投稿者:

推奨システムは、ユーザーエンゲージメントを維持します

推奨システムまたはレコメンダー・システムとは、エンドユーザーに製品、コンテンツ、サービスを提案する AI ワークフローです。最も一般的なタイプの AI リコメンダー・システムは、ストリーミングと E コマース・プラットフォームで使用されるコンテンツ・リコメンダーです。

これらのシステムは、協調フィルタリングなどのテクノロジーを組み合わせて、特定のエンドユーザーが見たいであろう映画やテレビシリーズや購入したくなるような新製品に対する親和性を推定します。リコメンダー・システムが、エンドユーザーをプラットフォームにエンゲージメントさせることで、エンドユーザーはコンテンツを消費しながら、購読、製品の購入、広告の表示を続けます。

優れたリコメンダー・システムとは?

推奨システムの有効性は、精度、応答性、コストという、3 つの要因に大きく依存します。

  • 精度とは、エンドユーザーの興味と嗜好に十分にパーソナライズされた推奨をすることを指します。リコメンダーは、エンドユーザーが、推奨の良し悪しを示せる、例えば単純な Good または Bad などの評価ができるフィードバック・メカニズムを一体化して、AI の学習を強化することで、精度を向上することができます。
  • 応答性とは、新しいオプションを迅速に提示し、ユーザーのエンゲージメントを維持する、リコメンダーの能力を指します。長いロード時間やプラットフォームとのエンゲージメントの障害は摩擦と呼ばれ、摩擦が増加すると、ユーザーのログアウトまたはプラットフォームからの離脱が増加します。
  • コストとは、推奨システムの初期投資または CapEx を指し、継続的な運用支出または OpEx とのバランスを保ちます。コスト効率はまた、ユーザーの需要を満たすためにワークロードを調整し、ダウンタイムを最小限に抑え、クラウド環境全体でワークロードを管理することも考慮します。

推奨システムを使用するのは誰か?

ほとんどの推奨システムは、コンシューマー向けであり、オンライン・ショッピングを利用するユーザーに製品をお勧めする eコマース、フィードまたはタイムラインでコンテンツやクリエーターをお勧めし、アイテムを注文するソーシャルメディア、ユーザーのプラットフォーム購読を維持するために興味を引きつけるコンテンツをお勧めするストリーミング・エンターテインメントにおいて優れています。パーソナライズされたバンキングは、新たに出現したユースケースの一例で、銀行が顧客ベースを拡大するために、新しいタイプの口座、投資、その他のサービスを推奨します。

推奨システムの仕組み

リコメンダー・モデルとは、いくつかの異なる AI モデルとデータ分析ワークフローのパイプラインです。このパイプラインは、チェーン内に最大 100 以上の異なるプロセスを含めることができ、ユーザーごとに統合された予測を提供します。任意のリコメンダー・ワークフローには、一般的に次の 3 つの段階があります:

  • 分類: これらのモデルは、コンピューター・ビジョンと自然言語処理 (NLP) を使用して、コンテンツの一部の要素を分類します。
  • リコールと類似性検索: これらの処理は、アイテムまたはオブジェクト間で異なるカテゴリーの類似の特徴を集めて整理します。
  • ランキング: リコメンダーは、しばしば Wide & Deep、または DLRM ディープラーニング・モデルを使用して、関連性別にアイテムを注文します。

推奨システムに適したインフラストラクチャー

推奨トレーニングと推論ワークロードは、ほとんどの場合、オンプレミスまたはクラウド内のいずれかのデータセンター・サーバーで実行されます。推奨システムを設計して導入する場合、システム・ビルダーとソリューション・プロバイダーが直面する主な課題には、ワークロード密度の増加、使用率のバランス、成果への時間短縮があります。ソフトウェア・エンジニアにとって、クラウドとオンプレミスの両方で、効率的な運用のためにコードを最適化しながら、エンドユーザーに正確で関連性のある迅速な結果を返すことが最も大きな課題となります。

インテルは、あらゆる段階とあらゆるスケールで AI リコメンダーを強化

これらの推奨システムの課題を解決し、企業全体でコンセプトから生産に迅速に移行するため、インテルはアーキテクチャー以上のものを提供します。インテルは、全世界的に、リコメンダー・システムなど、AI を専門とする経験豊富なソフトウェア・デベロッパーを多数採用しています。また、インテルは、ハードウェアとソフトウェアの専門技術を組み合わせて、チューニングされたプラットフォームで AI リコメンダー・システムを最適化することにより、特別なアドバンテージをもたらします。

これらの強化は、すでに世界中の企業の推奨システムを大幅に向上させています:

インテル® AI 最適化により、どのように Taboola 広告の推奨パフォーマンスが 2.5 倍向上したかを読む

インテル® AI 最適化が、どのように Yahoo! Japan ショッピングの推奨を 3.5 倍向上させたかを読む

デベロッパーとシステム・ビルダーは、リファレンス・アーキテクチャーの形式と、PyTorch や TensorFlow など、人気のフレームワークをインテルが最適化したバージョンという、よく理解された成功のレシピのメリットを得ることができます。企業は、導入までの高速化、顧客またはユーザーエンゲージメントの向上、売上または広告収益の増加といったメリットを得ることができます。

幅広い推奨システム・ハードウェアは、コンピューティングをニーズに合わせて調整します

データの準備後、AI リコメンダー・システムは、多くの手順が含まれたモデル・トレーニングと導入推論の 2 つの段階で実装されます。アーキテクチャーの要件は、ステージごとに異なります。モデル・トレーニングは、より多くの並列化により高速化されますが、モデルが最適化されると計算の負荷が少なくなります。導入されると、大きなモデルと大容量のデータを管理するために構築された、高コア数、高メモリー容量の CPU で、リコメンダー推論を効率的に実行します。

  • リコメンダー AI のモデル・トレーニング: Habana® Gaudi® プロセッサーとインテル® MAX シリーズ GPU が、高速な AI モデル・トレーニング・ワークロードのための高い並列化をサポートします。
  • リコメンダー AI のモデル・トレーニングと推論: インテル® Xeon® スケーラブル・プロセッサー・ファミリーは、AI トレーニングと推論1 に最適な CPU であり、パブリック・クラウドですぐに利用できます。
  • リコメンダー AI の高速化: 最新世代のインテル® Xeon® スケーラブル・プロセッサー・ファミリーは、内蔵されたインテル® AI エンジンも搭載しており、ハードウェアを追加することなく、成果を出すまでの時間を短縮します。これらのエンジンは、ハードウェアの要件を下げながら、AI のパフォーマンスを向上させることで、TCO を削減することができます。AI チューニング・ガイドは、これらの内蔵 AI アクセラレーターを活用するための便利な手引書です。
  • リコメンダー・ワークロード向けの統合されたセキュリティー機能: メモリー内のデータを保護し、特にマルチテナント・クラウド環境におけるリコメンダー・システムの保護をさらに強化するインテル® ソフトウェア・ガード・エクステンションズ (インテル® SGX) などの革新的なセキュリティー機能を、インテルのみが提供します。ハードウェアレイヤーから始まるセキュリティーの観点により、組織の機密データおよびモデルの保護と、プライバシー規制の遵守をサポートします。

エンドツーエンドの AI パイプライン・ソフトウェアで推奨システムを構築

PyTorch や TensorFlow など、人気の AI フレームワークのインテルによる最適化は、インテル® アーキテクチャーのパフォーマンスを向上させ、ストック実装を上回り、トレーニングと導入にかかる時間を短縮します。デベロッパーは、クイック・スタート・ガイドにアクセスし、これらの強力なツールをほんの数行のコードで導入する方法を学ぶことができます。

小売りのユースケースの場合、インテルは、プロジェクトをすぐに開始するためのトレーニング・データ、モデル、ライブラリーを含むリコメンダー・リファレンス・キットもさらに提供します。このキットは、インテル® ハードウェアでの機械学習ワークロードのためのチューニングされたソフトウェア・パッケージと組み合わせて、導入を成功させたことで得られた知識を反映しています。デベロッパーは、GitHub でキットにアクセスできます。

また、インテルは、いくつかの AI ソフトウェア・ベンダーと協力して、インテル® アーキテクチャーのパフォーマンスを最適化します。ロータッチ・ソリューションについては、Hugging Face またはインテル® ソリューション・マーケットプレースでインテルのプロファイルをご覧ください。

インテルの AI 推奨システムをあらゆる場所に導入する

インテルは、コミュニティ・ハブと業界のリーダーシップを提供し、AI リコメンダー・システムの設計と開発への取り組みにおけるイノベーションを加速します。コードと最適化にアクセスし、AI 導入を成功させる主要な機能を備えた、関連ハードウェアソリューションに関するヒントを獲得します。

リソース、ソフトウェア、トレーニング、ディスカッションが満載のコミュニティであるインテル® デベロッパー・ゾーンにご参加ください

オンライン・サンドボックスのインテル®ハードウェア・ソリューションのフルポートフォリオでAIパフォーマンスのテストと測定をしましょう

よくある質問 (FAQ)

よくある質問

推奨システムは、エンドユーザーに、関心がある可能性のあるコンテンツ、製品、サービスのパーソナライズされた提案を提供するための AI 対応アプリケーションです。効果的なリコメンダーは、正確で関連性のある提案を提供し、信頼性が高く、高速でコスト効率が優れています。

推奨システムは、いくつかの AI モデルからなるチェーンを使用して、いくつかのデータセットの分類、リコール、ランキングを実行し、各エンドユーザーにパーソナライズされた結果を提供します。単一のシステムが、最大 100 以上の異なるモデルを採用できます。