Seekr のロゴ

Seekr: 大規模なコンテンツの評価と生成に向けた信頼性の高い LLM の構築

インテル® デベロッパー・クラウド [インテル® Tiber™ AI クラウド] により、AI 企業は最先端かつコスト効率に優れた AI アクセラレーション・プラットフォーム上で、革新的なソリューションを構築、トレーニング、展開できるようになります。

概要:

  • Fast Company によって 2024年の最も革新的な企業の 1 つに選ばれた Seekr は、インテル® Tiber™ AI クラウドを使用して、コスト効率に優れたクラスター上で高度な LLM を構築、トレーニング、展開しています。

  • クラスターは、インテル® Gaudi® 2 AI アクセラレーターを含む最新のインテルのハードウェアとソフトウェアで実行されます。

  • AI を高速化するこの戦略的なコラボレーションは、Seekr がクラウドのコストを削減し、ワークロードのパフォーマンスを向上させながら、高まり続けるコンピューティング能力の需要に応えるのに役立ちます。

  • Seekr のような急成長する企業にとって、インテル® Tiber™ AI クラウドのような最先端の AI アクセラレーション・プラットフォーム上で AI ソリューションを拡張できる能力が、イノベーションを急速に推進する鍵となります。

インテル® Tiber™ AI クラウド
クラウド、エンタープライズ、クライアント、エッジの展開向けに、AI および HPC アプリケーションを構築およびテストするための、最新のインテルのハードウェアとソフトウェアにアクセスできるクラウド環境。
cloud.intel.com

Seekr
seekr.com

信頼できるブランドを構築するには、考え抜かれたコンテンツ戦略が必要です。コンテンツ制作とメディアの整合性は、ブランドセーフで、対象となるユーザーに適している必要があります。しかし、膨大な量のデジタルコンテンツと多様なチャネルにより、企業が配信するコンテンツがブランド基準を一貫して維持することはほぼ不可能です。

Seekr は、SeekrAlign* により、広告業界におけるこの問題の解決を支援しています。SeekrAlign* は、独自のスコアリングと分析テクノロジーを活用して、ブランドが最適なオンラインコンテンツを見つけ、責任ある方法でリーチを拡大できるよう支援するソリューションです。

Seekr の市場初の AI ソリューションは、インテル® Tiber™ AI クラウドの 8 ノードのインテル® Gaudi® 2 AI アクセラレーターのクラスター上で構築、トレーニング、展開され、幅広い業界の一流ブランドの顧客リストをすぐに獲得しました。Moderna や SimpliSafe から Babbel まで、企業は AI ソリューションを使用して事業の課題を解決することの価値を認識しています。インテル® Tiber™ AI クラウドの AI アクセラレーション・プラットフォームは、この動きの最前線にあり、企業はインテルの最新ハードウェアとソフトウェアのコスト効率に優れたクラスターを活用して、AI 戦略を加速し、拡張することができます。

AI の課題と機会

誤情報、幻覚、不適切なコンテンツにより、ブランドの信頼は瞬く間に損なわれるかもしれません。危険なコンテンツをホストするプラットフォームと不用意に関連付けることでさえ、ブランドの評判を危険にさらす可能性があります。そのため、多くの企業は配信するコンテンツを厳格にスクリーニングしています。この方法は、時間と費用がかかるだけでなく、信頼性が低く、非常に主観的です。

ポッドキャストは主要なユースケースの一つです。ポッドキャストの人気は近年急激に増加しており、多くの企業にとってポッドキャストはコンテンツ戦略と広告収益に欠かせない一部となっています。残念なことに、ブランドにとってポッドキャストは特に難しい状況にありました。これまで個々のエピソードを評価する信頼できる方法が、人間の努力以外になかったからです。

SeekrAlign は、企業が数十万のポッドキャストを迅速かつ正確にスクリーニングできるようにすることで、この課題を解決します。「Align は、世界クラスのエンジニアリングと革新的で透明性の高い評価を組み合わせることで、安全で適切なポッドキャストの検索を簡素化しています。これにより、ブランドは微妙なニュアンスをナビゲートできるようになりし、より明確かつ迅速に、自信を持ってオーディオ・キャンペーンを展開することができます」とポッドキャスト広告代理店 Oxford Road の CEO である Dan Granger 氏は述べています。1

Align のユーザーフレンドリーなダッシュボードでは、ポッドキャストのコンテンツを 0 ~ 100 のスケールで評価できます。GARM のブランド安全性フレームワークに基づく、この特許取得済みの格付けシステム「Seekr Civility Score™」は、マーケティング担当者や広告主に、コンテンツの安全性と適切性を判断する客観的な基準を提供します。「このような大規模な課題は、優れたコンピューティング・パワーと斬新な信号検出技術を組み合わせることでしか解決できませんでした」と Seekr の社長兼最高技術責任者である Rob Clark 氏は述べています。「Civility Score は、何十もの考慮事項を 1 つの指標に統合し、よりブランドに適した機会とより多くのオーディエンスへの扉を開きます」2

Align プラットフォームでは、すでに 2,000 万分のポッドキャストを評価されており、その数は 2024年末までに 4,000 万分に達すると予測されています。さらに、このプラットフォームでは、8,000 以上のポッドキャストのエピソード、合計 1,000 万分以上の音声をリアルタイムで評価しています。「AI が責任と透明性を保って適用されれば、この技術が開発と進化を続ける中で、実際のビジネス課題を解決できることを示しています」と Clerk 氏は述べています。「最も厄介な社会問題のいくつかを解決し、驚異的なスピードと精度でビジネスの成長を促進するのに役立つ先進的な LLM の開発など、継続的なイノベーションを通じて、この成功をさらに発展させることを楽しみにしています。」3

クラウド・コンピューティングのコストを削減しながら高パフォーマンスを実現

Seekr の高度な AI ワークロードの要件には、膨大なコンピューティング能力が必要です。従来、このコンピューティング能力には、多額のインフラストラクチャーへの投資とクラウドコストを必要としました。しかしながら、インテル® Tiber™ AI クラウドを利用すれば、Seekr はわずかな費用で最先端のインテルのハードウェアとソフトウェアにアクセスできます。Seekr のように急速に拡大する企業にとって、最新の AI アクセラレーション・テクノロジーにアクセスしながら資本を節約し、収益を増加させる能力は、非常に魅力的な提案です。

「インテルとの戦略的コラボレーションにより、Seekr は、高帯域幅の相互接続性に支えられた最新のインテル® Gaudi® チップを数千個搭載したスーパーコンピューターを使用して、最適な価格と最高のパフォーマンスで基盤モデルを構築できます」と Clerk 氏は語っています。「Seekr の信頼性の高い AI 製品と『AI ファースト‍』のインテル® Tiber™ AI クラウドの組み合わせにより、エラーやバイアスが減少するため、あらゆる規模の組織が信頼性の高い LLM と基盤モデルにアクセスして、信頼できるハードウェア上で稼働して、生産性を高め、イノベーションを促進できます。」

「インテルとの戦略的コラボレーションにより、Seekr は、最新のインテル® Gaudi® チップを数千個搭載したスーパーコンピューターを使用して、最適な価格と最高のパフォーマンスで基盤モデルを構築できます… 」

信頼できる成果をもたらす柔軟な AI ソリューション

SeekrFlow* は、スケーラブルで構成可能なパイプラインを使用して原則に基づいた LLM を構築することに特化した、エンドツーエンドの LLM 開発ツールセットであり、この革新的なソリューションの基盤となります。SeekrFlow は、効率性と柔軟性を最大限に高めるよう設計されており、開発者はスケーラブルで構成可能なワークフローを使用して LLM をトレーニングし、構築することができます。LLM パイプライン全体が API で管理され、カスタム・コンポーネントを用いて適応可能です。リソースや依存関係などの計算グラフの仕様は柔軟性があり、多様な構成オプションが可能です。

SeekrFlow のワークフローは、バージョン管理され、反復および再現可能な実行ファイルにコンパイルされます。また、LLM の動作が規定された標準、意図、ルール、または値に準拠していることを確認するために、堅牢なアライメント・アルゴリズムを統合しています。これらの LLM は、同社の堅牢な推論パイプラインの恩恵を受けており、プラットフォームは大規模な音声の文字起こし、ダイアライズ、スコアリングを行うことができます。最適化されたカスタム LLM は、ユーザーフレンドリーな Seekr Align プラットフォームに送られ、デジタルコンテンツの迅速かつ正確な評価に使用されます。

インテル® Tiber™ AI クラウドにおける Seekr の導入

Seekr は、GPU および CPU 対応システムのサーバーフリートをホストするために、地域のコロケーション・プロバイダーを使用していました。自己管理型のコンピューティング・インフラストラクチャーは、LLM とマルチモーダル・モデルの開発に使用され、Seekr Align をサポートしています。

顧客の増加と LLM 導入の規模が拡大に伴いる、Seekr は、優れた価格とパフォーマンスにより、ビジネスの拡大を支援するクラウド・サービス・プロバイダーを探していました。インテル® Gaudi® 2 上でのベンチマーク LLM のファインチューニングと推論に成功した Seekr は、LLM の開発と本番環境への導入をサポートする、優先的なコンピューティング・インフラストラクチャーとしてインテル® Tiber™ AI クラウドの採用を決定しました。

図 1 ~ 3 は、ソフトウェアの最適化とインテル® Tiber™ AI クラウド環境の使用により得られるパフォーマンスを示しています。

Seekr LLM のファインチューニング  

図 1: Hugging Face Optimum Habana と Habana PyTorch API を使用した Seekr LLM のファインチューニング。出典: Seekr。インテルは、サードパーティーのデータについて管理や監査を行っていません。正確さを評価するには、他のソースを参照する必要があります。

Seekr の LLM 推論  

図 2: Hugging Face Optimum Habana と Habana PyTorch API を使用した Seekr の LLM 推論。出典: Seekr。インテルは、サードパーティーのデータについて管理や監査を行っていません。正確さを評価するには、他のソースを参照する必要があります。

Seekr の LLM 推論  

図 3: Hugging Face Optimum Habana と Habana PyTorch API を使用した Seekr の LLM 推論。出典: Seekr。インテルは、サードパーティーのデータについて管理や監査を行っていません。正確さを評価するには、他のソースを参照する必要があります。

Seekr は、同社のソリューション・プラットフォームをインテル® Tiber™ AI クラウドに移行するため、段階的な導入を計画しています。クラウド上で AI に最適化された多様なコンピューティング・インスタンスを活用して、次のようなアプリケーション・ワークロードの導入コストとパフォーマンスを最適化しています。

  • インテル® Gaudi® 2 アクセラレーター: SeekrAlign ソリューションを支える 7B LLM モデルは、インテル® Gaudi® 2 システムのクラスターにデプロイされ、機密コンテンツの分類とリスク評価を実行します。
  • インテル® データセンター GPU マックス・シリーズ 1550: Seekr は、インテル® GPU を搭載したシステムのクラスターで、文字起こしとダイアライズ処理に、Intel® Extensions for PyTorch* を使用します。
  • インテル® Xeon® スケーラブル・プロセッサー: 同社は、アプリケーション監視、ストレージ管理、ベクトルおよび反転インデックス・データベース・サービスに、第 4 世代インテル® Xeon® CPU 対応システムのクラスターを使用しています。これらは、スケーラブルで構成可能なパイプラインを使用して、原則に沿った LLM を構築する Seekr の Retrieval Augmented Generation サービスと SeekrFlow をサポートしています。
  • 今年後半には第 5 世代インテル® Xeon® スケーラブル・プロセッサーの活用も計画されています。

Seekr の AI 研究開発責任者である Stefanos Poulis 氏は次のように述べています。「Seekr とインテルのコラボレーションにより、ハイブリッド・コンピューティングにおける AI 実行の能力が解き放たれます。インテル® GPU とインテル® Gaudi® 2 チップは、大規模および中規模のトランスフォーマーのトレーニングとサービスに活用されています。市場の他のチップと比較して、モデルのトレーニングと推論のパフォーマンスが向上しました。特に LLM 推論では、インテルの® HPU と GPU の大容量メモリーにより、バッチサイズなどのワークロード固有のパラメーターを調整できるようになりました。ソフトウェア面では、インテルのさまざまな拡張機能により、ML スタックをインテルのハードウェアにシームレスに移行することができました。」

今後のインテル® Tiber™ AI クラウド統合フェーズの一環として、Seekr は Intel® Kubernetes Service 搭載の大規模なインテル® Gaudi® 2 クラスターを活用して、LLM 基盤モデルをトレーニングし、CPU と GPU のコンピューティング能力を追加して、信頼性の高い AI サービスの提供を拡大する予定です。

SimpliSafe® は Seekr のLLM ソリューション「SeekrAlign」を使用して、より幅広く、よりカスタマイズされたホーム・セキュリティーの利用者にリーチ

SimpliSafe® は、受賞歴のあるホーム・セキュリティー・ソリューションで、お客様に最新かつ最高のテクノロジーを提供することで「すべての家庭を安全にする」ことを使命としています。同社は、進化し続けるスマートホーム業界の先駆者であることに大きな誇りを持っています。この精神は、慎重かつ効率的に市場へのリーチを拡大するのに役立つ新しいマーケティング・テクノロジーのテストなど、同社がサポートするビジネス機能にも反映されています。さらに、顧客の信頼を築き、維持することは、SimpliSafe の顧客拡大戦略にとって重要です。同社は、革新的な製品やサービスだけでなく、配慮の行き届いた広告慣行を通じてこれを実現しています。

SimpliSafe は、SeekrAlign を活用し、適切なコンテンツチャネルを通じて潜在顧客に適切なタイミングでリーチしています。SeekrAlign により、SimpliSafe はリアルタイムで数千ものポッドキャストのコンテンツスコアにアクセスし、会話レベルでコンテキストを分離することができます。Seekr の LLM 主導のコンテンツ分析機能は、現在市場で入手可能なものを凌駕しており、SimpliSafe がブランドに適したコンテンツを発見し、関連するオーディエンスにリーチするのに役立っています。

「信頼と安全性が原動力のブランドとして、SimpliSafe の価値観を共有できるソリューションを見つけることが重要でした。インテル® デベロッパー・クラウド [インテル® Tiber™ AI クラウド] を利用した Seekr は、まさにそのプラットフォームであり、ポッドキャストを慎重に監視するという規模の問題を解決し、広告掲載先が当社の顧客プロファイルに一致させることができます。Seekr により、ブランドにとって安全なポッドキャストを見つけ、それを通じて適切なオーディエンスにリーチし、最終的には SimpliSafe のホーム・セキュリティー・ソリューションをより多くの住宅所有者に紹介することができます。」
—SimpliSafe 顧客獲得担当ディレクター、Nicholas Giorgio 氏

詳しい内容

インテル® Liftoff for Startups プログラムについて

インテル® Liftoff は、初期段階の AI と機械学習のスタートアップ企業が革新を促進し、規模を拡大するのに役立つ無料のオンラインプログラムです。インテルが 2022年に開始したこのセルフペースのプログラムは、スタートアップ企業がコードの壁を取り除き、パフォーマンスを引き出し、アイデアをスケーラブルで業界を定義する AI 企業に変革できるように支援します。