概要
本パッケージには、Linux*、Windows*、macOS* 用 OpenVINO™ ツールキット・ソフトウェア・バージョン 2025.1 のインテル® Distributionが含まれます。
ご利用可能なダウンロード
- Debian Linux*
- サイズ : 32.4 MB
- SHA256 : 3063A5F601F7A408D5739C68BEC1DB2D8B91EC3329295DF24066BEFA4D41437F
- CentOS 7 (2003)*
- サイズ : 55.9 MB
- SHA256 : 8C288D2B82BF847570B7B2ABC09E5BD1E954BDA1EA4792BF8729A92E031C2AFE
- Red Hat Enterprise Linux 8*
- サイズ : 60.6 MB
- SHA256 : D909FAA1666B11E4A6A0BE17DECEC20C9C609538C12364D86F0D48A5228983A5
- Ubuntu 20.04 LTS*
- サイズ : 63.8 MB
- SHA256 : CC182AFC22F02F7F660A5CDB3C1811EF982B5940E7D6300F6D615872F10094AC
- Ubuntu 20.04 LTS*
- サイズ : 36.1 MB
- SHA256 : 45F0BF85F2C7C300B1E7B38D5A32C4FEF56AB45555D7A5E2BCF0EEA6716C797A
- Ubuntu 22.04 LTS*
- サイズ : 55.1 MB
- SHA256 : 2B18022D00076F1C2288B519B6D142F33B7687DA0B3534DB36A04EFB59B9CA99
- Ubuntu 24.04 LTS*
- サイズ : 56.3 MB
- SHA256 : B4A7A17FED9AFF3314CBBB15242F0CE85E147F7FADB89B56B67379CA251A2936
- macOS*
- サイズ : 41.9 MB
- SHA256 : 96865735B100DF088123981CAE0D23E7BF252139248649AF0C4530464C475146
- macOS*
- サイズ : 36.9 MB
- SHA256 : C21A05EE934F6BC8BF8361A450646DBA25268221CBA6B38EF166A590A2B8162D
- Windows 11*, Windows 10*
- サイズ : 115.2 MB
- SHA256 : BBFC06E3A14F234B07ABEB96BD8A5AC0160EB9574C1BB3A476CBA35216D58DFF
詳細
最新情報
- コード変更を最小限に抑えるための、より多くの世代の AI カバレッジとフレームワークの統合。
- サポートされる新しいモデル: Phi-4 Mini、Jina CLIP v1、および Bce Embedding Base v1。
- OpenVINO™ モデル・サーバーは、Qwen2-VL、Phi-3.5-Vision、InternVL2 などの VLM モデルをサポートするようになりました。
- GenAI OpenVINO、Flux.1 モデルや安定拡散 3 モデルなどのトランスフォーマーベースのパイプライン向けに、画像間およびインペインティング機能が含まれるようになり、よりリアルなコンテンツを生成する機能が強化されました。
- プレビュー: AI Playground は現在、OpenVINO GenAI バックエンドを利用して、AI PC での高度に最適化された推論パフォーマンスを可能にします。
- より広範な LLM モデルサポートとより多くのモデル圧縮技術。
- CPU プラグインの最適化と GEMM カーネルの削除によるバイナリー・サイズの縮小。
- GPU プラグイン用に新しいカーネルを最適化することで、音声認識、言語モデリング、時系列予測など、多くのアプリケーションで使用される長期短期記憶 (LSTM) モデルのパフォーマンスが大幅に向上します。
- プレビュー: OpenVINO GenAI に実装されたトークンの削除により、重要でないトークンを排除することで KV キャッシュのメモリ消費量を削減します。この現在のトークン削除の実装は、チャットボットやコード生成など、長いシーケンスが生成されるタスクに役立ちます。
- OpenVINO™ ランタイムと OpenVINO™ モデル・サーバーでテキスト生成の NPU アクセラレーションが有効化され、並列実行性の低い AI PC ユースケース向けの NPU への VLM モデルの電力効率の高い導入をサポートします。
- エッジ、クラウド、ローカルで AI を実行するための優れたポータビリティーとパフォーマンス。
- Windows での最新の インテル® Core™ プロセッサー (シリーズ 2、以前の開発コード名 Bartlett Lake)、インテル® Core™ 3 プロセッサー N シリーズ、および インテル® プロセッサー N シリーズ (以前の開発コード名 Twin Lake) のサポート。
- インテル® Core™ Ultra 200H シリーズ・プロセッサーでの LLM パフォーマンスの最適化により、Windows* および Linux* での 2nd トークンのレイテンシーを向上。
- GPU プラグインにページング・アテンションと連続バッチ処理がデフォルトで実装され、パフォーマンスとリソース利用が効率化されました。
- プレビュー: Executorch 向けの新しい OpenVINO バックエンドにより、CPU、GPU、NPU を含むインテルのハードウェアでの推論の高速化とパフォーマンスの向上が可能になります。
すべての詳細を入手してください。 2025.1 リリースノートを参照してください。
取り付け手順
Archive* から OpenVINO™ ランタイムのインストール方法は、お使いのオペレーティング・システムに応じて選択できます。
ダウンロード・パッケージの内容 (アーカイブ・ファイル)
- C/C++ と Python API の両方を提供
- さらに、コード サンプルが含まれています
役立つリンク
注: リンクは新しいウィンドウで開きます。
このダウンロードは以下の製品での動作が確認されています。
免責事項1
製品と性能に関する情報
インテルは、現在ドキュメント、ユーザー・インターフェイス、コードからの非包括的な言葉の削除に取り組んでいます。なお、常に遡及的な変更が可能とは限らず、古いドキュメント、ユーザー・インターフェイス、コードに非包括的な言葉が残っている可能性があります。
このページのコンテンツは、元の英語のコンテンツを人力翻訳および機械翻訳したものが混在しています。この内容は参考情報および一般的な情報を提供するためものであり、情報の正確さと完全性を保証するものではありません。インテルは不正確な翻訳があった場合でもいかなる責任を負いません。このページの英語版と翻訳の間に矛盾がある場合は、英語版に準拠します。 このページの英語版をご覧ください。