デベロッパー・ゾーン
If you are a Developer Zone Premier User, please note that the Terms and Conditions for this site have been updated. By accessing and using the site, you agree to the updated Terms and Conditions.
トピック & テクノロジー
注目のソフトウェア・ツール
インテル® ディストリビューションの OpenVINO™ ツールキット
AI 推論やモデルの最適化、複数のプラットフォームでの導入が可能です。
インテル® oneAPI ツールキット
ヘテロジニアス・アーキテクチャーにより、1 つのプログラミング・モデルをすべてのプラットフォーム向けに有効にします。
インテル® グラフィックス・パフォーマンス・アナライザー (GPA)
システム、トレース、フレーム・アナライザーを使用して、ゲームのパフォーマンス問題を特定し、トラブルシューティングを行います。
インテル® Quartus® Prime 開発ソフトウェア
デザインエントリーや論理合成から、最適化、検証、シミュレーションまで、インテル® FPGA、SoC、および複雑なプログラマブル・ロジック・デバイス (CPLD) 向けに設計が可能です。
ソフトウェア製品および開発製品を入手
インテルと人気のリポジトリーから直接テスト、購入、ダウンロードが可能です。
ドキュメント
これらの主要カテゴリーから開始できます。全ライブラリーを検索できます。
インテルのデザインサービスについて詳しくはこちら
インテル® ソリューション・マーケットプレース
提供されるエンジニアリング・サービスには、FPGA (RTL) デザイン、FPGA ボードデザイン、およびシステム・アーキテクチャー・デザインが含まれています。
入力 20 時間, 26 分
Webinar: Use Local AI for Efficient LLM Inference
2025年4月16日 | 16:00
Build a large language model (LLM) application using the power of AI PC processing, tapping the native capabilities of Intel® Core™ Ultra processors for running AI locally. The session shows how to develop a Python* back end with a browser extension that compactly summarizes web page content. The exercise showcases the Intel® hardware and software that makes it possible to run LLMs locally.
April 16, 2025, 9:00 a.m. Pacific Daylight Time (PDT)
入力 6 日, 20 時間
Workshop: Deploy Enterprise-Grade GenAI with OPEA on AWS*
2025年4月22日 | 16:00
Open Platform for Enterprise AI (OPEA) provides the building blocks for enterprise applications, including LLMs, prompt engines, and data stores, based on retrieval augmented generation (RAG) principles. This workshop guides you through the processes of building and deploying enterprise-grade generative AI (GenAI) applications for launching on Amazon Web Services (AWS)*. Explore the capabilities of OPEA to streamline development of a RAG pipeline using structured, repeatable techniques.
April 22, 2025, 9:00 a.m. – 12:00 p.m. Pacific Daylight Time (PDT)
入力 7 日, 20 時間
Webinar: Power DeepSeek* Models and Applications on Intel® Hardware
2025年4月23日 | 16:00
Run DeepSeek* models on Intel® hardware to experience the advantages of open source freedom, advanced reasoning capabilities, and a lightweight footprint. This webinar uses the vLLM inferencing engine and the ChatQnA application to illustrate the essential qualities of DeepSeek. The session also demonstrates the low cost of running AI on the CPUs of Intel® Xeon® processors and Intel® Gaudi® AI accelerators, a clear alternative to GPUs that is efficient and cost-effective.
Gain familiarity with the Open Platform for Enterprise AI (OPEA), which is used to power the ChatQnA application and provides a useful tool to show the fundamentals of constructing chatbots. Developers viewing the tutorials provided can see how the DeepSeek models can be run on relatively modest hardware and get excited about the potential for running successfully on Intel hardware.
April 23, 2025, 9:00 a.m. Pacific Daylight Time (PDT)