メインコンテンツへスキップ
サポート・ナレッジベース

インテル® ニューラル・コンピュート・スティック 2での推論のための TensorFlow オブジェクト検出 API モデルの変換 (インテル® NCS 2)

コンテンツタイプ: トラブルシューティング   |   記事 ID: 000055228   |   最終改訂日: 2023/06/06

インテル® NCS 2 の スタートガイド に従って、OpenVINO™・ツールキットをインストールし、インテル® NCS 2 を設定します。

メモ スタートガイドとこの記事は、元のインテル® Movidius™ニューラル・コンピュート・スティックを使用しているユーザーにも適用されます。

mo_tf.py スクリプトは、~/intel/openvino/deployment_tools/model_optimizer・ディレクトリーにあります。インテル® NCS 2 での推論のためにモデルを中間表現 (IR) に変換する際には、以下のパラメーターを指定する必要があります。

--input_model <path_to_frozen.pb>

--tensorflow_use_custom_operations_config <path_to_subgraph_replacement_configuration_file.json>

  • 構成ファイルは~ /intel/openvino/deployment_tools/model_optimizer/extensions/front/tf ディレクトリーにあります。モデルのトポロジーに一致する構成ファイルを選択します。構成ファイルの一覧については、 モデルを変換する方法 を参照してください。

--tensorflow_object_detection_api_pipeline_config <path_to_pipeline.config>

--reverse_input_channels

  • このパラメーターは、推論エンジンのサンプル・アプリケーションで変換された TensorFlow オブジェクト検出 API モデルを使用している場合に必要です。

--data_type FP16

  • インテル® NCS 2 で実行する半精度浮動小数点フォーマットを指定します。

モデル・オプティマイザー・コマンドの例:

python3 ~/intel/openvino/deployment_tools/model_optimizer/mo_tf.py --input_model frozen_model.pb --tensorflow_use_custom_operations_config ~/intel/openvino/deployment_tools/model_optimizer/extensions/front/tf/ssd_v2_support.json --tensorflow_object_detection_api_pipeline_config pipeline.config --reverse_input_channels --data_type FP16

モデル・オプティマイザーに関する追加情報は、OpenVINO™・ ツールキットのドキュメントに記載されています

関連製品

本記事は、2 製品に適用します。

免責条項

このページのコンテンツは、元の英語のコンテンツを人力翻訳および機械翻訳したものが混在しています。この内容は参考情報および一般的な情報を提供するためものであり、情報の正確さと完全性を保証するものではありません。インテルは不正確な翻訳があった場合でもいかなる責任を負いません。このページの英語版と翻訳の間に矛盾がある場合は、英語版に準拠します。 このページの英語版をご覧ください。