ラズパイとONNX RuntimeでYOLOXを試してみる

本サイトはアフィリエイト広告を利用しています。
AI

ラズベリーパイでONNXのYOLOXを使って、物体検出のテストをしてみました。

プログラム・インストール含めて紹介します。

 

スポンサーリンク

ラズパイとONNX RuntimeでYOLOXを試してみる

ラズベリーパイでONNXのYOLOXを使って、物体検出のテストをしてみました。

プログラム・インストール含めて詳細を紹介します。

テスト動画は下記です。

 

テスト環境

ラズベリーパイ4を使用しています。OSは64bitです。

 

インストール

ラズパイを立ち上げてインストールしたものは下記です。

ラズパイでも強引にpipを使えるようにしています。

pip.confに「break-system-packages = true」を追記しています

 

Pythonのテストプログラム

Pythonのテストプログラムは下記GitHubに置いてあります。

pi-360camera-test/onnx-official-yolox.py at main · iotengineer22/pi-360camera-test
This repository present solution for my raspberry-pi 360 camera test - iotengineer22/pi-360camera-test

 

YOLOXのONNXモデル

YOLOX公式から展開されているONNXのモデル(YOLOX-Nano)を使用しています。

 https://yolox.readthedocs.io/en/latest/demo/onnx_readme.html

 

wgetならば下記コマンドで入手可能です。

 

ONNX RuntimeでのYOLOXのテスト

テスト動画の内容を紹介します。ラズベリーパイ4を起動します。

プログラムを確認していきます。YOLOX-nanoのONNXのモデルをダウンロード済です。

 

プログラムの中身を少し確認します。

ONNX rumtimeを使用して、CPUで推論することが分かります。

 

 

実際に(ハンバーガとポテトとビールが映った)写真をYOLOXで物体検出していきます。

 

プログラムを走らせます。

 

テスト結果が出ます。物体検出した物体、座標、スコア値、また各処理時間が確認できます。

 

同じフォルダのimgフォルダに検出した写真がresult.jpgで出てきます。

無事、物体検出できています。

 

参照先

下記の記事・リポジストリを参照させていただきました。

この場をお借りて、お礼申し上げます。

 https://zenn.dev/karaage0703/articles/8fe578dba4857a

 https://github.com/Kazuhito00/YOLOX-ONNX-TFLite-Sample/tree/main

 

 

まとめ

ラズベリーパイでONNXのYOLOXを使って、物体検出のテストをしてみました。

プログラム・インストール含めて紹介しました。

 

次の記事ではWebカメラと360°カメラを使って物体検出しています。

ラズパイと360度カメラで物体検出とライブストリーミング

ラズパイと360度カメラで物体検出とライブストリーミング
ラズパイと360度カメラを使ってPythonからライブストリーミングをしてみました。 また360度の物体検出もテストしてみました。 使用したカメラからプログラム含めて紹介します。 ラズパイと360度カメラで物体検出とライブストリーミング ラ...

コメント