「ハンド ジェスチャーを使用した AI 仮想マウス」プロジェクトは、ユーザーがハンド ジェスチャーを使用してコンピューターのマウスを制御できるようにする機械学習ベースのアプリケーションです。このプロジェクトでは、コンピューター ビジョン技術を使用して手のジェスチャーを認識し、マウスの動きに変換します。このアプリケーションは、深層学習モデルを利用して手の動きを正確に予測し、ユーザーがコンピューターを操作するための使いやすいインターフェイスを提供します。
このプロジェクトは、カメラを備えた任意のコンピューターで動作するように設計されており、コンピューター ビジョンと機械学習の機能を探索することに興味がある人なら誰でも簡単にアクセスできます。プロジェクトのコードは Github リポジトリで入手できるため、オープンソースとなり、コミュニティからの貢献に利用できます。
必要な依存関係をすべてインストールしてください。
openCV - (画像処理と描画用)。
mediapipe - (ハンドトラッキング用)。
autopy - (マウスの動きとクリックを制御するため)。
しこたま。
このプロジェクトを使用するには、次の手順に従います。
git clone https://github.com/<USERNAME>/AI-Virtual-Mouse.git
pip install -r requirements.txt
aivirtualmouseproject.py
仮想マウスを使用するには、コンピュータにカメラが搭載されていることを確認し、次の手順に従います。
上記の手順に従ってメイン スクリプトを実行します。
手のひらを下に向けてカメラの前に手を置きます。
握りこぶしを作って仮想マウスを起動します。
指を動かすとマウス ポインタが移動します。
拳を放してクリックします。
親指をタッチし、指をタッチして右クリックします。
中指をタッチして左クリックします。
アプリケーションを終了するには、コード エディターを使用して実行中のコードを停止するか、GUI ウィンドウを直接閉じます。
貢献は大歓迎です!バグが発生した場合や改善のための提案がある場合は、お気軽にプルリクエストを送信するか、問題をオープンしてください。
このプロジェクトは MIT ライセンスに基づいてライセンスされています。詳細については、LICENSE ファイルを参照してください。