Chenyang Liu、Keyan Chen、Haotian Zhang、Zipeng Qi、Zhengxia Zou、Zhenwei Shi*✉
論文の公式 PyTorch 実装: [IEEE] の「 Change-Agent: Toward Interactive Comprehensive Remote Sensing Change Interpretation and Analysis 」 (IEEE TGRS 2024 に受理)
MCI モデルの概要:
環境のインストール:
ステップ 1 : Multi_change_env
という名前の仮想環境を作成し、アクティブ化します。
conda create - n Multi_change_env python = 3.9
conda activate Multi_change_env
ステップ 2 : リポジトリをダウンロードまたは複製します。
git clone https : // github . com / Chen - Yang - Liu / Change - Agent . git
cd . / Change - Agent / Multi_change
ステップ 3 : 依存関係をインストールします。
pip install - r requirements . txt
データセットをダウンロード:
リンク: LEVIR-MCI。 LEVIR-MCI のデータ構造は次のように構成されています。
├─/DATA_PATH_ROOT/Levir-MCI-dataset/
├─LevirCCcaptions.json
├─images
├─train
│ ├─A
│ ├─B
│ ├─label
├─val
│ ├─A
│ ├─B
│ ├─label
├─test
│ ├─A
│ ├─B
│ ├─label
ここで、フォルダーA
にはプレフェーズ イメージが含まれ、フォルダーB
にはポストフェーズ イメージが含まれ、フォルダーlabel
は変更検出マスクが含まれます。
LEVIR-MCI の各画像ペアの説明のテキスト ファイルを抽出します。
python preprocess_data.py
その後、生成されたファイルが./data/LEVIR_MCI/
にいくつかあります。
上記のデータ準備が完了していることを確認してください。次に、次のようにトレーニングを開始します。
python train . py - - train_goal 2 - - data_folder / DATA_PATH_ROOT / Levir - MCI - dataset / images - - savepath . / models_ckpt /
python test . py - - data_folder / DATA_PATH_ROOT / Levir - MCI - dataset / images - - checkpoint { checkpoint_PATH }
平均スコアを取得するには、モデルを 5 回トレーニングすることをお勧めします。
次のように推論を実行して開始します。
python predict . py - - imgA_path { imgA_path } - - imgB_path { imgA_path } - - mask_save_path . / CDmask . png
predict.py
のChange_Perception.define_args()
の--checkpoint
変更できます。その後、独自のモデルを使用することもできます。もちろん、事前トレーニング済みモデルMCI_model.pth
ここからダウンロードすることもできます: [抱き合う顔]。その後、 ./models_ckpt/
に配置します。
エージェントのインストール:
cd . / Change - Agent / lagent - main
pip install - e .[ all ]
エージェントを実行します:
Multi_change
フォルダーに cd します。
cd . / Change - Agent / Multi_change
(1) Agent Cl デモを実行します。
# You need to install streamlit first
# pip install streamlit
python try_chat.py
(2) エージェント Web デモを実行します。
# You need to install streamlit first
# pip install streamlit
streamlit run react_web_demo.py
この論文があなたの研究に役立つと思われる場合は、以下を引用することを検討してください。
@ARTICLE{Liu_Change_Agent,
author={Liu, Chenyang and Chen, Keyan and Zhang, Haotian and Qi, Zipeng and Zou, Zhengxia and Shi, Zhenwei},
journal={IEEE Transactions on Geoscience and Remote Sensing},
title={Change-Agent: Toward Interactive Comprehensive Remote Sensing Change Interpretation and Analysis},
year={2024},
volume={},
number={},
pages={1-1},
keywords={Remote sensing;Feature extraction;Semantics;Transformers;Roads;Earth;Task analysis;Interactive Change-Agent;change captioning;change detection;multi-task learning;large language model},
doi={10.1109/TGRS.2024.3425815}}
次のリポジトリに感謝します。
RSICC前; Chg2Cap;ラジェント
このリポジトリは MIT ライセンスに基づいて配布されています。コードは学術目的のみに使用できます。
他にご質問がございましたら❓、時間内にご連絡ください。