딥 러닝은 위성 및 항공 사진의 분석 및 해석에 혁신을 가져오며 방대한 이미지 크기 및 다양한 객체 클래스와 같은 고유한 문제를 해결합니다. 이 저장소는 위성 및 항공 이미지 처리에 특별히 맞춰진 딥 러닝 기술에 대한 철저한 개요를 제공합니다. 분류, 세분화, 객체 감지와 같은 주요 작업에 적합한 다양한 아키텍처, 모델 및 알고리즘을 다룹니다.
이 저장소를 사용하는 방법: Command + F
(Mac) 또는 CTRL + F
(Windows)를 사용하여 이 페이지에서 'SAM'을 검색하세요.
UC merced 데이터세트는 잘 알려진 분류 데이터세트입니다.
분류는 원격탐사 데이터 분석의 기본 작업으로, '도시', '숲', '농지' 등과 같은 각 이미지에 의미 라벨을 할당하는 것이 목표입니다. 이미지에 라벨을 할당하는 과정은 다음과 같습니다. 이미지 수준 분류라고 합니다. 그러나 어떤 경우에는 강이 흐르는 숲이나 주거 지역과 상업 지역이 모두 있는 도시와 같이 단일 이미지에 다양한 토지 피복 유형이 포함될 수 있습니다. 이러한 경우 이미지 수준 분류는 더욱 복잡해지고 단일 이미지에 여러 레이블을 할당해야 합니다. 이는 다양한 토지 피복 유형을 정확하게 식별하기 위해 특징 추출과 기계 학습 알고리즘의 조합을 사용하여 수행할 수 있습니다. 이미지 수준 분류를 의미론적 분할이라고도 알려진 픽셀 수준 분류와 혼동해서는 안 된다는 점에 유의하는 것이 중요합니다. 이미지 수준 분류는 전체 이미지에 단일 레이블을 할당하는 반면, 의미론적 분할은 이미지의 각 개별 픽셀에 레이블을 할당하여 이미지의 토지 피복 유형을 매우 상세하고 정확하게 표현합니다. 신경망을 사용한 위성 이미지 분류에 대한 간략한 소개를 읽어보세요.
간단한 sklearn 클러스터 알고리즘 또는 딥 러닝 CNN을 사용하여 Sentinel 2 데이터에 대한 토지 분류
keras 또는 FastAI를 사용한 Amazon 열대우림 위성 사진의 다중 레이블 분류
EuroSat-Satellite-CNN-and-ResNet -> PyTorch를 사용하여 처음부터 합성곱 신경망 및 잔여 네트워크를 생성하여 사용자 정의 이미지 데이터세트 분류
repo를 사용한 ResNet-50 분류기의 미세 조정을 사용하여 위성 이미지에서 비공식 정착지 감지
Land-Cover-Classification-using-Sentinel-2-Dataset -> 이 저장소와 함께 제공되지만 EuroSAT 데이터 세트를 사용하는 잘 작성된 중간 기사
캘리포니아주 살리나스 밸리의 포도밭에서 캡처한 Keras와 다중 스펙트럼 데이터 세트를 사용하는 합성곱 신경망을 사용한 위성 이미지의 토지 피복 분류
위성 이미지에서 삼림 벌채 감지 -> repo fsdl_deforestation_Detection과 함께 FastAI 및 ResNet50 사용
Python에서 Tensorflow를 사용한 위성 데이터 분류를 위한 신경망 -> repo를 사용한 이진 내장/비 내장 클래스 예측을 위한 Landsat 5 다중 스펙트럼 데이터 분류에 대한 단계별 가이드
VHR(플레이아데스: 0.5m) 및 MR(센티넬: 10m) 이미지에서 사전 훈련된 CNN 네트워크의 빈민가 매핑
위성 영상과 합성곱 신경망을 이용한 도시 환경 비교 -> Urban Atlas 데이터세트의 각 이미지에 대해 추출된 이미지 임베딩 특징에 대한 흥미로운 연구 포함
RSI-CB -> 크라우드소싱 데이터를 통한 대규모 원격 감지 이미지 분류 벤치마크. 원격 감지 이미지 분류도 참조하세요.
NAIP_PoolDetection -> 객체 인식 문제로 모델링된 CNN은 이미지를 수영장이나 다른 것, 특히 거리, 옥상 또는 잔디로 식별하는 데 사용됩니다.
ResNet 딥러닝 아키텍처를 사용한 토지 이용 및 토지 피복 분류 -> fastai 및 EuroSAT 데이터세트 사용
Vision Transformers 사용 사례: CNN 없이 위성 이미지 분류
WaterNet -> 위성 이미지에서 물을 식별하는 CNN
도로-네트워크-분류 -> ResNet-34를 사용한 도로 네트워크 분류 모델, 도로 클래스 유기, 격자형, 방사형 및 패턴 없음
지구상의 모든 학교를 매핑하기 위해 AI 확장
Landsat 분류 저장소가 포함된 CNN 튜토리얼
위성 횡단보도 분류
다중 레이블 분류 + VGG-19, Inceptionv3, AlexNet 및 전이 학습을 통한 Amazon 열대우림 이해
토지 피복 분류를 위한 3D-CNN 모델 구현 -> repo와 함께 Sundarbans 데이터 세트 사용
SSTN -> 초분광 이미지 분류를 위한 스펙트럼-공간 변환기 네트워크: FAS 프레임워크
SatellitePollutionCNN -> 딥 러닝과 GoogleMaps 위성 이미지를 사용하여 최첨단 정확도로 대기 오염 수준을 예측하는 새로운 알고리즘
PropertyClassification -> 부동산, 위성 및 스트리트 뷰 이미지를 바탕으로 부동산 유형 분류
Remote-Sense-quickstart -> 주의 시각화를 포함하여 다양한 데이터 세트에 대한 분류
다중 기계 학습 알고리즘을 사용한 위성 이미지 분류
satsense -> HoG 및 NDVI를 포함한 고전적 기능을 사용한 토지 이용/피복 분류
PyTorch_UCMerced_LandUse
EuroSAT 이미지 분류
landcover_classification -> EuroSAT에서 fast.ai 사용
IGARSS2020_BWMS -> 고차원 RS 이미지의 특징 삽입을 위한 새로운 CNN 아키텍처를 사용한 원격 감지 이미지 장면 분류를 위한 대역별 다중 스케일 CNN 아키텍처
image.classification.on.EuroSAT -> 순수 pytorch의 솔루션
hurricane_damage -> 항공 이미지를 기반으로 한 허리케인 이후 구조물 피해 평가
openai-drivendata-challenge -> 딥러닝을 활용해 옥상 건축 자재 분류(남미 항공 이미지)
버려진 것인가요? -> 항공 LIDAR 이미지를 기반으로 집이 버려진 것인지 알 수 있나요?
BoulderAreaDetector -> 위성 이미지에 표시된 지역이 암벽 등반에 좋은 장소인지 아닌지를 분류하는 CNN
ISPRS_S2FL -> 공유 및 특정 기능 학습 모델을 사용한 토지 피복 분류를 위한 다중 모드 원격 감지 벤치마크 데이터 세트
브라질 커피 감지 -> 공개 데이터 세트와 함께 Keras를 사용합니다.
tf-crash-severity -> 위성 이미지에 포함된 특정 도로 특징에 대한 충돌 심각도를 예측합니다.
ensemble_LCLU -> 원격 감지 토지 피복 및 토지 이용 분류를 위한 심층 신경망 앙상블
cerraNet -> 브라질 Cerrado의 사용 유형과 적용 범위를 상황에 따라 분류합니다.
도시 분석-위성 영상 활용 -> 분할과 분류의 조합을 통해 도시 지역을 계획 지역과 비계획 지역으로 분류합니다.
ChipClassification -> PlanetScope 및 Sentinel-2 이미지에서 구름, 그림자 및 토지 피복 장면의 다중 모드 분류를 위한 딥 러닝
DeeplearningClassficationLandsat-tImages -> 대규모 중해상도 Landsat 위성 영상을 사용한 물/얼음/토지 분류
wildfire-Detection-from-satellite-images-ml -> 플라스크 웹 앱 예시를 사용하여 이미지에 산불이 포함되어 있는지 감지합니다.
딥 러닝을 통한 광업 발견 -> 딥 러닝을 사용한 위성 이미지의 광미 댐 감지
e-Farmerce-플랫폼 -> 작물 종류 분류
sentinel2-deep-learning -> Sentinel-2 이미지의 토지 분류를 위한 새로운 훈련 방법론
RSSC 전송 -> 고해상도 원격탐사 장면 분류에서 사전 훈련의 역할
지형 분류 지원을 위한 지리적 참조 사진 및 위성 이미지 분류 -> 홍수 감지
Pay-More-Attention -> 향상된 Attention 모듈을 기반으로 한 원격 감지 이미지 장면 분류
심층 합성곱 신경망 기반의 향상된 교차 엔트로피 손실 및 전이 학습 전략을 통한 원격 감지 이미지 분류
DenseNet40-for-HRRSISC -> 원격 감지 이미지 장면 분류를 위한 DenseNet40, UC Merced Dataset 사용
SKAL -> 장면 자세히 보기: 원격 감지 이미지 장면 분류를 위한 다중 스케일 표현 학습
potsdam-tensorflow-practice -> tensorflow를 사용한 포츠담 데이터세트의 이미지 분류
SAFF -> 원격 감지 장면 분류를 위한 Self-Attention 기반 심층 기능 융합
GLNET -> 맑고 흐린 환경에서 컨볼루셔널 신경망 기반 원격 감지 장면 분류
원격탐사-이미지 분류 -> 원격탐사 데이터를 항공기, 선박, 없음의 세 가지 클래스로 분류하기 위해 pytorch를 사용한 전이 학습
Remote_sensing_pretrained_models -> ImageNet에서 사전 훈련된 모델을 미세 조정하는 대신 여기에서는 일부 CNN이 RSD46-WHU 및 AID 데이터 세트에 사전 훈련되었습니다.
CNN_AircraftDetection -> Keras를 사용하여 위성 이미지에서 항공기 감지를 위한 CNN
OBIC-GCN -> 그래프 컨벌루션 네트워크를 이용한 원격탐사 이미지의 객체 기반 분류 프레임워크
aitlas-arena -> 지구 관측(EO)의 이미지 분류를 위한 최첨단 딥 러닝 접근 방식을 평가하기 위한 오픈 소스 벤치마크 프레임워크
가뭄 감시 -> 케냐 북부 가축에 대한 위성 기반의 마초 조건 예측
JSTARS_2020_DPN-HRA -> 초분광 이미지 분류를 위한 하이브리드 잔여 관심을 갖춘 심층 프로토타입 네트워크
SIGNA -> 다중 레이블 원격 감지 이미지 분류를 위한 시맨틱 인터리빙 글로벌 채널 주의
rmldnn 및 Sentinel 2 데이터를 이용한 위성영상 분류
PBDL -> 원격탐사 장면 분류를 위한 패치 기반 차별 학습
EmergencyNet -> 드론으로 화재 및 기타 긴급 상황 식별
위성 삼림 벌채 -> 위성 이미지를 사용하여 삼림 벌채의 주요 지표를 식별하고 우주에서 아마존을 이해하는 Kaggle 챌린지에 적용됨
RSMLC -> 원격 감지 이미지의 다중 레이블 분류를 위한 특징 추출기로서의 심층 네트워크 아키텍처
FireRisk -> 감독 및 자기 감독 학습을 사용한 벤치마크를 통한 화재 위험 평가용 원격 감지 데이터 세트
Flood_susceptibility_mapping -> 독일 베를린의 데이터 기반 모델을 사용한 도시 홍수 민감성 매핑을 향하여
진드기 진드기 꽃 -> 진드기 진드기 꽃: 유해 조류 꽃 감지 챌린지 우승자. 과제는 조류 번식의 심각성을 예측하는 것이었고 승자는 의사결정 트리를 사용했습니다.
컴퓨터 비전을 통해 위성 이미지로부터 석탄 발전소 운영 예측 -> Sentinel 2 데이터를 사용하여 데이터 세트 및 저장소를 통해 석탄 발전소의 가동 여부를 식별합니다.
건물 감지 및 지붕 유형 인식 -> 단일 항공 이미지를 이용한 자동 건물 감지 및 지붕 유형 인식을 위한 CNN 기반 접근 방식
토지 이용 분류를 위한 다중 스펙트럼 채널의 성능 비교 -> RGB에 ResNet-50, ResNet-101, ResNet-152, Vision Transformer 구현 및 EuroSAT 데이터 세트의 다중 스펙트럼 버전.
SNN4Space -> 토지 피복 및 토지 이용 분류 작업에 스파이킹 신경망(SNN)을 배포하는 타당성을 조사하는 프로젝트
선박 분류 -> AIS 데이터를 기반으로 선박을 분류하고 어업 행위를 식별합니다.
RSMamba -> 상태 공간 모델을 사용한 원격 감지 이미지 분류
BirdSAT -> 조류 종 분류 및 매핑을 위한 교차 뷰 대비 마스크 자동 인코더
EGNNA_WND -> 그래프 신경망을 이용한 웨스트나일병 존재 추정
cyfi -> Sentinel-2 위성 이미지를 기반으로 시아노박테리아 밀도 추정
(왼쪽) 위성 이미지와 (오른쪽) 이미지의 의미 클래스.
이미지 분할은 이미지를 의미상 의미 있는 세그먼트 또는 영역으로 나누는 것을 목표로 하는 이미지 분석 및 컴퓨터 비전에서 중요한 단계입니다. 이미지 분할 프로세스에서는 이미지의 각 픽셀에 클래스 레이블을 할당하여 이미지를 2D 픽셀 그리드에서 클래스 레이블이 할당된 2D 픽셀 그리드로 효과적으로 변환합니다. 이미지 분할의 일반적인 응용 프로그램 중 하나는 도로 또는 건물 분할입니다. 여기서 목표는 이미지 내의 다른 특징과 도로 및 건물을 식별하고 분리하는 것입니다. 이 작업을 수행하기 위해 단일 클래스 모델은 도로와 배경, 건물과 배경을 구별하도록 훈련되는 경우가 많습니다. 이러한 모델은 도로나 건물의 특징인 색상, 질감, 모양과 같은 특정 특징을 인식하고 이 정보를 사용하여 이미지의 픽셀에 클래스 레이블을 할당하도록 설계되었습니다. 이미지 분할의 또 다른 일반적인 응용 분야는 토지 이용 또는 작물 유형 분류입니다. 여기서 목표는 이미지 내에서 다양한 토지 피복 유형을 식별하고 매핑하는 것입니다. 이 경우 다중 클래스 모델은 일반적으로 숲, 도시 지역, 농지 등 이미지 내의 여러 클래스를 인식하고 구별하는 데 사용됩니다. 이러한 모델은 다양한 토지 피복 유형 간의 복잡한 관계를 인식할 수 있어 이미지 내용을 보다 포괄적으로 이해할 수 있습니다. 신경망을 사용한 위성 이미지 분할에 대한 간략한 소개를 읽어보세요. '초분광 토지 분류'를 언급하는 많은 기사가 실제로 의미론적 분할을 설명하는 경우 가 많습니다. 이미지 출처
불균형 항공 이미지의 의미론적 분할을 위한 U-Net -> 두바이 데이터세트 사용
TensorFlow U-Net 모델을 사용한 두바이 데이터세트의 의미론적 분할
nga-deep-learning -> NASA 연구원이 발표한 수정된 U-Net 및 Keras를 사용하여 높은 결과의 GeoTIF 데이터에 대해 의미론적 분할을 수행합니다.
딥러닝을 활용한 매립지 자동 감지
SpectralNET -> 하이퍼스펙트럼 이미지 분류를 위한 2D 웨이블릿 CNN, Salinas Scene 데이터세트 및 Keras 사용
laika -> 이 저장소의 목표는 위성 이미지 데이터의 잠재적 소스를 연구하고 위성 이미지 분할을 위한 다양한 알고리즘을 구현하는 것입니다.
PEARL -> 정확한 LULC(토지 이용/토지 피복) 지도를 생성하는 데 필요한 시간을 대폭 줄이는 인간 참여형 AI 도구인 블로그 게시물은 브라우저에서 로컬로 실행되는 Microsoft Planetary Computer 및 ML 모델을 사용합니다. 백엔드와 프론트엔드에 대한 코드
U-Net을 사용한 토지 피복 분류 -> PyTorch를 사용한 위성 이미지 다중 클래스 의미론적 분할 작업 U-Net 구현은 코드와 함께 DeepGlobe 토지 피복 분할 데이터 세트를 사용합니다.
DSTL 데이터 세트, tensorflow 1 및 python 2.7을 사용하여 U-Net을 사용하여 위성 이미지의 다중 클래스 의미론적 분할. 첨부기사
석사 논문과 함께 U-Net을 사용한 다중 클래스 토지 피복 분류를 위한 코드베이스, Keras 사용
dubai-satellite-imagery-segmentation -> 데이터 세트가 작기 때문에 이미지 확대가 사용되었습니다.
CDL 세분화 -> 딥러닝 기반 토지 피복 및 작물 유형 분류: 비교 연구. UNet, SegNet 및 DeepLabv3+ 비교
LoveDA -> 도메인 적응형 의미론적 분할을 위한 원격 감지 토지 피복 데이터 세트
CNN을 사용한 위성 영상 의미론적 분할 -> 7개의 서로 다른 분할 클래스, DeepGlobe Land Cover Classification Challenge 데이터 세트(repo 포함)
U-Net 딥러닝 모델을 사용한 항공 의미론적 분할 매체 기사, 저장소 포함
UNet-Satellite-Image-Segmentation -> 가벼운 UNet 의미론적 분할 프레임워크의 Tensorflow 구현
DeepGlobe 토지 피복 분류 챌린지 솔루션
PyTorch-Satellite-Imagery를 사용한 의미론적 분할 -> 허리케인 Harvey 이후 피해를 평가하기 위해 촬영한 RGB 이미지에서 25개 클래스 예측
Sentinel-2 이미지를 사용한 의미론적 분할 -> LandCoverNet 데이터세트 및 fast.ai 사용
CNN_Enhanced_GCN -> 초분광 이미지 분류를 위한 픽셀 및 슈퍼픽셀 수준 기능 융합을 갖춘 CNN 강화 그래프 컨벌루션 네트워크
LULCMapping-WV3images-CORINE-DLMethods -> 딥 러닝 기반 분할 접근 방식 및 VHR Worldview-3 이미지를 사용한 토지 이용 및 토지 피복 매핑
MCANet -> 토지 이용 분류를 위한 광학 및 SAR 이미지의 공동 의미론적 분할 프레임워크입니다. WHU-OPT-SAR 데이터 세트를 사용합니다.
MUnet-LUC
토지 피복 -> 토지 피복 매핑을 위한 딥 러닝 애플리케이션의 모델 일반화
일반화 가능rsc -> 일반화 가능한 토지 이용 현장 분류를 위한 교차 데이터세트 학습
도시 공지의 대규모 자동 식별 -> 고해상도 원격탐사 영상의 의미론적 분할을 이용한 도시 공지의 대규모 자동 식별
SSLTransformerRS -> 토지 피복 분할 및 분류를 위한 자체 감독 비전 변환기
Aerial-Tile-Segmentation -> Tensorflow 2.0 및 ISPRS 벤치마크 데이터 세트를 사용하여 6개 클래스로 대규모 위성 이미지 의미 체계 분할
LULCMapping-WV3images-CORINE-DLMethods -> 딥 러닝 기반 분할 접근 방식 및 VHR Worldview-3 이미지를 사용한 토지 이용 및 토지 피복 매핑
DCSA-Net -> VHR 원격 감지 이미지의 토지 피복 분류를 위한 동적 컨볼루션 Self-Attention 네트워크
CHeGCN-CNN_enhanced_Heterogeneous_Graph -> CNN으로 강화된 이종 그래프 컨벌루션 네트워크: 공원 분할 사례 연구를 통해 토지 피복에서 토지 이용 추론
TCSVT_2022_DGSSC -> DGSSC: 불균형 초분광 이미지를 위한 심층 생성 스펙트럼 공간 분류기
DeepForest-Wetland-Paper -> Sentinel-1 및 Sentinel-2 데이터 조합, GIScience 및 원격 감지를 사용하여 습지 매핑을 위한 Deep Forest 분류기
Wetland_UNet -> Sentinel-2 LiDAR 및 지오모폰의 대역을 포함한 원격 감지 데이터 입력을 사용하여 습지를 묘사할 수 있는 UNet 모델입니다. 체사피크 보호협회 보존 혁신 센터 및 야생동물 보호 단체
DPA -> DPA는 대규모 토지 피복 매핑을 위해 다양한 위성 영상에 적용되는 UDA(Unsupervised Domain Adaptation) 방법입니다.
동적 세계 -> 동적 세계, 거의 실시간으로 글로벌 10m 토지 이용 토지 피복 매핑
spada -> Sentinel-2 이미지의 희소 주석을 사용한 토지 피복 분할
M3SPADA -> 공간 의사 라벨링 및 적대적 학습을 통한 토지 피복 매핑을 위한 다중 센서 시간 비지도 도메인 적응
GLNet -> 초고해상도 이미지의 메모리 효율적인 분할을 위한 협업 글로벌-로컬 네트워크
LoveNAS -> LoveNAS: 계층적 검색 적응형 네트워크를 통한 다중 장면 토지 피복 매핑을 향하여
FLAIR-2 챌린지 -> 프랑스 국립 지리 및 산림 정보 연구소(IGN)가 제안한 의미론적 분할 및 도메인 적응 챌린지
flair-2 8위 솔루션
삼림 벌채 감지는 분할 작업 또는 변경 감지 작업으로 처리될 수 있습니다.
DetecTree -> 항공 이미지의 트리/비트리 픽셀에 대한 LightGBM 분류기인 Python의 항공 이미지에서 트리 감지
Сrор 필드 경계 감지: 접근 방식 및 주요 과제 -> 역사적 및 현대적 접근 방식을 다루는 중간 기사
kenya-crop-mask -> 케냐의 연간 및 계절별 작물 매핑 - 픽셀을 작물 포함 여부로 분류하는 LSTM 분류기와 부분 입력이 있는 경우 12개월 시계열을 제공하는 다중 스펙트럼 예측기입니다. 훈련에 사용되는 GEE 및 Pytorch Lightning에서 다운로드한 데이터 세트
거기에는 무엇이 자라고 있나요? 데이터 전처리, 구름 탐지, NDVI 계산, 이미지 확대 및 fastai를 위해 eo-learn을 사용하여 다중 스펙트럼 원격 감지 데이터(Sentinel 2)에서 작물 식별
3D 컨볼루셔널 신경망을 사용하여 공중 LiDAR 및 초분광 데이터에서 얻은 나무 종 분류
자르기 유형 분류 -> U-Net + LSTM과 함께 Sentinel 1 및 2 데이터를 사용하면 더 많은 기능(예: 밴드)과 더 높은 해상도가 더 나은 결과를 생성합니다(기사, 코드 없음).
Mask R-CNN을 사용하여 운동장을 찾고 공개 거리 지도에 오버레이
토고용 자르기 마스크를 생성하는 LSTM
DeepSatModels -> 작물 유형 의미론적 분할을 위한 컨텍스트-자체 대비 사전 학습
farm-pin-crop-Detection-challenge -> eo-learn 및 fastai를 사용하여 다중 스펙트럼 원격 감지 데이터에서 작물 식별
Sentinel-2 위성 영상에서 농업 농경지 감지 -> 10m 공간 해상도에서 개방형 Sentinel-2 영상을 사용하여 농경지를 분류하는 벤치마크 기계 학습 모델인 UNet-Agri를 개발했습니다.
DeepTreeAttention -> Hang 등의 구현. 2020 나무 종 예측을 위한 "주의 보조 CNN을 사용한 초분광 이미지 분류"
작물분류 -> 다중시간위성영상을 이용한 작물분류
ParcelDelineation -> 프랑스어 다각형 데이터세트 및 keras의 unet 사용
자르기 마스크 -> 고해상도 경작지 지도 생성을 위한 엔드투엔드 워크플로우, GEE 및 LSTM 모델 사용
DeepCropMapping -> 동적 옥수수 및 대두 매핑을 위한 향상된 공간 일반화 기능을 갖춘 다중 시간 딥 러닝 접근 방식으로 LSTM을 사용합니다.
NDVI와 Rasterio를 사용하여 캐노피 덮개와 토양 세그먼트화
KMeans 클러스터링을 사용하여 위성 이미지를 토지 피복/토지 이용별로 분할
ResUnet-a -> 원격 감지 데이터의 의미론적 분할을 위한 딥 러닝 프레임워크
DSD_paper_2020 -> 다중 시간 Sentinel-1 데이터를 이용한 기계 학습 기반 작물 유형 분류
MR-DNN -> Landsat 8 위성 이미지에서 논 추출
deep_learning_forest_monitoring -> Sentinel-2 데이터와 딥러닝을 활용한 아프리카 대륙의 산림 매핑 및 모니터링
전역-경작지-매핑 -> 전역 다중 시간 경작지 매핑
SAR 이미지를 이용한 대두 농경지의 의미론적 분할을 위한 U-Net
UNet-RemoteSensing -> Landsat 및 keras의 7개 대역을 사용합니다.
Landuse_DL -> 얼음이 풍부한 영구 동토층의 해빙으로 인한 지형 묘사
canopy -> 컨볼루셔널 신경망 분류기는 초분광 이미지에서 혼합 침엽수림의 나무 종을 식별합니다.
RandomForest-Classification -> 고정익 무인 항공기를 사용하여 이탄지 식생 군집을 도출하기 위한 다중 센서 데이터
Forest_change_Detection -> Siamese, UNet-LSTM, UNet-diff, UNet3D 모델을 포함한 시간 종속 모델을 사용한 산림 변화 분할
cultionet -> 경작지 분할, PyTorch 기하학 및 PyTorch Lightning 기반 구축
sentinel-tree-cover -> 중해상도 위성 이미지를 사용하여 폐쇄형 숲 외부의 나무를 식별하는 전역 방법
작물 유형 감지-ICLR-2020 -> CV4A 워크숍 ICLR 2020에서 작물 유형 감지 대회에서 솔루션 수상
위성영상을 활용한 작물식별 -> 중형기사, 작물식별 소개
S4A-모델 -> Sen4AgriNet 데이터 세트에 대한 다양한 실험
attention-mechanism-unet -> 위성 센서 이미지 내에서 삼림 벌채를 탐지하기 위한 주의 기반 U-Net
Cocoa_plantations_Detection -> KNN, SVM, Random Forest 및 MLP를 사용하는 Sentinel-2 원격 감지 데이터를 사용하여 코트디부아르의 코코아 농장 감지
SummerCrop_Deeplearning -> 농지 생태계에서 작물의 전이 가능한 학습 분류 모델 및 탄소 격리 추정
DeepForest는 공중 RGB 이미지에서 개별 나무 크라운을 훈련하고 예측하기 위한 Python 패키지입니다.
Omdena의 "위성 이미지에서 나무 식별" 챌린지에 대한 공식 저장소
Counting-Trees-using-Satellite-Images -> 연간 나무 검사를 위해 들어오고 나가는 나무의 목록을 생성하고 keras 및 의미론적 분할을 사용합니다.
2020 네이처 논문 - 서아프리카 사하라와 사헬 지역의 예상외로 많은 나무 수 -> U-Net 및 tensorflow 2를 기반으로 한 나무 감지 프레임워크(여기에 코드 포함)
TreeDetection -> OpenCV를 통해 나무의 시각적 위치 파악 및 크라운 크기 계산과 함께 Google 이미지 데이터에서 나무를 감지하는 색상 기반 분류자
PTDM -> Attention Mechanism과 Cross-Layer Feature Fusion을 기반으로 한 포멜로 트리 검출 방법
도시 나무 감지 -> 고해상도 다중 스펙트럼 이미지를 사용하여 대규모 도시 환경에서 개별 나무 감지. 데이터 세트 포함
BioMassters_baseline -> BioMassters 챌린지(바이오매스 추정)를 시작하기 위해 UNet을 사용하는 기본 파이토치 번개 기준선
바이오매스터 우승자 -> 상위 3개 솔루션
kbrodt biomassters 솔루션 -> 1위 솔루션
quqixun 바이오매스터 솔루션
바이오매스 추정 -> Azavea에서 Sentinel 1 & 2에 적용
3DUNetGSFormer -> 생성적 적대 네트워크 및 Swin 변환기를 사용하여 복잡한 습지 매핑을 위한 딥 러닝 파이프라인
SEANet_torch -> 의미론적 에지 인식 다중 작업 신경망을 사용하여 원격 감지 이미지에서 농업 구획을 묘사합니다.
arborizer -> 나무 크라운 분할 및 분류
재사용 -> 탄소 저장 및 지상 바이오매스 추정을 위한 회귀적 Unet
unet-sentinel -> 삼림 벌채를 식별하기 위해 Sentinel-1 SAR 이미지를 처리하는 UNet
MaskedSST -> 초분광 이미지 분류를 위한 Masked Vision 변환기
UNet-defmapping -> Amazon 및 Atlantic Rainforest 데이터 세트에 적용된 Sentinel-2 레벨 2A 이미지를 사용하여 삼림 벌채를 매핑하기 위해 UNet을 사용하는 석사 논문
cvpr-multiearth-deforestation-segmentation -> CVPR Multiearth 2023 삼림 벌채 챌린지에 대한 다중 모드 Unet 항목
supervised-wheat-classification-using-pytorchs-torchgeo -> torchgeo를 사용하여 감독된 밀 분류
TransUNetplus2 -> TransU-Net++: 삼림 벌채 매핑을 위해 주의 통제 TransU-Net을 다시 생각합니다. Amazon 및 Atlantic 산림 데이터세트를 사용합니다.
지구의 고해상도 캐노피 높이 모델 -> 지구의 고해상도 캐노피 높이 모델
Radiant Earth Spot the Crop Challenge -> Radiant Earth Spot the Crop Challenge에서 우승한 모델은 시계열 Sentinel-2 다중 스펙트럼 데이터를 사용하여 남아프리카 서부 케이프의 작물을 분류합니다. 또 다른 솔루션
transfer-field-delineation -> 제한된 레이블이 있는 위성 이미지의 작물 경작지 경계 분할을 위한 다중 지역 전이 학습
잔디 깎기 감지 -> Sentinel 이미지에서 잔디 깎기 및 방목 자동 감지
PTAViT3D 및 PTAViT3DCA -> 솜털 구름 다루기: S2 및/또는 S1 이미지의 시계열을 사용한 필드 경계 감지
ai4boundaries -> AI4boundaries 데이터 세트 다운로드를 용이하게 하는 Python 패키지
pytorch-waterbody-segmentation -> Kaggle의 위성 이미지 데이터세트로 훈련된 UNET 모델입니다. 모델은 Hugging Face Spaces에 배포됩니다.
fastai를 사용하는 backbone으로 Resnet-34와 함께 UNET을 이용한 홍수 탐지 및 분석
딥러닝을 이용한 위성영상의 자동 홍수 감지
UNSOAT는 fastai를 사용하여 위성 이미지에서 의미론적 분할을 수행하여 물을 감지하도록 Unet을 훈련시켰습니다.
고해상도 항공 이미지의 준감독 분류 및 분할 - FloodNet 문제 해결
Houston_flooding -> 허리케인 하비(Hurricane Harvey)의 데이터를 사용하여 각 픽셀에 침수 여부를 표시합니다. 데이터 세트는 홍수 전후 이미지로 구성되었으며, 인간 클러스터 검증/조정을 통해 이미지 픽셀의 비지도 클러스터링(DBScan 사용)을 사용하여 실제 홍수 수 마스크가 생성되었습니다.
ml4floods -> ML로 홍수를 해결하기 위한 데이터, 모델 및 코드 파이프라인의 생태계
ETCI 홍수 감지 대회 시작에 대한 종합 가이드 -> Sentinel1 SAR 및 pytorch 사용
SageMaker를 사용하여 SAR 이미지의 홍수수 매핑 -> Sentinel-1 데이터 세트에 적용
STAC Overflow에 대한 1위 솔루션: Microsoft AI for Earth가 호스팅하는 레이더 이미지에서 홍수수 매핑 -> Unet을 Catboostclassifier와 결합하여 평균이 아닌 최대값을 취함
hydra-floods -> 원격 감지 데이터에서 파생된 지표수 지도를 다운로드, 처리 및 제공하기 위한 오픈 소스 Python 애플리케이션
CoastSat -> 분할 모델을 사용하여 CoastSeg 확장이 있는 해안선을 매핑하는 도구
Satellite_Flood_Segmentation_of_Harvey -> 딥 러닝과 기존 kmean을 모두 탐색합니다.
위성영상을 활용한 홍수상황 감지
ETCI-2021-홍수 감지 경쟁 -> 순환 의사 라벨링 및 시끄러운 학생 교육을 사용한 Sentinel-1 SAR 이미지의 홍수 분할 실험
FDSI -> 위성 영상의 홍수 감지 - 2017 멀티미디어 위성 과제
deepwatermap -> 다중 스펙트럼 이미지에서 물을 분할하는 심층 모델
rivamap -> 자동화된 하천 분석 및 매핑 엔진
심해 -> 수위 변화 추적
WatNet -> Sentinel-2 이미지를 기반으로 한 지표수 매핑을 위한 심층 ConvNet은 지구 지표수 데이터 세트를 사용합니다.
홍수 범위에 대한 AU-Net-매핑
floatobjects -> SENTINEL을 사용하여 학습된 공간 기능을 사용하여 전 세계적으로 떠다니는 객체를 감지하기 위해 2. U-Net 및 pytorch를 사용합니다.
SpaceNet8 -> 침수된 도로 및 건물을 감지하는 기본 Unet 솔루션
dlsim -> 홍수 및 잔해 흐름 매핑을 위한 시뮬레이션과 딥러닝을 통해 원격 탐사의 한계 극복
Water-HRNet -> Sentinel 2에서 훈련된 HRNet
Chesapeake Conservancy에서 제공한 NAIP 이미지, MS Azure 교육을 사용하여 새로 개발되거나 침수된 토지를 식별하는 의미론적 분할 모델
BandNet -> 머신러닝을 활용한 물 분할을 위한 다중 스펙트럼 데이터 분석 및 적용. Sentinel-2 데이터를 사용합니다.
mmflood -> MMFlood: 위성 영상의 홍수 묘사를 위한 다중 모드 데이터 세트(Sentinel 1 SAR)
Urban_flooding -> 독일 베를린의 도시 하수 홍수 수심을 예측하기 위한 전송 가능한 데이터 기반 모델을 지향합니다.
홍수 매핑-위성 이미지 사용 -> Random Forest와 Unet을 비교하는 석사 논문
MECNet -> 초고해상도 항공 및 위성 이미지에서 수역 분할을 위한 풍부한 CNN 기능
SWRNET -> 위성 탑재 작은 표층수 영역 인식을 위한 딥 러닝 접근 방식
elwha-segmentation -> 조감도 하천 픽셀 분할을 위해 Meta의 SAM(Segment Anything) 미세 조정, Medium 기사 사용
RiverSnap -> 논문용 코드: 근거리 원격 감지 이미지에서 강물 분할을 위한 인기 딥 러닝 모델과 SAM(Segment Anything 모델)의 비교 성능 분석
SatelliteVu-AWS-Disaster-Response-Hackathon -> 클래식 ML 및 딥 러닝을 사용한 화재 확산 예측
Databricks 및 Keras, 의미론적 분할로 훈련된 U-Net을 사용한 산불 감지
Sentinel-2 및 VIIRS를 사용한 고해상도 화상 지역 모니터링을 위한 실용적인 방법
AI 지리공간 산불 위험 예측 -> Unet을 사용하여 인접한 미국의 산불 위험 가능성을 평가하기 위해 지리공간 래스터 데이터를 사용하는 예측 모델
IndustrialSmokePlumeDetection -> Sentinel-2 및 수정된 ResNet-50 사용
화상 지역 감지 -> Sentinel-2 사용
구조 -> 화재에 대한 주의: 산불 심각도 예측을 위한 다중 채널 딥 러닝 모델
smoke_segmentation -> 연기 기둥을 분할하고 GOES 이미지에서 밀도를 예측합니다.
산불 감지 -> 위성 이미지에서 향상된 산불 감지를 위해 Vision Transformers 사용
Burned_Area_Detection -> Sentinel-2 데이터로 화상 지역 감지
burn-area-baseline -> 위성 연소 지역 데이터 세트(Sentinel 1 & 2)와 함께 제공되는 기준 unet 모델
burn-area-seg -> 다중 작업 학습을 사용하여 Sentinel-2에서 연소 영역 분할
chabud2023 -> Burned Area Delineation(ChaBuD) ECML/PKDD 2023 챌린지에 대한 변경 감지
Siamese-UNet을 사용한 산불 발생 후 화재 감지 -> Chadbud 데이터세트
vit-burned-Detection -> 화상 영역 묘사의 비전 변환기
landslide-sar-unet -> SAR(합성 개구 레이더) 데이터큐브를 사용한 신속한 산사태 감지를 위한 딥 러닝
산사태 매핑 -CNN-> 일반화 된 컨볼 루션 신경 네트워크와 산사태를 매핑하는 새로운 전략
k-means 클러스터링 알고리즘과 심층적 인 시맨틱 세분화 모델의 조합을 사용하여 열대 우림 지역의 유적 산사태 탐지-> 유적_landslides_cnn_kmeans-> 유물 산사태 감지
산사태 매핑-ar-data-by-intention-u-net->주의에 의한 SAR 데이터에 산사태의 빠른 매핑 U-Net
SAR-LANDSLIDE-DETECTION-PRAINING-> SAR 기반 산사태 분류 사전 조정은 더 나은 세분화로 이어집니다.
Sentinel-2 이미지에서 변경 감지를 통해 산사태 매핑
HED -UNET-> 동시 시맨틱 세분화 및 에지 감지를위한 모델, 제공된 예제는 빙하 전선과 INRIA Aerial Image Labeling Dataset을 사용한 발자국을 구축합니다.
glacier_mapping-> 힌두교 쿠시 히말라야의 빙하 매핑, 랜드 세트 7 이미지, 빙하의 모양 파일 레이블, 드롭 아웃과 함께 unet
Glacier-Detect-ML-> Landsat 위성 이미지에서 빙하를 식별하는 간단한 로지스틱 회귀 모델
빙하 횡단 분할
남극-자산 감지-> 남극 대륙의 Modis Mosaic과 함께 Unet을 사용하여 표면 골절을 감지합니다.
열린 매립지 감지 -> Sentinel -2를 사용하여 정규화 된 화상 비율 (NBR)의 큰 변화를 감지합니다.
sea_ice_remote_sensing-> 해빙 농도 분류
메탄 감지-hyperspectral-Imagery-> 오버 헤드에서 메탄 탐지를위한 깊은 원격 감지 방법 Hyperspectral 이미지
메탄-배출-프로젝트-> 분류 CNNS는 앙상블 접근 방식에서 표식 데이터에 대한 전통적인 방법과 결합되었습니다.
CH4NET-> Sentinel -2를 사용한 메탄 깃털의 탐지를위한 빠르고 간단한 모델
eddynet-> 해양 에디의 픽셀 별 분류를위한 깊은 신경망
Schisto -Vegetation-> 위성 이미지의 딥 러닝 세분화 아프리카 세네갈의 Schistosomiasis의 달팽이 중간 숙주와 관련된 수생 식물을 식별합니다.
Earthformer-> 지구 시스템 예측을위한 시공간 변압기 탐색
Weather4cast-2022-> weather4cast 비가 영화 예측 경쟁을위한 UNET-3D 기준선 모델
WeatherFusionNet-> 위성 데이터에서 강수량 예측. Weather4cast-2022 1 위 솔루션
Marinedebrisdetector-> Sentinel-2와 해안 지역에서 해양 잔해물의 대규모 탐지
Kaggle-Andify-Contrails-4th-> 4 위 솔루션, Google Research- 지구 온난화를 줄이기위한 콘트 레일 식별
Minesegsat-> Sentinel -2 이미지에서 광업 교란 구역 범위를 평가하기위한 자동화 된 시스템
Starcop : 초 분광 기계 학습 모델을 갖는 메탄 깃털의 의미 론적 세분화
ASOS-> 해석 가능한 기계 학습 및 위성 이미지를 사용하여 조경에서 보호 및 인위적 패턴 인식
다른 물체와 복잡한 교통 환경으로 인한 폐색으로 인해 도로 추출은 어려운 일입니다.
Chesapeakersc-> 배경에서 도로를 추출하기위한 세그먼테이션이지만 "Tree Canopy Over Road"클래스에서 수행하는 방식에 의해 추가로 평가됩니다.
Massachusetts Roads Dataset, U-Net & Keras를 사용한 데이터 증강에 대한 시맨틱 세분화 및 allumentation을 사용한 도로 탐지. 코드로
위성 이미지에서 도로의 시맨틱 세분화를 수행하기 위해 Pytorch의 ML_EPFL_PROJECT_2-> U -NET
U-Net Keras, OSM 데이터, 학생 별 프로젝트 요약 기사, 코드 없음을 사용한 도로의 시맨틱 세분화
Spacenet Road 탐지 및 라우팅 챌린지에서 우승 솔루션
RoadVecnet-> 데이터 세트가있는 Keras의 Road-Network- 세분화 및 벡터화
도로 및 도로 유형 탐지주기 노트북
굉장한 깊이-> 매핑을위한 딥 러닝 / 컴퓨터 비전 알고리즘 전용 리소스 목록. 매핑 문제에는 도로 네트워크 추론, 발자국 추출 등이 포함됩니다.
로드 트레이서 : 공중 이미지에서 도로 네트워크의 자동 추출 -> CNN 기반 의사 결정 기능으로 안내 된 반복 검색 프로세스를 사용하여 도로 네트워크 그래프를 CNN의 출력에서 직접 도출합니다.
Road_detection_mtl-> 멀티 태스킹 학습 기술을 사용한 도로 감지 사전 지식 제약 조건을 통합하여 도로 탐지 작업의 성능을 향상시키기 위해 Spacenet Roads DataSet을 사용합니다.
Road_Connectivity-> 오리엔테이션 및 세분화에 대한 공동 학습에 의한 개선 된 도로 연결 (CVPR2019)
고전적인 이미지 처리-> 블러 및 캐니 엣지 감지를 사용한 도로 네트워크-추출
spin_roadmapper-> 자율 주행을위한 공간 및 상호 작용 공간 그래프 추론을 통해 공중 이미지에서 도로 추출
Road_extraction_Remote_Sensing-> Pytorch 구현, CVPR2018 Deepglobe Road Extraction Challenge 제출. 또한 DeepGlobe-Road-extraction-Challenge를 참조하십시오
Microsoft의 도로 검사 데이터 세트
Coanet-> 위성 이미지에서 도로 추출을위한 연결주의 네트워크. COA 모듈에는 도로의 연결이 더 잘 보존되도록 그래픽 정보를 통합합니다.
위성 이미지 도로 세분화 -> Kaggle Massachusetts Roads 데이터 세트를 사용한 매체의 소개 artice.
라벨 픽셀 -> 도로 및 기타 기능의 의미 론적 세분화
위성 이미지-로드-추출-> 심층 잔류 U-Net에 의한 도로 추출
Road_Building_Extraction-> 도로 및 건물 추출을위한 U -Net 아키텍처 구현
RCFSNET-> 도로 컨텍스트 및 전체 단계 기능에 의한 위성 이미지에서 도로 추출
SGCN-> 고해상도 원격 감지 이미지에서 복잡한 환경에서 도로 추출을위한 Split Depth-Wise 분리 가능한 그래프 컨버스 네트워크
ASPN-> ADVERSARIAL 공간 피라미드 네트워크를 사용한 원격 감지 이미지에 대한 도로 세분화
FCNS-for-Road-extraction-Keras-> 다양한 시맨틱 세분화 네트워크를 기반으로 한 고해상도 원격 감지 이미지의 도로 추출
Cresi-> 속도 및 여행 시간 추정치와 함께 위성 이미지에서 도로 네트워크 추출
D -Linknet-> 고해상도 위성 이미지 도로 추출을위한 사전 상환 인코더 및 확장 된 컨볼 루션이있는 Linknet
SAT2GRAPH-> 그래프 검정 인코딩을 통한 도로 그래프 추출
이미지 세분화) -> Massachusetts Road DataSet 및 Fast.ai 사용
Roadtracer -M-> CNN 기반 세분화 및 추적을 사용한 위성 이미지에서 도로 네트워크 추출
Scroadextractor-> 원격 감지 이미지에서 도로 표면 추출을위한 Scribble 기반 약하게 감독 된 딥 러닝
Roadda-> 원격 감지 이미지의 도로 세분화를위한 적대적 자체 훈련을 통한 단계별 비 감독 도메인 적응
DeepSegmentor-> DeepCrack 및 Roadnet 프로젝트의 Pytorch 구현
원격 감지 이미지에서 계단식 잔여주의주의 강화 도로 추출
NL-Linknet-> 비 국소 운영으로 가볍지 만 더 정확한 도로 추출을 향해
IRSR -NET-> 경량 원격 감지 도로 감지 네트워크
Hironex-> 역사적지도에서 역사적 도로 네트워크의 자동, 완전히 감독되지 않은 추출을위한 파이썬 도구
Road_Detection_Model-> 인공 지능 및 Sentinel -2를 갖춘 브라질 아마존의 도로 매핑 도로
크로스 레이어 그래프 퓨전 모듈을 기반으로 한 듀얼 작업 네트워크를 통한 DTNET-> 도로 감지
자동 도로 발전에서 역사적 맵스를 사용하여 깊은 학습 기술-> 딥 러닝 기술을 사용한 과거지도에서 자동 도로 추출
ISTANBUL_DATASET-> 이스탄불, Inria 및 Massachusetts 데이터 세트의 세분화
도로 세분화-> CNN (U-Nets 및 FCN8) 및 로지스틱 회귀를 사용한 위성 이미지의 도로 세분화
D -Linknet- Deepglobe Road 추출 챌린지의 1 위 솔루션
Park-Detect-> Park-Detect : 패치가있는 키패 인트 감지를 통한 효율적인 멀티 태스킹 위성 이미지 도로 추출
Tile2Net-> 도보 매핑 : 공중 이미지에서 보도 네트워크 데이터 세트를 생성하기위한 확장 가능한 컴퓨터 비전 접근법
Aeriallanenet-> 공중 이미지에서 차선 수준의 빌딩, AEL (Aerial Lane) 데이터 세트를 소개합니다. 차선 감지 용으로 구축 된 최초의 대규모 항공 이미지 데이터 세트
SAM_ROD-> 대규모 벡터 도로 네트워크 추출을위한 SAM (Segment ally Model) (SAM).
LRDNET-> 멀티 스케일 컨볼 루션주의 네트워크 및 커플 링 디코더 헤드를 기반으로 한 경량 도로 감지 알고리즘
연결 및 세분화에 대한 공동 학습을 통한 도로 네트워크의 미세한 추출 -> 사용 Spacenet 3 데이터 세트
위성 이미지의 도로 및 구축 시맨틱 세분화 매사추세츠 도로 데이터 세트 및 케라에서 U-Net을 사용합니다.
항공 사진 -> 데이터 세트 생성을 사용하여 무단 구성을 찾으십시오
srbuildseg-> 저해상도 위성 이미지 만들기 : 초 고해상도 건물 추출을위한 딥 러닝 방식
도전적인 spacenet7 데이터 세트에서 Fastai를 사용하여 발자국 탐지 구축 U-Net & Fastai 사용
Pix2pix-for-semantic-segmentation-of-satellite-Images-> pix2pix gan 네트워크 사용 위성 이미지에서 건물 발자국을 세분화하고 Tensorflow를 사용합니다.
Spacenetunet-> 기준선 모델은 U -Net과 비슷하며 Keras를 사용하여 Spacenet Vegas 데이터에 적용됩니다.
자동화 구축 감지-> 입력 : 매우 높은 해상도 (<= 0.5 m/픽셀) RGB 위성 이미지. 출력 : 디지털지도 제품에 사용되는 벡터 형식 (Geojson)의 건물. Robosat와 Robosat.pink 위에 지어졌습니다.
project_sunroof_india-> 분석 된 Google 위성 이미지 개별 하우스 옥상의 태양열 전력에 대한 보고서를 생성하기 위해 다양한 클래식 컴퓨터 비전 기술 (예 : Canny Edge Detection)을 사용하여 지붕을 분류합니다.
CONTERNET-A-COMMON-NEURCON-NETWORK-FOR-ROABL 및 건축-추출
위성 이미지로 아프리카 건물 매핑 : Google AI 블로그 게시물. 오픈 빌딩 데이터 세트를 참조하십시오
NZ_CONVNET-> 빌딩 윤곽선을 분류하기위한 뉴질랜드 이미지를위한 U -Net 기반 CONVNET
Polycnn-> 원격 감지 이미지 분류를위한 다각형의 엔드 투 엔드 학습
spacenet_building_detection 솔루션 UNET를 사용한 Motokimura
vec2instance-> 우주 챌린지 AOI 2 (Vegas) 빌딩 발자국 데이터 세트, Tensorflow v1.12에 적용
EarthQuakedAmageDetection-> 위성 이미지에서 건물 세분화 및 각 빌드에 대한 손상 분류, Keras 사용
Fuweifu-Vtoo의 시맨틱 세분화 Repo-> Pytorch 및 Massachusetts 건물 및 도로 데이터 세트 사용
Amazon Sagemaker를 사용하여 AWS 오픈 데이터에서 건물 및 도로 추출 -> REPO와 함께
tf -segnet-> airnet
RGB-FootPrint-Extract-> RGB 위성 이미지를 사용한 도시 규모 건물 발자국 추출을위한 시맨틱 세분화 네트워크, Deeplavv3+ 확장 된 RESNET C42 백본이있는 모듈
spacenetexploration-> 시맨틱 세분화 모델을 사용하여 위성 이미지에서 건물 발자국을 추출하는 방법을 보여주는 샘플 프로젝트. SpaceNet 챌린지의 데이터
옥상-인스턴스-세그먼트 화-> VGG-16, 인스턴스 세분화는 AIRS 데이터 세트를 사용합니다
태양 광장 매핑-> 인도의 태양 에너지 위치를위한 인공 지능 데이터 세트
가금류-카포스->이 repo는 고해상도 공중 이미지에서 가금류 헛간을 감지하기위한 코드와 미국 전역에 예상되는 헛간의 데이터 세트를 포함합니다.
SSAI -CNN-> 이것은 그의 Massachusetts Road & Building Dataset에서 Volodymyr Mnih의 논문 방법을 구현 한 것입니다.
원격 감지 구축-3D- 모델-using-paddle and-grasshopper
세분화 강화-resunet-> 변형 잔류 U-Net (수정 된 resunet)를 사용하여 대전 지역의 도시 건물 추출 및 사후 처리
Nadir 건물 탐지에서 우주를 위해 RCNN 마스크
GRSL_BFE_MA-> 딥 러닝 기반 건물 발자국 발자국이 새로운 손실 함수를 사용하여 누락 된 주석을 가진 추출
FER -CNN-> 더 빠른 에지 지역 컨볼 루션 신경망을 사용하여 위성 이미지에서 건물의 탐지, 분류 및 경계 정규화
UNET-IMAGE-SEGMATINATION-SATELLITE-PICTURE-> CROWED AI 매핑 데이터 세트의 지붕 상단을 예측하는 UNET, Keras 사용
Aerial-Imagery-Learning-Geospatial-Unet-> 매우 큰 크기의 지리 참조 이미지에 적용되는 벡터 -MAP 세대.
건물 발자국 분할-> PIP 설치 가능한 라이브러리 위성 및 항공 이미지에 대한 발자국 세분화 훈련, 매사추세츠 빌딩 데이터 세트 및 inria 공중 이미지 라벨링 데이터 세트에 적용됩니다.
semsegbuildings-> INRIA 건물 세분화 데이터 세트의 시맨틱 세분화를위한 FAST.AI 프레임 워크 사용 프로젝트
fcnn -example-> 주택을 감지하기 위해 주어진 단일 이미지에 오버 피트
sat2lod2-> 위성 이미지를 입력 및 반환으로 LOD2 빌딩 모델을 출력으로 반환하는 오픈 소스의 파이썬 기반 GUI 지원 소프트웨어
satfootprint-> Spacenet 7 데이터 세트의 건물 세분화
Building -Detection-> 라틴 아메리카의 3 개 도시에서 위성 이미지에서 건물을 감지하기위한 모델을 훈련시키는 래스터 비전 실험
다중 건물 추적기-> 딥 러닝을 사용한 위성 이미지 용 다중 표적 빌딩 트래커
건물 추출을위한 경계 향상 시맨틱 세분화
이진 시맨틱 세분화에 대한 케라 코드
우주 구조 감지
LGPNET-BCD-> 로컬 글로벌 피라미드 네트워크 및 크로스 작업 전송 학습 전략을 통한 VHR 원격 감지 이미지에 대한 건물 변경 탐지
mtl_homoscedastic_srb-> 발자국 세분화 구축을위한 멀티 태스크 딥 러닝 프레임 워크
UNET_CNN-> 원격 감지 데이터를 사용하여 보스턴의 빌딩 커버리지를 세그먼트하는 UNET 모델, Keras 사용
FDANET-> 매우 높은 해상도에서 추출을위한 전체 레벨 도메인 적응 광학 원격 감지 이미지
CBRNET-> 원격 감지 이미지로부터 추출을위한 거친 경계 정제 네트워크
ASLNET-> VHR 원격 감지 이미지에서 추출을 구축하기위한 적대 모양 학습
BRRNET-> 고해상도 원격 감지 이미지에서 자동 건물 추출을위한 완전 컨볼 루션 신경망
멀티 스케일 필터링 빌딩-인덱스-> 매우 높은 해상도 위성 이미지에서 건물 추출을위한 멀티 스케일 필터링 건물 지수
원격 감지 모델 -> 구축 탐지에 적용되는 긴 UNET 등 목록
boundary_loss_for_Remote_Sensing-> 원격 감지 이미지를위한 경계 손실 시맨틱 세분화
열린 도시 AI 챌린지 -> 재난 탄력성을위한 건물 세그먼트. Github에서 우승 솔루션
MAPNET-> 원격 감지 이미지에서 발자국 추출을 구축하기위한 다중 참석 경로 신경망
Dual -Hrnet-> 건물을 현지화하고 손상 수준을 분류합니다
ESFNET-> 고해상도 공중 이미지에서 추출을 구축하기위한 효율적인 네트워크
옥상 검출-파이썬-> 저해상도 위성 이미지에서 옥상을 감지하고 고전적인 컴퓨터 시력 기술을 사용하여 재배 및 태양 전지판 할부 영역을 계산합니다.
keras_segmentation_models-> 열린 벡터 기반 공간 데이터를 사용하여 래스터 데이터를위한 세분화를위한 시맨틱 데이터 세트를 만듭니다.
CVCMFFNET-> INSAR 이미지의 의미 론적 세분화 구축을위한 복잡한 값 컨볼 루션 및 다중 식 퓨전 네트워크
STEB-UNET-> SWIN 변압기 기반 인코딩 인코딩 부스터는 U 자형 네트워크에 통합되어 추출을 구축합니다.
DFC2020_BASELESLE-> IEEE GRSS 데이터 퓨전 콘테스트에 대한 기준 솔루션 2020. Sentinel-1 및 Sentinel-2 이미지의 랜드 커버 레이블 예측
다른 데이터 세트를 기반으로 다중 세분화 모델 융합 단일 에지 배치 모델 -> 지붕, 자동차 및 도로 세분화
지상 진실-간-세분화-> Pix2Pix를 사용하여 건물의 발자국을 분류하십시오. 사용 된 데이터 세트는 Airs입니다
UNICEF -GIGA_SUDAN-> UNET 세분화 모델을 사용하여 남부 수단의 위성 이미지에서 학교 로트 감지
building_footprint_extraction-> 프로젝트는 Google에서 위성 이미지를 검색하고 U -Net을 사용하여 Building Footprint Extraction을 수행합니다.
전기화 -> 적대 및 정규화 된 손실을 사용하여 위성 이미지에서 건물 경계의 정규화
polyworldprecreationnetwork-> 위성 이미지에서 그래프 신경망을 사용한 다각형 건물 추출
DL_IMAGE_SEMENTATION-> 빈민가 매핑 및 모니터링을위한 불확실성 해석 가능한 딥 러닝. Shap을 사용합니다
UBC-Dataset-> 개별 건물의 객체 수준 해석에 중점을 둔 매우 고해상도 위성 이미지에서 탐지 및 분류를위한 데이터 세트
UNETFORMER-> 원격 감지 도시 장면 이미지의 효율적인 의미 론적 세분화를위한 UNET와 같은 변압기
BES-NET-> 고해상도 이미지 시맨틱 세분화를위한 시맨틱 컨텍스트 네트워크 향상. Vaihingen 및 Potsdam 데이터 세트에 적용됩니다
CVNET-> 건물 추출을위한 컨투어 진동 네트워크
CFENET-> 고해상도 원격 감지 이미지에서 추출을 구축하기위한 컨텍스트 기능 향상 네트워크
HISUP-> 위성 이미지에서 건물의 정확한 다각형 매핑
BuildingExtraction-> 희소 토큰 변압기를 사용한 원격 감지 이미지에서 건물 추출
Crossgeonet-> 라벨 스캔 지리적 지역의 발자국 생성을위한 프레임 워크
AFM_BUILDING-> 매력 필드 표현을 가진 컨볼 루션 신경망을 통한 발자국 생성 구축
RAMP (소액 성인을위한 복제 가능한 AI) -> 저소득 및 중간 소득 국가의 건물 탐지
빌딩 인스턴스-세분화-> 구축 인스턴스 추출을위한 적응성 센터 포인트 탐지기와 함께하는 멀티 모달 기능 퓨전 네트워크
CGSANET-> 매우 고해상도 원격 감지 이미지에서 정확한 건물 추출을위한 윤곽 가이드 및 로컬 구조 인식 엔코더 네트워크
건물 발자국 업데이트-> 기존 건물 발자국을 업데이트하기 위해 Bitemporal 원격 감지 이미지의 학습 색상 분포
램프 -> 다양한 인도 주의적 유용 사례를 지원하기위한 모델 및 건물 데이터 세트
gesis_semantic_image_segmentation_on_satellite_imagery_using_unets->이 마스터 논문은 U -Net 아키텍처를 사용한 SpaceNet Challenge 1 데이터 세트의 위성 이미지에서 건물의 시맨틱 세분화를 수행하는 것을 목표로합니다.
HD-NET-> 깊이 감독 된 신체 및 경계 분해를 통해 발자국 추출을 구축하기위한 고해상도 해체 네트워크
ROOFSENSE-> 공중 이미지 및 레이저 스캐닝 데이터 퓨전을 사용한 네덜란드 건물 재고의 자동 지붕 재료 분류를위한 새로운 딥 러닝 솔루션
IBS-AQSNET-> 고해상도 원격 감지 이미지에서 대화식 건물 세분화를위한 향상된 자동 품질 평가 네트워크
Deepmao-> 위성 이미지에서 세분화를위한 Deep Multi -Scale Aware Complete Network
딥 러닝-솔라 솔-파넬-인식-> yolov5를 사용한 물체 감지 및 UNET 세분화 사용
Deepsolar-> 미국에서 태양 광 배포 데이터베이스를 효율적으로 구성하는 머신 러닝 프레임 워크. Kaggle의 데이터 세트는 실제로 분류에 CNN을 사용했으며 세분화는 활성화 맵에 임계 값을 적용하여 얻습니다. 원래 코드는 TF1이지만 TF2/KERS 및 Pytorch 구현을 사용할 수 있습니다. 또한 체크 아웃 시각화 및 심층 분석.
hyperion_solar_net-> Google지도에서 RGB 이미지에서 훈련 된 분류 및 세분화 모델
3D-PV-Locator-> 3D에서 옥상 장착 태양 광 시스템의 대규모 감지
PV_PIPLESLE-> 독일의 심해
태양-패널 감지-> Segnet 사용, f