L'apprentissage profond a révolutionné l'analyse et l'interprétation des images satellitaires et aériennes, en relevant des défis uniques tels que les grandes tailles d'images et un large éventail de classes d'objets. Ce référentiel fournit un aperçu exhaustif des techniques d'apprentissage profond spécifiquement adaptées au traitement des images satellitaires et aériennes. Il couvre une gamme d'architectures, de modèles et d'algorithmes adaptés à des tâches clés telles que la classification, la segmentation et la détection d'objets.
Comment utiliser ce référentiel : utilisez Command + F
(Mac) ou CTRL + F
(Windows) pour rechercher sur cette page, par exemple "SAM".
L'ensemble de données UC Merced est un ensemble de données de classification bien connu.
La classification est une tâche fondamentale dans l'analyse des données de télédétection, où l'objectif est d'attribuer une étiquette sémantique à chaque image, telle que « urbain », « forêt », « terre agricole », etc. Le processus d'attribution d'étiquettes à une image est connue sous le nom de classification au niveau de l’image. Cependant, dans certains cas, une seule image peut contenir plusieurs types de couverture terrestre différents, comme une forêt traversée par une rivière ou une ville comprenant à la fois des zones résidentielles et commerciales. Dans ces cas, la classification au niveau de l’image devient plus complexe et implique l’attribution de plusieurs étiquettes à une seule image. Cela peut être accompli en combinant des algorithmes d’extraction de caractéristiques et d’apprentissage automatique pour identifier avec précision les différents types de couverture terrestre. Il est important de noter que la classification au niveau de l’image ne doit pas être confondue avec la classification au niveau des pixels, également appelée segmentation sémantique. Alors que la classification au niveau de l'image attribue une seule étiquette à une image entière, la segmentation sémantique attribue une étiquette à chaque pixel individuel d'une image, ce qui donne une représentation très détaillée et précise des types de couverture terrestre dans une image. Lire Une brève introduction à la classification d'images satellite avec des réseaux de neurones
Classification des terres sur les données Sentinel 2 à l'aide d'un simple algorithme de cluster Sklearn ou de Deep Learning CNN
Classification multi-étiquettes de photos satellites de la forêt amazonienne à l'aide de keras ou FastAI
EuroSat-Satellite-CNN-and-ResNet -> Classifier des ensembles de données d'images personnalisés en créant des réseaux de neurones convolutifs et des réseaux résiduels à partir de zéro avec PyTorch
Détection des établissements informels à partir de l'imagerie satellite à l'aide du réglage fin du classificateur ResNet-50 avec repo
Land-Cover-Classification-using-Sentinel-2-Dataset -> article Medium bien écrit accompagnant ce référentiel mais utilisant l'ensemble de données EuroSAT
Classification de la couverture terrestre de l'imagerie satellite à l'aide de réseaux de neurones convolutifs utilisant Keras et un ensemble de données multispectrales capturées sur les champs de vignobles de Salinas Valley, Californie
Détection de la déforestation à partir d'images satellite -> en utilisant FastAI et ResNet50, avec repo fsdl_deforestation_detection
Réseau neuronal pour la classification des données satellite à l'aide de Tensorflow en Python -> Un guide étape par étape pour la classification des données multispectrales Landsat 5 pour la prédiction de classe binaire construite/non construite, avec référentiel
Cartographie des bidonvilles à partir du réseau CNN pré-entraîné sur des images VHR (Pléiades : 0,5 m) et MR (Sentinel : 10 m)
Comparaison des environnements urbains à l'aide de l'imagerie satellite et des réseaux de neurones convolutifs -> comprend une étude intéressante des fonctionnalités d'intégration d'images extraites pour chaque image de l'ensemble de données de l'Atlas urbain
RSI-CB -> Une référence de classification d'images de télédétection à grande échelle via des données Crowdsource. Voir également Classification des images de télédétection
NAIP_PoolDetection -> modélisé comme un problème de reconnaissance d'objets, un CNN est utilisé pour identifier les images comme étant des piscines ou autre chose - en particulier une rue, un toit ou une pelouse
Classification de l'utilisation et de la couverture des terres à l'aide d'une architecture d'apprentissage profond ResNet -> utilise fastai et l'ensemble de données EuroSAT
Cas d'utilisation des transformateurs de vision : classification d'images satellite sans CNN
WaterNet -> un CNN qui identifie l'eau dans les images satellite
Road-Network-Classification -> Modèle de classification du réseau routier utilisant ResNet-34, classes de routes organiques, quadrillées, radiales et sans motif
Faire évoluer l’IA pour cartographier chaque école de la planète
Tutoriel CNN de classification Landsat avec dépôt
classification des passages pour piétons par satellite
Comprendre la forêt amazonienne avec la classification multi-étiquettes + VGG-19, Inceptionv3, AlexNet et Transfer Learning
Implémentation du modèle 3D-CNN pour la classification de la couverture terrestre -> utilise le jeu de données Sundarbans, avec repo
SSTN -> Réseau de transformateurs spectraux-spatiaux pour la classification d'images hyperspectrales : un cadre FAS
SatellitePollutionCNN -> Un nouvel algorithme pour prédire les niveaux de pollution de l'air avec une précision de pointe en utilisant le deep learning et les images satellite de GoogleMaps
PropertyClassification -> Classification du type de propriété en fonction des images immobilières, satellite et Street View
remote-sense-quickstart -> classification sur un certain nombre d'ensembles de données, y compris avec visualisation de l'attention
Classification d'images satellite à l'aide de plusieurs algorithmes d'apprentissage automatique
satsense -> classification de l'utilisation/couverture des terres utilisant des fonctionnalités classiques, notamment HoG et NDVI
PyTorch_UCMerced_LandUse
Classification des images EuroSAT
landcover_classification -> utilisation de fast.ai sur EuroSAT
IGARSS2020_BWMS -> Architecture CNN multi-échelle par bande pour la classification de scènes d'images de télédétection avec une nouvelle architecture CNN pour l'intégration de fonctionnalités d'images RS de grande dimension
image.classification.on.EuroSAT -> solution en pytorch pur
hurricane_damage -> Évaluation des dommages aux structures post-ouragan basée sur l'imagerie aérienne
openai-drivendata-challenge -> Utilisation du deep learning pour classer les matériaux de construction des toits (imagerie aérienne d'Amérique du Sud)
est-elle-abandonnée -> Pouvons-nous savoir si une maison est abandonnée sur la base de l'imagerie aérienne LIDAR ?
BoulderAreaDetector -> CNN pour déterminer si une image satellite montre qu'une zone serait un bon site d'escalade ou non
ISPRS_S2FL -> Ensembles de données de référence de télédétection multimodale pour la classification de la couverture terrestre avec un modèle d'apprentissage de fonctionnalités partagé et spécifique
Détection du café brésilien -> utilise Keras avec un ensemble de données public
tf-crash-severity -> prédire la gravité de l'accident pour des caractéristiques routières données contenues dans les images satellite
ensemble_LCLU -> Ensembles de réseaux neuronaux profonds pour la classification de la couverture terrestre et de l'utilisation des terres par télédétection
cerraNet -> classer contextuellement les types d'utilisation et de couverture dans le Cerrado brésilien
Analyse urbaine à l'aide d'images satellite -> classer la zone urbaine comme planifiée ou non planifiée en utilisant une combinaison de segmentation et de classification
ChipClassification -> Apprentissage profond pour la classification multimodale des scènes de nuages, d'ombres et de couverture terrestre dans les images PlanetScope et Sentinel-2
DeeplearningClassficationLandsat-tImages -> Classification de l'eau/de la glace/des terres à l'aide d'images satellite Landsat à moyenne résolution à grande échelle
wildfire-detection-from-satellite-images-ml -> détecter si une image contient un incendie de forêt, avec un exemple d'application Web Flask
mining-discovery-with-deep-learning -> Détection de barrages miniers et de résidus dans l'imagerie satellite à l'aide du Deep Learning
Plateforme e-Farmerce -> classer le type de culture
sentinel2-deep-learning -> Nouvelles méthodologies de formation pour la classification des terres des images Sentinel-2
Transfert RSSC -> Le rôle de la pré-formation dans la classification des scènes de télédétection à haute résolution
Classification de photos géoréférencées et d'images satellites pour prendre en charge la classification du terrain -> détecter les inondations
Payer plus d'attention -> Classification des scènes d'images de télédétection basée sur un module d'attention amélioré
Classification des images de télédétection via une stratégie améliorée de perte d'entropie croisée et d'apprentissage par transfert basée sur des réseaux neuronaux à convolution profonde
DenseNet40-for-HRRSISC -> DenseNet40 pour la classification des scènes d'images de télédétection, utilise l'ensemble de données UC Merced
SKAL -> Regard de plus près sur la scène : apprentissage de représentations multi-échelles pour la classification des scènes d'images de télédétection
potsdam-tensorflow-practice -> classification d'images de l'ensemble de données de Potsdam à l'aide de tensorflow
SAFF -> Fusion approfondie de fonctionnalités basée sur l'auto-attention pour la classification des scènes de télédétection
GLNET -> Classification des scènes de télédétection basée sur les réseaux de neurones convolutifs dans des environnements clairs et nuageux
Classification des images de télédétection -> transfert d'apprentissage à l'aide de pytorch pour classer les données de télédétection en trois classes : avions, navires, aucune
remote_sensing_pretrained_models -> comme alternative au réglage fin des modèles pré-entraînés sur ImageNet, ici certains CNN sont pré-entraînés sur les ensembles de données RSD46-WHU & AID
CNN_AircraftDetection -> CNN pour la détection d'avions dans les images satellite à l'aide de keras
OBIC-GCN -> Cadre de classification basé sur les objets des images de télédétection avec des réseaux convolutifs graphiques
aitlas-arena -> Un cadre de référence open source pour évaluer les approches d'apprentissage profond de pointe pour la classification d'images en observation de la Terre (EO)
drywatch -> Prédiction par satellite des conditions fourragères pour le bétail dans le nord du Kenya
JSTARS_2020_DPN-HRA -> Réseaux prototypiques profonds avec attention résiduelle hybride pour la classification d'images hyperspectrales
SIGNA -> Attention aux canaux mondiaux à entrelacement sémantique pour la classification d'images de télédétection multi-étiquettes
Classification d'images satellites à l'aide des données rmldnn et Sentinel 2
PBDL -> Apprentissage discriminant basé sur des patchs pour la classification des scènes de télédétection
EmergencyNet -> identifier les incendies et autres urgences à partir d'un drone
satellite-deforestation -> Utilisation de l'imagerie satellite pour identifier les principaux indicateurs de déforestation, appliqués au Kaggle Challenge Comprendre l'Amazonie depuis l'espace
RSMLC -> Architectures de réseaux profonds comme extracteurs de fonctionnalités pour la classification multi-étiquettes des images de télédétection
FireRisk -> Un ensemble de données de télédétection pour l'évaluation des risques d'incendie avec des références utilisant l'apprentissage supervisé et auto-supervisé
Flood_susceptibility_mapping -> Vers une cartographie urbaine de la susceptibilité aux inondations à l'aide de modèles basés sur des données à Berlin, en Allemagne
tick-tick-bloom -> Gagnants du Tick Tick Bloom : Défi de détection des proliférations d'algues nuisibles. La tâche consistait à prédire la gravité de la prolifération d'algues. Les gagnants ont utilisé des arbres de décision.
Estimation du fonctionnement d'une centrale électrique au charbon à partir d'images satellite avec vision par ordinateur -> utilisez les données Sentinel 2 pour identifier si une centrale électrique au charbon est allumée ou éteinte, avec un ensemble de données et un référentiel
Détection de bâtiment et reconnaissance de type de toit -> Une approche basée sur CNN pour la détection automatique de bâtiments et la reconnaissance des types de toit à l'aide d'une seule image aérienne
Comparaison des performances des canaux multispectraux pour la classification de l'utilisation des terres -> Implémentation de ResNet-50, ResNet-101, ResNet-152, Vision Transformer sur RVB et versions multispectrales de l'ensemble de données EuroSAT.
SNN4Space -> projet qui étudie la faisabilité du déploiement de réseaux de neurones à pointe (SNN) dans les tâches de classification de la couverture terrestre et de l'utilisation des terres
classification des navires -> classer les navires et identifier le comportement de pêche sur la base des données AIS
RSMamba -> Classification d'images de télédétection avec modèle d'espace d'état
BirdSAT -> Auto-encodeurs masqués contrastés à vue croisée pour la classification et la cartographie des espèces d'oiseaux
EGNNA_WND -> Estimation de la présence de la maladie du Nil occidental à l'aide du réseau Graph Neural
cyfi -> Estimer la densité des cyanobactéries sur la base de l'imagerie satellite Sentinel-2
(à gauche) une image satellite et (à droite) les classes sémantiques de l'image.
La segmentation d'images est une étape cruciale dans l'analyse d'images et la vision par ordinateur, dans le but de diviser une image en segments ou régions sémantiquement significatifs. Le processus de segmentation d'image attribue une étiquette de classe à chaque pixel d'une image, transformant ainsi efficacement une image d'une grille 2D de pixels en une grille 2D de pixels avec des étiquettes de classe attribuées. Une application courante de la segmentation d'images est la segmentation de routes ou de bâtiments, où l'objectif est d'identifier et de séparer les routes et les bâtiments des autres éléments d'une image. Pour accomplir cette tâche, des modèles à classe unique sont souvent formés pour différencier les routes et l'arrière-plan, ou les bâtiments et l'arrière-plan. Ces modèles sont conçus pour reconnaître des caractéristiques spécifiques, telles que la couleur, la texture et la forme, caractéristiques des routes ou des bâtiments, et utilisent ces informations pour attribuer des étiquettes de classe aux pixels d'une image. Une autre application courante de la segmentation d’images est la classification de l’utilisation des terres ou des types de cultures, où l’objectif est d’identifier et de cartographier différents types de couverture terrestre au sein d’une image. Dans ce cas, les modèles multiclasses sont généralement utilisés pour reconnaître et différencier plusieurs classes au sein d'une image, telles que les forêts, les zones urbaines et les terres agricoles. Ces modèles sont capables de reconnaître des relations complexes entre différents types de couverture terrestre, permettant ainsi une compréhension plus complète du contenu de l'image. Lire Une brève introduction à la segmentation d'images satellite avec des réseaux de neurones. Notez que de nombreux articles qui font référence à la « classification hyperspectrale des terres » décrivent souvent en réalité une segmentation sémantique. Source des images
U-Net pour la segmentation sémantique sur l'imagerie aérienne déséquilibrée -> utilisation de l'ensemble de données de Dubaï
Segmentation sémantique de l'ensemble de données de Dubaï à l'aide d'un modèle TensorFlow U-Net
nga-deep-learning -> effectue une segmentation sémantique sur des données GeoTIF à haut résultat à l'aide d'un U-Net & Keras modifié, publié par des chercheurs de la NASA
Détection automatique des décharges grâce au Deep Learning
SpectralNET -> un CNN d'ondelettes 2D pour la classification d'images hyperspectrales, utilise l'ensemble de données de la scène Salinas et Keras
laika -> Le but de ce référentiel est de rechercher des sources potentielles de données d'images satellite et de mettre en œuvre divers algorithmes de segmentation d'images satellite
PEARL -> un outil d'IA humain dans la boucle pour réduire considérablement le temps nécessaire pour produire une carte précise d'utilisation des terres/couverture des terres (LULC), article de blog, utilise l'ordinateur planétaire Microsoft et les modèles ML exécutés localement dans le navigateur. Code pour le backelnd et le frontend
Classification de la couverture terrestre avec U-Net -> Tâche de segmentation sémantique multiclasse d'images satellite avec PyTorch Implémentation de U-Net, utilise l'ensemble de données de segmentation de la couverture terrestre DeepGlobe, avec code
Segmentation sémantique multiclasse d'images satellite à l'aide d'U-Net à l'aide de l'ensemble de données DSTL, tensorflow 1 et python 2.7. Article d'accompagnement
Base de code pour la classification multi-classes de la couverture terrestre avec U-Net accompagnant un mémoire de maîtrise, utilise Keras
dubai-satellite-imagerie-segmentation -> en raison du petit ensemble de données, une augmentation d'image a été utilisée
Segmentation CDL -> Classification de la couverture terrestre et des types de cultures basée sur l'apprentissage profond : une étude comparative. Compare UNet, SegNet et DeepLabv3+
LoveDA -> Un ensemble de données de couverture terrestre de télédétection pour la segmentation sémantique adaptative de domaine
Segmentation sémantique d'images satellite avec CNN -> 7 classes de segmentation différentes, ensemble de données DeepGlobe Land Cover Classification Challenge, avec dépôt
Article moyen sur la segmentation sémantique aérienne à l'aide du modèle d'apprentissage profond U-Net, avec dépôt
UNet-Satellite-Image-Segmentation -> Une implémentation Tensorflow du cadre léger de segmentation sémantique UNet
Solution du défi de classification de la couverture terrestre DeepGlobe
Segmentation sémantique avec PyTorch-Satellite-Imagery -> prédire 25 classes sur les images RVB prises pour évaluer les dégâts après l'ouragan Harvey
Segmentation sémantique avec l'imagerie Sentinel-2 -> utilise l'ensemble de données LandCoverNet et fast.ai
CNN_Enhanced_GCN -> Réseau convolutif de graphiques amélioré par CNN avec fusion de fonctionnalités au niveau des pixels et des superpixels pour la classification d'images hyperspectrales
LULCMapping-WV3images-CORINE-DLMethods -> Cartographie de l'utilisation et de la couverture des terres à l'aide d'approches de segmentation basées sur l'apprentissage profond et d'images VHR Worldview-3
MCANet -> Un cadre commun de segmentation sémantique d'images optiques et SAR pour la classification de l'utilisation des terres. Utilise l'ensemble de données WHU-OPT-SAR
MUNet-LUC
land-cover -> Généralisation de modèles dans les applications d'apprentissage profond pour la cartographie de la couverture terrestre
generalizingrsc -> Apprentissage croisé d'ensembles de données pour la classification généralisable des scènes d'utilisation des terres
Identification automatique à grande échelle des terrains urbains vacants -> Identification automatique à grande échelle des terrains vacants urbains à l'aide de la segmentation sémantique d'images de télédétection à haute résolution
SSLTransformerRS -> Transformateurs de vision auto-supervisés pour la segmentation et la classification de la couverture terrestre
segmentation aérienne -> Segmentation sémantique d'images satellite de grande taille en 6 classes à l'aide de Tensorflow 2.0 et de l'ensemble de données de référence ISPRS
LULCMapping-WV3images-CORINE-DLMethods -> Cartographie de l'utilisation et de la couverture des terres à l'aide d'approches de segmentation basées sur l'apprentissage profond et d'images VHR Worldview-3
DCSA-Net -> Réseau d'auto-attention à convolution dynamique pour la classification de la couverture terrestre dans les images de télédétection THR
CHeGCN-CNN_enhanced_Heterogeneous_Graph -> Réseau convolutif de graphiques hétérogènes amélioré par CNN : déduire l'utilisation des terres à partir de la couverture terrestre avec une étude de cas de segmentation des parcs
TCSVT_2022_DGSSC -> DGSSC : un classificateur spectral-spatial génératif profond pour l'imagerie hyperspectrale déséquilibrée
DeepForest-Wetland-Paper -> Classificateur Deep Forest pour la cartographie des zones humides utilisant la combinaison des données Sentinel-1 et Sentinel-2, GIScience et télédétection
Wetland_UNet -> Modèles UNet qui peuvent délimiter les zones humides à l'aide de données de télédétection, y compris les bandes du LiDAR Sentinel-2 et les géomorphons. Par le Conservation Innovation Center de Chesapeake Conservancy et Defenders of Wildlife
DPA -> DPA est une méthode d'adaptation de domaine non supervisée (UDA) appliquée à différentes images satellite pour la cartographie de la couverture terrestre à grande échelle.
Dynamic World -> Dynamic World, cartographie mondiale de la couverture terrestre de l'utilisation des terres sur 10 m en temps quasi réel
spada -> Segmentation de la couverture terrestre avec des annotations clairsemées de l'imagerie Sentinel-2
M3SPADA -> Adaptation de domaine temporel non supervisé multi-capteurs pour la cartographie de la couverture terrestre avec pseudo-étiquetage spatial et apprentissage contradictoire
GLNet -> Réseaux collaboratifs mondiaux-locaux pour une segmentation efficace en mémoire des images à ultra haute résolution
LoveNAS -> LoveNAS : vers une cartographie multi-scènes de la couverture terrestre via un réseau adaptatif de recherche hiérarchique
Défi FLAIR-2 -> Défi de segmentation sémantique et d'adaptation de domaine proposé par l'Institut National de l'Information Géographique et Forestière (IGN)
flair-2 solution 8ème place
Notez que la détection de la déforestation peut être traitée comme une tâche de segmentation ou une tâche de détection de changement.
DetecTree -> Détection d'arbres à partir d'images aériennes en Python, un classificateur LightGBM de pixels arbre/non-arbre à partir d'images aériennes
Détection des limites du champ Сrор : approches et principaux défis -> Article Medium, couvrant les approches historiques et modernes
kenya-crop-mask -> Cartographie des cultures annuelles et saisonnières au Kenya - Classificateur LSTM pour classer les pixels comme contenant ou non des cultures, et un prévisionniste multispectral qui fournit une série chronologique de 12 mois avec une entrée partielle. Ensemble de données téléchargé depuis GEE et pytorch Lightning utilisé pour la formation
Qu'est-ce qui pousse là-bas ? Identifiez les cultures à partir de données de télédétection multispectrales (Sentinel 2) à l'aide d'eo-learn pour le prétraitement des données, la détection des nuages, le calcul du NDVI, l'augmentation d'images et le fastai.
Classification des espèces d'arbres à partir de données LiDAR aéroportées et hyperspectrales utilisant des réseaux neuronaux convolutifs 3D
classification des types de cultures -> l'utilisation des données Sentinel 1 et 2 avec un U-Net + LSTM, plus de fonctionnalités (c'est-à-dire des bandes) et une résolution plus élevée ont produit de meilleurs résultats (article, pas de code)
Trouvez des terrains de sport à l'aide de Mask R-CNN et superposez-les sur une carte de rue ouverte
Un LSTM pour générer un masque de recadrage pour le Togo
DeepSatModels -> Pré-entraînement contextuel auto-contraste pour la segmentation sémantique des types de cultures
farm-pin-crop-detection-challenge -> Utiliser eo-learn et fastai pour identifier les cultures à partir de données de télédétection multispectrales
Détection des terres agricoles à partir de l'imagerie satellite Sentinel-2 -> Nous avons développé UNet-Agri, un modèle d'apprentissage automatique de référence qui classe les terres cultivées à l'aide d'images Sentinel-2 en libre accès à une résolution spatiale de 10 m.
DeepTreeAttention -> Implémentation de Hang et al. 2020 "Classification d'images hyperspectrales avec CNN assistés par attention" pour la prédiction des espèces d'arbres
Classification des cultures -> classification des cultures à l'aide d'images satellite multi-temporelles
ParcelDelineation -> utilisation d'un jeu de données de polygones français et unet en keras
crop-mask -> Workflow de bout en bout pour générer des cartes de terres cultivées haute résolution, utilise le modèle GEE et LSTM
DeepCropMapping -> Une approche d'apprentissage profond multitemporel avec une généralisabilité spatiale améliorée pour la cartographie dynamique du maïs et du soja, utilise LSTM
Segmenter la couverture du couvert forestier et le sol à l'aide de NDVI et Rasterio
Utilisez le clustering KMeans pour segmenter les images satellite par couverture terrestre/utilisation des terres
ResUnet-a -> un cadre d'apprentissage en profondeur pour la segmentation sémantique des données de télédétection
DSD_paper_2020 -> Classification des types de cultures basée sur l'apprentissage automatique avec des données Sentinel-1 multitemporelles
MR-DNN -> extraire une rizière de l'imagerie satellite Landsat 8
deep_learning_forest_monitoring -> Cartographie et surveillance des forêts du continent africain à l'aide des données Sentinel-2 et du deep learning
global-cropland-mapping -> cartographie mondiale multi-temporelle des terres cultivées
U-Net pour la segmentation sémantique des champs de cultures de soja avec des images SAR
UNet-RemoteSensing -> utilise 7 bandes de Landsat et keras
Landuse_DL -> délimiter les reliefs dus au dégel du pergélisol riche en glace
canopy -> Un classificateur de réseau neuronal convolutif identifie les espèces d'arbres dans une forêt de conifères mixtes à partir d'images hyperspectrales
RandomForest-Classification -> Données multicapteurs pour dériver les communautés végétales des tourbières à l'aide d'un véhicule aérien sans pilote à voilure fixe
forest_change_detection -> segmentation des changements forestiers avec des modèles dépendants du temps, notamment les modèles siamois, UNet-LSTM, UNet-diff, UNet3D
cultionet -> segmentation des terres cultivées, construite sur PyTorch Geographic et PyTorch Lightning
sentinel-tree-cover -> Une méthode globale pour identifier les arbres en dehors des forêts à canopée fermée avec des images satellite à moyenne résolution
crop-type-detection-ICLR-2020 -> Solutions gagnantes du concours de détection de types de cultures à l'atelier CV4A, ICLR 2020
Identification des cultures par imagerie satellite -> Article Medium, introduction à l'identification des cultures
Modèles S4A -> Diverses expériences sur l'ensemble de données Sen4AgriNet
attention-mechanism-unet -> Un U-Net basé sur l'attention pour détecter la déforestation à l'aide d'images de capteurs satellites
Cocoa_plantations_detection -> Détection des plantations de cacao en Côte d'Ivoire à l'aide des données de télédétection Sentinel-2 utilisant KNN, SVM, Random Forest et MLP
SummerCrop_Deeplearning -> Un modèle de classification d'apprentissage transférable et une estimation de la séquestration du carbone des cultures dans l'écosystème des terres agricoles
DeepForest est un package Python permettant d'entraîner et de prédire les couronnes d'arbres individuelles à partir d'images RVB aéroportées.
Dépôt officiel du défi "Identifier les arbres sur des images satellite" d'Omdena
Comptage des arbres à l'aide d'images satellite -> créer un inventaire des arbres entrants et sortants pour une inspection annuelle des arbres, utilise des keras et la segmentation sémantique
Article Nature 2020 - Un nombre étonnamment élevé d'arbres dans le Sahara et le Sahel d'Afrique de l'Ouest -> cadre de détection d'arbres basé sur U-Net et tensorflow 2 avec le code ici
TreeDetection -> Un classificateur basé sur la couleur pour détecter les arbres dans les données d'image Google ainsi que la localisation visuelle des arbres et les calculs de la taille de la couronne via OpenCV
PTDM -> Méthode de détection des pomelos basée sur le mécanisme d'attention et la fusion de fonctionnalités multicouches
urban-tree-detection -> Détection d'arbres individuels dans des environnements urbains à grande échelle à l'aide d'images multispectrales haute résolution. Avec ensemble de données
BioMassters_baseline -> une base de référence de base pour la foudre pytorch utilisant un UNet pour démarrer avec le défi BioMassters (estimation de la biomasse)
Gagnants Biomasters -> top 3 des solutions
Solution biomassters kbrodt -> Solution 1ère place
solution de biomassers quqixun
estimation de la biomasse -> d'Azavea, appliquée à Sentinel 1 & 2
3DUNetGSFormer -> Un pipeline d'apprentissage en profondeur pour la cartographie complexe des zones humides à l'aide de réseaux antagonistes génératifs et du transformateur Swin
SEANet_torch -> Utilisation d'un réseau neuronal multitâche sémantique sensible aux contours pour délimiter les parcelles agricoles à partir d'images de télédétection
arboriseur -> Segmentation et classification des cimes des arbres
ReUse -> REgressive Unet pour le stockage du carbone et l'estimation de la biomasse aérienne
unet-sentinel -> UNet pour gérer les images SAR Sentinel-1 pour identifier la déforestation
MaskedSST -> Transformateurs de vision masqués pour la classification d'images hyperspectrales
UNet-defmapping -> mémoire de maîtrise utilisant UNet pour cartographier la déforestation à l'aide d'images Sentinel-2 niveau 2A, appliqué à l'ensemble de données de l'Amazonie et de la forêt tropicale atlantique
cvpr-multiearth-deforestation-segmentation -> entrée multimodale Unet au défi de déforestation CVPR Multiearth 2023
classification-supervisée-du-blé-à l'aide-pytorchs-torchgeo -> classification supervisée du blé à l'aide de torchgeo
TransUNetplus2 -> TransU-Net++ : Repenser le TransU-Net fermé à l'attention pour la cartographie de la déforestation. Utilise l'ensemble de données sur les forêts amazoniennes et atlantiques
Un modèle haute résolution de la hauteur de la canopée de la Terre -> Un modèle haute résolution de la hauteur de la canopée de la Terre
Radiant Earth Spot the Crop Challenge -> Les modèles gagnants du Radiant Earth Spot the Crop Challenge utilisent une série chronologique de données multispectrales Sentinel-2 pour classer les cultures dans le Cap occidental en Afrique du Sud. Une autre solution
transfer-field-delineation -> Apprentissage par transfert multi-régions pour la segmentation des limites des champs de culture dans les images satellite avec des étiquettes limitées
tonte-détection -> Détection automatique de la tonte et du pâturage à partir des images Sentinel
PTAViT3D et PTAViT3DCA -> Lutte contre les nuages duveteux : détection des limites de champ à l'aide de séries temporelles d'images S2 et/ou S1
ai4boundaries -> un package Python qui facilite le téléchargement de l'ensemble de données AI4boundaries
pytorch-waterbody-segmentation -> Modèle UNET formé sur l'ensemble de données d'images satellite des masses d'eau de Kaggle. Le modèle est déployé sur Hugging Face Spaces
Détection et analyse des inondations à l'aide d'UNET avec Resnet-34 car l'épine dorsale utilise fastai
Détection automatique des inondations à partir d'images satellites grâce au Deep Learning
L'UNSOAT a utilisé fastai pour entraîner une Unet à effectuer une segmentation sémantique sur des images satellite afin de détecter l'eau.
Classification et segmentation semi-supervisées sur images aériennes haute résolution - Résoudre le problème FloodNet
Houston_flooding -> étiqueter chaque pixel comme étant inondé ou n'utilisant pas les données de l'ouragan Harvey. L'ensemble de données était constitué d'images avant et après l'inondation, et un masque de vérité terrain sur les eaux de crue a été créé à l'aide d'un regroupement non supervisé (avec DBScan) de pixels d'image avec vérification/ajustement de cluster humain.
ml4floods -> Un écosystème de données, de modèles et de pipelines de code pour lutter contre les inondations avec le ML
Un guide complet pour démarrer le concours ETCI Flood Detection -> utiliser Sentinel1 SAR et pytorch
Cartographier les eaux de crue des images SAR avec SageMaker -> appliqué à l'ensemble de données Sentinel-1
Solution de 1ère place pour STAC Overflow : cartographier les eaux de crue à partir d'images radar hébergées par Microsoft AI for Earth -> combine Unet avec Catboostclassifier, en prenant leurs maxima, pas la moyenne
hydra-floods -> une application Python open source pour télécharger, traiter et fournir des cartes des eaux de surface dérivées de données de télédétection
CoastSat -> outil de cartographie des littoraux qui possède une extension CoastSeg utilisant des modèles de segmentation
Satellite_Flood_Segmentation_of_Harvey -> explore à la fois l'apprentissage en profondeur et les moyens traditionnels
Détection des inondations à l'aide d'images satellites
ETCI-2021-Concours-sur-la-détection-d'inondation -> Expériences sur la segmentation des inondations sur l'imagerie SAR Sentinel-1 avec pseudo-étiquetage cyclique et formation d'étudiants bruyants
FDSI -> Détection des inondations dans les images satellites - Tâche satellite multimédia 2017
deepwatermap -> un modèle profond qui segmente l'eau sur des images multispectrales
rivamap -> un moteur automatisé d'analyse et de cartographie des rivières
en eau profonde -> suivre les changements du niveau d'eau
WatNet -> Un ConvNet approfondi pour la cartographie des eaux de surface basé sur l'image Sentinel-2, utilise l'ensemble de données sur les eaux de surface de la Terre
AU-Net-pour-la-cartographie-de-l'étendue-des-inondations
objets flottants -> VERS LA DÉTECTION D'OBJETS FLOTTANTS À L'ÉCHELLE MONDIALE AVEC DES CARACTÉRISTIQUES SPATIALES APPRISES À L'AIDE DE SENTINEL 2. Utilise U-Net et pytorch
SpaceNet8 -> solution Unet de base pour détecter les routes et les bâtiments inondés
dlsim -> Repousser les limites de la télédétection par la simulation et l'apprentissage profond pour la cartographie des inondations et des coulées de débris
Water-HRNet -> HRNet formé sur Sentinel 2
modèle de segmentation sémantique pour identifier les terres nouvellement aménagées ou inondées à l'aide de l'imagerie NAIP fournie par le Chesapeake Conservancy, formation sur MS Azure
BandNet -> Analyse et application de données multispectrales pour la segmentation de l'eau à l'aide de l'apprentissage automatique. Utilise les données Sentinel-2
mmflood -> MMFlood : un ensemble de données multimodales pour la délimitation des inondations à partir d'images satellite (Sentinel 1 SAR)
Urban_flooding -> Vers des modèles transférables basés sur des données pour prédire la profondeur des eaux de crue pluviale urbaine à Berlin, en Allemagne
Flood-Mapping-Using-Satellite-Images -> mémoire de maîtrise comparant Random Forest et Unet
MECNet -> Riches fonctionnalités CNN pour la segmentation des plans d'eau à partir d'images aériennes et satellites à très haute résolution
SWRNET -> Une approche d'apprentissage en profondeur pour la reconnaissance de petites zones d'eau de surface à bord d'un satellite
elwha-segmentation -> réglage fin du Segment Anything (SAM) de Meta pour la segmentation des pixels de la rivière avec vue à vol d'oiseau, avec l'article Medium
RiverSnap -> code pour l'article : Une analyse comparative des performances des modèles d'apprentissage en profondeur populaires et du modèle Segment Anything (SAM) pour la segmentation de l'eau des rivières dans les images de télédétection à courte portée
SatelliteVu-AWS-Disaster-Response-Hackathon -> prédiction de la propagation des incendies à l'aide du ML classique et du deep learning
Détection des incendies de forêt à l'aide d'U-Net formé sur Databricks & Keras, segmentation sémantique
Une méthode pratique pour la surveillance haute résolution des zones brûlées à l'aide de Sentinel-2 et VIIRS
Prédiction géospatiale des risques d'incendie de forêt par IA -> Un modèle prédictif utilisant des données raster géospatiales pour évaluer le risque potentiel d'incendie de forêt sur la région contiguë des États-Unis à l'aide d'Unet.
IndustrialSmokePlumeDetection -> utilisation de Sentinel-2 et d'un ResNet-50 modifié
détection de zone brûlée -> utilise Sentinel-2
sauvetage -> Attention aux incendies : modèles d'apprentissage profond multicanaux pour la prévision de la gravité des incendies de forêt
smoke_segmentation -> Segmentation des panaches de fumée et prévision de la densité à partir de l'imagerie GOES
détection des incendies de forêt -> Utilisation de Vision Transformers pour une détection améliorée des incendies de forêt dans les images satellite
Burned_Area_Detection -> Détection des zones brûlées avec les données Sentinel-2
burn-area-baseline -> modèle de base unet accompagnant l'ensemble de données satellite sur les zones brûlées (Sentinel 1 et 2)
burn-area-seg -> Segmentation des zones brûlées à partir de Sentinel-2 à l'aide de l'apprentissage multitâche
chabud2023 -> Détection des changements pour le défi ECML/PKDD 2023 de délimitation des zones brûlées (ChaBuD)
Détection post-incendie de forêt à l'aide de Siamese-UNet -> sur l'ensemble de données Chadbud
vit-burned-detection -> Transformateurs de vision dans la délimitation des zones brûlées
landslide-sar-unet -> Deep Learning pour la détection rapide des glissements de terrain à l'aide de cubes de données radar à synthèse d'ouverture (SAR)
mousse de glissement de terrain avec-CNN -> Une nouvelle stratégie pour cartographier les glissements de terrain avec un réseau neuronal convolutionnel généralisé
Religh_landslides_cnn_kmeans -> Détection de glissement de terrain relique dans les zones de la forêt tropicale en utilisant une combinaison d'algorithme de clustering K-Means et de modèles de segmentation sémantique en profondeur
Glissement de terrain mappant-on-sar-data-by-agen-u-net -> mappage rapide du glissement de terrain sur les données SAR par attention u-net
Sar-Landslide-Détection -> Classification de glissement de terrain à base de SAR, pré-formation mène à une meilleure segmentation
Mappage des glissements de terrain à partir de l'imagerie Sentinel-2 grâce à la détection du changement
HED-UNET -> Un modèle de segmentation sémantique simultanée et de détection de bord, les exemples fournis sont les fronts de glacier et les empreintes de construction en utilisant l'ensemble de données d'étiquetage d'image aérienne Inria
Glacier_Mapping -> Mapping Glaciers dans le Hindu Kush Himalaya, Landsat 7 Images, Étiquettes de fichiers de forme des glaciers, Unet avec abandon
glacier-détect-ml -> un modèle de régression logistique simple pour identifier un glacier dans l'imagerie satellite Landsat
Glaciersémitics Segmentation
Antarctic-Fracture-Detection -> utilise unet avec la mosaïque modis de l'Antarctique pour détecter les fractures de surface
Détection des décharges ouvertes -> utilise Sentinel-2 pour détecter les changements importants dans le rapport de brûlure normalisé (NBR)
SEA_ICE_REMOTE_SENSING -> Classification de concentration de glace de mer
Méthane-détection par hyperspectrale-imagerie -> Méthodes de télédétection profondes pour la détection du méthane dans des images hyperspectrales aériennes
Méthane-Emission-Project -> CNNS CNNS a été combiné dans une approche d'ensemble avec des méthodes traditionnelles sur les données tabulaires
CH4NET -> Un modèle simple et simple pour la détection des panaches de méthane à l'aide de Sentinel-2
Eddynet -> Un réseau de neurones profonds pour la classification des pixels des Eddies océaniques
schisto-végétation -> La segmentation de l'apprentissage en profondeur de l'imagerie satellite identifie la végétation aquatique associée aux hôtes intermédiaires d'escargot de la schistosomiase au Sénégal, Afrique
EarthFormer -> Explorer les transformateurs de l'espace-temps pour les prévisions du système terrestre
Weather4cast-2022 -> Modèle de base UNET-3D pour le concours de prédiction du film Weather4cast Rain
WeatherFusionNet -> Prédire les précipitations à partir des données satellites. Solution Weather4Cast-2022 1ère place
Marinedebrisdetector -> Détection à grande échelle des débris marins dans les zones côtières avec Sentinel-2
Kaggle-Identifier-Contrails-4th -> 4e place Solution, Google Research - Identifiez les sous-traits pour réduire le réchauffement climatique
Minesegsat -> Un système automatisé pour évaluer les étendues de la zone troublée de l'exploitation des images Sentinel-2
Starcop: Segmentation sémantique des panaches de méthane avec des modèles d'apprentissage machine hyperspectral
ASOS -> Reconnaître les modèles protégés et anthropiques dans les paysages en utilisant l'apprentissage automatique interprétable et l'imagerie satellite
L'extraction des routes est difficile en raison des occlusions causées par d'autres objets et de l'environnement de trafic complexe
Chesapeakersc -> Segmentation pour extraire les routes de l'arrière-plan, mais sont également évalués par la façon dont ils fonctionnent sur la classe "Tree Canopy Over Road"
Détection des routes utilisant la segmentation sémantique et les albumentations pour l'augmentation des données à l'aide de l'ensemble de données des routes du Massachusetts, U-Net & Keras. Avec code
Ml_epfl_project_2 -> U-net en pytorch pour effectuer la segmentation sémantique des routes sur les images satellites
Segmentation sémantique des routes à l'aide de keras U-Net, données OSM, article de résumé du projet par étudiant, pas de code
Gagner des solutions de Spacenet Road Detection and Routing Challenge
RoadVecnet -> Route-Network-Segmentation et Vectorisation dans Keras avec ensemble de données
Détection des types de routes et de routes Jupyter Notebook
Awesome-Deep Map -> Une liste organisée de ressources dédiées aux algorithmes d'apprentissage en profondeur / vision par ordinateur pour la cartographie. Les problèmes de cartographie comprennent l'inférence du réseau routier, l'extraction d'empreinte de construction, etc.
RoadTracer: Extraction automatique des réseaux routiers à partir d'images aériennes -> utilise un processus de recherche itératif guidé par une fonction de décision basée sur CNN pour dériver le graphique du réseau routier directement à partir de la sortie du CNN
road_dection_mtl -> détection de route à l'aide d'une technique d'apprentissage multi-tâches pour améliorer les performances de la tâche de détection des routes en incorporant des contraintes de connaissances antérieures, utilise l'ensemble de données Spacenet Roads
Road_connectivity -> Amélioration de la connectivité routière par apprentissage conjoint de l'orientation et de la segmentation (CVPR2019)
Extraction de réseau routier à l'aide de traitement classique d'image -> Détection de bord de flou et de pointe
Spin_roadmapper -> Extraction des routes des images aériennes via le raisonnement de graphique spatial et d'espace d'interaction pour la conduite autonome
ROAD_EXTRACTION_REMOTE_SENSING -> Implémentation de Pytorch, CVPR2018 Débordement d'extraction de la route Deepglobe Road. Voir aussi Deepglobe-road-Extraction-challenge
Ensemble de données RoadDections par Microsoft
Coanet -> Réseau d'attention de la connectivité pour l'extraction des routes à partir de l'imagerie satellite. Le module COA intègre des informations graphiques pour s'assurer que la connectivité des routes est mieux préservée
SEGRATION DES ROUTES IMAGIE SATTELLITE -> Intro Articule sur le milieu en utilisant l'ensemble de données Kaggle Massachusetts Roads
Label-pixels -> pour la segmentation sémantique des routes et autres fonctionnalités
Extraction par satellite-image-route -> Extraction de route par un net résiduel profond résiduel
road_building_extraction -> Implémentation pytorch de l'architecture U-Net pour l'extraction des routes et des bâtiments
RCFSNET -> Extraction routière à partir d'images satellites par contexte routier et fonctionnalité complète
SGCN -> Réseau de convolution graphique séparable en profondeur à profondeur pour l'extraction de la route dans des environnements complexes à partir d'images à télécommande à haute résolution
ASPN -> Segmentation des routes pour les images de télédétection à l'aide de réseaux de pyramide spatiale adversaire
FCNS-for-road-Extraction-Keras -> Extraction routière d'images de télédétection à haute résolution basées sur divers réseaux de segmentation sémantique
CRESI -> Extraction du réseau routier à partir de l'imagerie satellite, avec des estimations de vitesse et de temps de trajet
D-LinkNet -> LinkNet avec codeur pré-entraîné et convolution dilatée pour l'extraction de routes à haute résolution par satellite
SAT2GRAPH -> Extraction de graphes routiers à travers le codage graphique-tenseur
Segmentation d'image) -> Utilisation de l'ensemble de données Road Massachusetts Road et Fast.ai
RoadTracer-M -> Extraction du réseau routier à partir d'images satellites utilisant la segmentation et le traçage basés sur CNN
Scroadextractor -> Scribble basé sur l'apprentissage en profondeur faiblement supervisé pour l'extraction de la surface des routes à partir d'images de télédétection
Roadda -> Adaptation de domaine non supervisée dans le stade avec auto-entraînement contradictoire pour la segmentation routière des images de télédétection
Deepsegmentor -> Une mise en œuvre pytorch des projets DeepCrack et Roadnet
Extraction de route améliorée en cascade à partir d'images de télédétection
NL-LinkNet -> vers une extraction de route plus légère mais plus précise avec des opérations non locales
IRSR-NET -> réseau de détection de route de télédétection léger
Hironex -> Un outil Python pour l'extraction automatique et entièrement non supervisée des réseaux routiers historiques à partir de cartes historiques
Road_detection_model -> Mappage des routes en Amazonie brésilienne avec intelligence artificielle et sentinelle-2
DTNET -> Détection de route via un réseau à double tâche basé sur des modules de fusion de graphiques transversaux
Automatique-route-Extraction-From-historical-MAPS-USing-Deep-Learning-Techniques -> Extraction automatique des routes à partir de cartes historiques à l'aide de techniques d'apprentissage en profondeur
Istanbul_dataset -> Segmentation sur les ensembles de données Istanbul, Inria et Massachusetts
Segmentation routière -> Segmentation des routes sur les images satellites utilisant CNN (U-NETS et FCN8) et régression logistique
D-LinkNet -> Solution de 1ère place dans Deepglobe Road Extraction Challenge
Parc-Détect -> Parc-Détect: Vers l'extraction efficace de la route d'images satellites multi-tâches via la détection des points clés par patch
Tile2Net -> Mappage de la marche: une approche de vision informatique évolutive pour générer des ensembles de données de réseau de trottoir à partir d'images aériennes
AerialLanEnet -> Cartes de niveau de construction de voie à partir d'images aériennes, introduit l'ensemble de données de voie aérienne (AEL): un premier ensemble de données d'image aérien à grande échelle conçu pour la détection de voie
SAM_ROAD -> Segment tout le modèle (SAM) pour l'extraction du réseau routier à grande échelle à partir d'images aériennes.
LRDNET -> Un algorithme de détection de route léger basé sur un réseau d'attention convolutionnel à plusieurs échelles et une tête de décodeur couplée
Extraction à grains fins des réseaux routiers via l'apprentissage conjoint de la connectivité et de la segmentation -> utilise un ensemble de données Spacenet 3
La segmentation sémantique de la route et de la construction dans l'imagerie satellite utilise U-Net sur l'ensemble de données et keras sur les routes du Massachusetts
Trouver des constructions non autorisées à l'aide de la photographie aérienne -> Création d'ensembles de données
SrbuildSeg -> Faire des images satellites à basse résolution Reborn: une approche d'apprentissage en profondeur pour l'extraction de construction de super-résolution
Détection d'empreinte de construction avec Fastai sur l'ensemble de données Spacenet7 difficile utilise U-Net & Fastai
PIX2PIX-FOR-SÉMANTIME-Segmentation-of-Satellite-Images -> Utilisation du réseau Gan PIX2PIX pour segmenter l'empreinte du bâtiment à partir d'images satellites, utilise TensorFlow
Spacenetunet -> Le modèle de base est comme U-Net, appliqué aux données Spacenet Vegas, en utilisant des keras
DÉTECTION DE BUILDINGATION AUTOMMÉ -> Entrée: Images satellites RGB à très haute résolution (<= 0,5 m / pixel). Sortie: bâtiments au format vectoriel (Geojson), à utiliser dans les produits de carte numérique. Construit au-dessus de Robosat et Robosat.pink.
project_sunrof_india -> Analysé les images de satellite Google pour générer un rapport sur le potentiel d'énergie solaire de la maison individuelle, utilise une gamme de techniques de vision informatique classiques (par exemple, détection de bord de pointe) pour segmenter les toits
JointNet-A-Common-Neur-Network-for-Road and Building-Extraction
Mappage des bâtiments africains avec imagerie par satellite: Google AI Blog Blog. Voir l'ensemble de données Open-Buildings
NZ_CONVNET -> Un convnet basé sur U-Net pour les images néo-zélandaises pour classer les contours du bâtiment
Polycnn -> Apprentissage de bout en bout des polygones pour la classification d'image de télédétection
Solution spacenet_building_detection par Motokimura en utilisant unet
Vec2instance -> Appliqué au Spacenet Challenge AOI 2 (Vegas) Building Footprint DataSet, TensorFlow v1.12
TreatchakeMageDection -> Segmentation des bâtiments à partir d'images satellites et de classification des dégâts pour chaque version, en utilisant des keras
Répo segment-segmentation de Fuweifu-vtoo -> utilise des ensembles de données Pytorch et Massachusetts Buildings & Roads
Extraction des bâtiments et des routes des données ouvertes AWS à l'aide d'Amazon SageMaker -> avec repo
TF-Senet -> Airnet est un réseau de segmentation basé sur Segnet, mais avec quelques modifications
RVB-FOOTPRINT-Extract -> Un réseau de segmentation sémantique pour l'extraction d'empreinte de construction à l'échelle urbaine à l'aide d'images satellites RVB, module Deeplavv3 + avec une squelette Dilaté Resnet C42
SpaceneTExploration -> Un exemple de projet démontrant comment extraire les empreintes de construction d'images satellites à l'aide d'un modèle de segmentation sémantique. Données du Spacenet Challenge
Segmentation sur le toit-instance -> VGG-16, segmentation des instances, utilise l'ensemble de données AIRS
Solar-Farms Mapping -> Un ensemble de données d'intelligence artificielle pour les emplacements d'énergie solaire en Inde
Volée-cafos -> Ce dépôt contient du code pour détecter les granges de volaille à partir d'images aériennes à haute résolution et un ensemble de données d'accompagnement de granges prévues aux États-Unis
SSAI-CNN -> Il s'agit d'une implémentation de Méthodes de dissertation de Volodymyr Mnih sur son ensemble de données Massachusetts Road & Building
Buding-building-Extraction-to-3d-model-using-paddle-and-ashopper
RÉSONNET DE LA SEGMENTATION-RÉHANCEMENT -> Extraction du bâtiment urbain dans la région de Daejeon en utilisant un NET résiduel modifié (Resunet modifié) et en appliquant la post-traitement
Masque RCNN pour la détection du bâtiment Nadir au large de Nadir
GRSL_BFE_MA -> Extraction de pas d'empreinte de construction basée sur l'apprentissage en profondeur avec des annotations manquantes à l'aide d'une nouvelle fonction de perte
Fer-CNN -> Détection, classification et régularisation des limites des bâtiments dans l'imagerie satellite en utilisant des réseaux de neurones convolutionnels de la région de bord plus rapide
Unet-image-segmentation-satellite-Picture -> Unet pour prédire les hauts du toit sur l'ensemble de données de cartographie AI de Crowed, utilise des keras
Vector-Map-Generation-From-aerial-iMagery-Using-Deep-Learning-Geospatial-Unet -> appliqué aux images géo-référencées qui sont de très grande taille> 10k x 10k pixels
Building-Footprint-Segmentation -> bibliothèque installable PIP pour former la segmentation de l'empreinte du bâtiment sur des images satellites et aériennes, appliquée à l'ensemble de données des bâtiments du Massachusetts et à un ensemble de données d'étiquetage d'image aérienne Inria
SemsegBuildings -> Projet Utilisation de Fast.ai Framework for Semantic Segmentation on Inria Building Segmentation DataSet
FCNN-Exemple -> surfime à une image unique donnée pour détecter les maisons
SAT2LOD2 -> Un logiciel Open-source, basé sur un Python, qui prend les images satellites en entrées et renvoie les modèles de construction LOD2 en tant que sorties
SatfootPrint -> Segmentation du bâtiment sur l'ensemble de données Spacenet 7
Détection du bâtiment -> Expérience de vision raster pour former un modèle pour détecter les bâtiments de l'imagerie satellite dans trois villes d'Amérique latine
Tracker multi-construction -> Tracker de construction multi-cible pour les images satellites utilisant l'apprentissage en profondeur
Amélioration des limites segmentation sémantique pour l'extraction du bâtiment
Code Keras pour la segmentation sémantique binaire
Détection de construction de l'espacet
LGPNET-BCD -> Détection du changement de construction pour les images de télédétection VHR via le réseau pyramidal local-global et la stratégie d'apprentissage de transfert de tâche croisée
MTL_HOMOSCEDASTIC_SRB -> Un cadre d'apprentissage en profondeur multi-tâches pour la segmentation de l'empreinte de construction
Unet_cnn -> Modèle Unet pour segmenter la couverture du bâtiment à Boston à l'aide de données de télédétection, utilise des keras
FDANET -> Adaptation de domaine à plein niveau pour l'extraction du bâtiment dans des images de détection de télécommande optique à très haute résolution
CBRNET -> Un réseau de raffinement de limite grossier à la fin pour les images de télédétection
ASLNET -> Apprentissage de forme adversaire pour l'extraction du bâtiment dans les images de télédétection VHR
BRRNET -> Un réseau neuronal entièrement convolutionnel pour l'extraction automatique des bâtiments à partir d'images de télédétection à haute résolution
Building-building-index à plusieurs échelles -> Un indice de construction de filtrage à grande échelle pour l'extraction du bâtiment en très haute - Imagerie satellite de résolution
Modèles de télédétection -> Longue longue liste des NONED, etc. appliqués à la détection du bâtiment
Boundary_loss_for_Remote_Sensing -> Perte limite pour la segmentation sémantique sémantique d'imagerie de télédétection
Open Cities AI Challenge -> Segmenting Buildings for Disaster Resilience. Gagner des solutions sur Github
MAPNET -> Réseau neuronal de chemin multiples pour la construction d'extraction d'empreintes à partir d'images éloignées
Dual-Hrnet -> localiser les bâtiments et classer leur niveau de dégâts
ESFNET -> Réseau efficace pour la construction d'extraction à partir d'images aériennes à haute résolution
toit-détection-python -> détecter les toits des images satellites à basse résolution et calculer la zone de culture et le versement de panneaux solaires à l'aide de techniques de vision informatique classiques
keras_segmentation_models -> Utilisation de données spatiales sur les vecteurs ouverts pour créer des ensembles de données sémantiques pour la segmentation du bâtiment pour les données raster
CVCMFFNET -> Réseau de fusion convolutionnel et multi-valeurs à valeur complexe pour la construction de segmentation sémantique d'images INSAR
Steb-Unet -> Un booster de codage basé sur un transformateur SWIN intégré dans le réseau en forme de U pour l'extraction de construction
DFC2020_BASELINE -> Solution de base pour le concours de fusion de données IEEE GRSS 2020. Prédire les étiquettes de couverture terrestre de Sentinel-1 et Sentinel-2
Fusion des modèles de segmentation multiples basés sur différents ensembles de données dans un modèle à déplacement de bord à bord -> segmentation du toit, de la voiture et des routes
Segmentation au sol-truth-gan -> Utilisez PIX2PIX pour segmenter l'empreinte d'un bâtiment. L'ensemble de données utilisé est airs
UNICEF-Giga_Sudan -> Détection des lots de l'école à partir d'images satellites dans le sud du Soudan à l'aide d'un modèle de segmentation UNET
Building_Footprint_Extraction -> Le projet récupère l'imagerie satellite de Google et effectue l'extraction d'empreinte de construction à l'aide d'un U-Net.
Projectagularisation -> régularisation des limites du bâtiment dans les images satellites utilisant des pertes adversaires et régularisées
PolyWorldPretrainnetwork -> Extraction de construction polygonale avec des réseaux de neurones graphiques dans les images satellites
DL_image_segmentation -> Apprentissage en profondeur interprétable de l'incertitude pour la cartographie et la surveillance des bidonvilles. Utilise des formes
UBC-Dataset -> Un ensemble de données pour la détection et la classification des bâtiments à partir d'images satellites à très haute résolution en mettant l'accent sur l'interprétation au niveau de l'objet des bâtiments individuels
UnetFormer -> un transformateur de type non-comme pour une segmentation sémantique efficace de l'imagerie de scène urbaine de télédétection
BES-NET -> Réseau de contexte sémantique améliorant les limites pour la segmentation sémantique d'image haute résolution. Appliqué aux ensembles de données Vaihingen et Potsdam
CVNET -> Réseau de vibration de contour pour l'extraction du bâtiment
CFENET -> Un réseau d'amélioration des fonctionnalités de contexte pour la construction d'extraction à partir d'images de télédétection à haute résolution
Hisup -> cartographie polygonale précise des bâtiments dans l'imagerie satellite
BuildingExtraction -> Extraction du bâtiment à partir d'images de télédétection avec des transformateurs à jeton clairsemés
CrossGeonet -> Un cadre pour construire l'empreinte génération de régions géographiques de l'étiquette
AFM_BUILDING -> Génération d'empreintes de construction à travers des réseaux de neurones convolutionnels avec représentation du champ d'attraction
RAMP (AI reproductible pour microplanning) -> Détection de construction dans les pays à revenu faible et intermédiaire
Segmentation de construction-instance -> Réseau de fusion de fonctionnalités multimodales avec détecteur de points central adaptatif pour l'extraction d'instructions de construction
CGSANET -> Un réseau d'encodeur de cocodeur de structure guidé et local pour une extraction précise des images de télédétection à très haute résolution
Building-Footprints-Update -> Distributions de couleurs d'apprentissage à partir d'images de télédétection bimporales pour mettre à jour les empreintes de construction existantes
RAMP -> Ensemble de données sur le modèle et les bâtiments pour soutenir une grande variété de cas d'utilisation humanitaire
Thèse_semité_image_segmentation_on_satellite_imagery_using_unets -> Cette thèse maître vise à effectuer une segmentation sémantique des bâtiments sur les images satellites de l'ensemble de données Spacenet Challenge 1 à l'aide de l'architecture U-Net
HD-NET -> Réseau découplé haute résolution pour la construction d'extraction d'empreintes par l'empreinte via une décomposition du corps et des limites profondément supervisée
RoofSense -> Une nouvelle solution d'apprentissage en profondeur pour la classification automatique des matériaux de toiture du stock de construction néerlandais utilisant des images aériennes et une fusion de données de balayage laser
IBS-AQSNET -> Réseau de évaluation de qualité automatisé amélioré pour la segmentation interactive du bâtiment dans des images de télédétection à haute résolution
Deepmao -> Network sur complete de rendez-vous à l'échelle multiple profonde pour la segmentation du bâtiment dans l'imagerie satellite
Apprentissage en profondeur pour la reconnaissance du panneau-solaire -> en utilisant les deux détections d'objets avec la segmentation YOLOV5 et UNET
Deepsolar -> un cadre d'apprentissage automatique pour construire efficacement une base de données de déploiement solaire aux États-Unis. L'ensemble de données sur Kaggle, en fait utilisé un CNN pour la classification et la segmentation, est obtenu en appliquant un seuil à la carte d'activation. Le code d'origine est TF1 mais TF2 / KERS et une implémentation Pytorch sont disponibles. Également des visualisations de contrôle et une analyse approfondie .. des facteurs qui peuvent expliquer l'adoption de l'énergie solaire dans .. Virginie et tracker profonde: vers une évaluation non supervisée avec des données open source de la précision de la cartographie photovoltaïque distribuée basée sur l'apprentissage en profondeur
Hyperion_solar_net -> Modèles de classificaton et de segmentation formés sur l'imagerie RVB de Google Maps
3D-PV-Locator -> Détection à grande échelle des systèmes photovoltaïques montés sur le toit en 3D
Pv_pipeline -> profonde pour l'Allemagne
Détection des panneaux solaires -> Utilisation de Segnet, F