Deep Learning hat die Analyse und Interpretation von Satelliten- und Luftbildern revolutioniert und einzigartige Herausforderungen wie große Bildgrößen und eine Vielzahl von Objektklassen angegangen. Dieses Repository bietet einen umfassenden Überblick über Deep-Learning-Techniken, die speziell auf die Verarbeitung von Satelliten- und Luftbildern zugeschnitten sind. Es deckt eine Reihe von Architekturen, Modellen und Algorithmen ab, die für Schlüsselaufgaben wie Klassifizierung, Segmentierung und Objekterkennung geeignet sind.
So verwenden Sie dieses Repository: Verwenden Sie Command + F
(Mac) oder CTRL + F
(Windows), um diese Seite z. B. nach „SAM“ zu durchsuchen.
Der UC-Merced-Datensatz ist ein bekannter Klassifizierungsdatensatz.
Die Klassifizierung ist eine grundlegende Aufgabe bei der Analyse von Fernerkundungsdaten, bei der das Ziel darin besteht, jedem Bild eine semantische Bezeichnung zuzuweisen, beispielsweise „Stadt“, „Wald“, „Agrarland“ usw. Der Prozess der Zuweisung von Bezeichnungen zu einem Bild ist bekannt als Klassifizierung auf Bildebene. In manchen Fällen kann ein einzelnes Bild jedoch mehrere verschiedene Landbedeckungstypen enthalten, beispielsweise einen Wald, durch den ein Fluss fließt, oder eine Stadt mit Wohn- und Gewerbegebieten. In diesen Fällen wird die Klassifizierung auf Bildebene komplexer und erfordert die Zuweisung mehrerer Beschriftungen zu einem einzelnen Bild. Dies kann mithilfe einer Kombination aus Merkmalsextraktion und maschinellen Lernalgorithmen erreicht werden, um die verschiedenen Landbedeckungstypen genau zu identifizieren. Es ist wichtig zu beachten, dass die Klassifizierung auf Bildebene nicht mit der Klassifizierung auf Pixelebene, auch bekannt als semantische Segmentierung, verwechselt werden sollte. Während die Klassifizierung auf Bildebene einem gesamten Bild eine einzelne Beschriftung zuweist, weist die semantische Segmentierung jedem einzelnen Pixel in einem Bild eine Beschriftung zu, was zu einer äußerst detaillierten und genauen Darstellung der Landbedeckungstypen in einem Bild führt. Lesen Sie eine kurze Einführung in die Klassifizierung von Satellitenbildern mit neuronalen Netzen
Landklassifizierung anhand von Sentinel-2-Daten mithilfe eines einfachen Sklearn-Cluster-Algorithmus oder Deep-Learning-CNN
Multi-Label-Klassifizierung von Satellitenfotos des Amazonas-Regenwaldes mithilfe von Keras oder FastAI
EuroSat-Satellite-CNN-and-ResNet -> Klassifizierung benutzerdefinierter Bilddatensätze durch die Erstellung von Convolutional Neural Networks und Residual Networks von Grund auf mit PyTorch
Erkennung informeller Siedlungen aus Satellitenbildern mithilfe der Feinabstimmung des ResNet-50-Klassifikators mit Repo
Land-Cover-Classification-using-Sentinel-2-Dataset -> gut geschriebener mittelgroßer Artikel zu diesem Repo, der jedoch den EuroSAT-Datensatz verwendet
Landbedeckungsklassifizierung von Satellitenbildern mithilfe von Convolutional Neural Networks unter Verwendung von Keras und einem multispektralen Datensatz, der über Weinbergfeldern im Salinas Valley, Kalifornien, erfasst wurde
Entwaldung anhand von Satellitenbildern erkennen -> mit FastAI und ResNet50, mit Repo fsdl_deforestation_detection
Neuronales Netzwerk für die Klassifizierung von Satellitendaten mit Tensorflow in Python -> Eine Schritt-für-Schritt-Anleitung für die multispektrale Datenklassifizierung von Landsat 5 für die Vorhersage binärer aufgebauter/nicht aufgebauter Klassen mit Repo
Kartierung von Slums aus einem vortrainierten CNN-Netzwerk auf VHR- (Plejaden: 0,5 m) und MR- (Sentinel: 10 m) Bildern
Vergleich städtischer Umgebungen mithilfe von Satellitenbildern und Faltungs-Neuronalen Netzen -> beinhaltet eine interessante Untersuchung der Bildeinbettungsmerkmale, die für jedes Bild im Urban Atlas-Datensatz extrahiert wurden
RSI-CB -> Ein groß angelegter Benchmark für die Bildklassifizierung in der Fernerkundung über Crowdsource-Daten. Siehe auch Fernerkundungsbildklassifizierung
NAIP_PoolDetection -> modelliert als Objekterkennungsproblem, wird ein CNN verwendet, um Bilder als Schwimmbäder oder etwas anderes zu identifizieren – insbesondere eine Straße, ein Dach oder einen Rasen
Landnutzungs- und Landbedeckungsklassifizierung mithilfe einer ResNet Deep Learning-Architektur -> verwendet Fastai und den EuroSAT-Datensatz
Anwendungsfall Vision Transformers: Satellitenbildklassifizierung ohne CNNs
WaterNet -> ein CNN, das Wasser in Satellitenbildern identifiziert
Straßennetzklassifizierung -> Straßennetzklassifizierungsmodell mit ResNet-34, Straßenklassen organisch, Gitterrost, radial und ohne Muster
Skalierung der KI, um jede Schule auf dem Planeten abzubilden
CNN-Tutorial zur Landsat-Klassifizierung mit Repo
Satelliten-Crosswalk-Klassifizierung
Den Amazonas-Regenwald verstehen mit Multi-Label-Klassifizierung + VGG-19, Inceptionv3, AlexNet und Transfer Learning
Implementierung des 3D-CNN-Modells zur Landbedeckungsklassifizierung -> verwendet den Sundarbans-Datensatz mit Repo
SSTN -> Spectral-Spatial Transformer Network für die hyperspektrale Bildklassifizierung: Ein FAS-Framework
SatellitePollutionCNN -> Ein neuartiger Algorithmus zur Vorhersage des Luftverschmutzungsgrads mit modernster Genauigkeit mithilfe von Deep Learning und GoogleMaps-Satellitenbildern
PropertyClassification -> Klassifizierung der Art der Immobilie anhand von Immobilien-, Satelliten- und Street View-Bildern
remote-sense-quickstart -> Klassifizierung anhand einer Reihe von Datensätzen, einschließlich Aufmerksamkeitsvisualisierung
Klassifizierung von Satellitenbildern mithilfe mehrerer Algorithmen für maschinelles Lernen
Satsense -> Landnutzungs-/Bedeckungsklassifizierung unter Verwendung klassischer Merkmale, einschließlich HoG und NDVI
PyTorch_UCMerced_LandUse
EuroSAT-Bildklassifizierung
landcover_classification -> Verwendung von fast.ai auf EuroSAT
IGARSS2020_BWMS -> Bandweise mehrskalige CNN-Architektur für die Bildszenenklassifizierung in der Fernerkundung mit einer neuartigen CNN-Architektur für die Merkmalseinbettung hochdimensionaler RS-Bilder
image.classification.on.EuroSAT -> Lösung in reinem Pytorch
hurricane_damage -> Bewertung der Strukturschäden nach dem Hurrikan auf der Grundlage von Luftbildern
openai-drivendata-challenge -> Mithilfe von Deep Learning das Baumaterial von Dächern klassifizieren (Luftbilder aus Südamerika)
is-it-abandoned -> Können wir anhand von LIDAR-Luftbildern erkennen, ob ein Haus verlassen ist?
BoulderAreaDetector -> CNN zur Klassifizierung, ob ein Satellitenbild zeigt, dass ein Gebiet ein guter Ort zum Klettern wäre oder nicht
ISPRS_S2FL -> Multimodale Fernerkundungs-Benchmark-Datensätze für die Landbedeckungsklassifizierung mit einem Lernmodell für gemeinsame und spezifische Merkmale
Brasilianische Kaffeeerkennung -> verwendet Keras mit öffentlichem Datensatz
tf-crash-severity -> Vorhersage der Unfallschwere für bestimmte Straßenmerkmale, die in Satellitenbildern enthalten sind
ensemble_LCLU -> Ensembles tiefer neuronaler Netzwerke für die Fernerkundung der Landbedeckung und Landnutzungsklassifizierung
cerraNet -> Nutzungsarten und Abdeckung im brasilianischen Cerrado kontextuell einordnen
Urban-Analysis-Using-Satellite-Imagery -> Klassifizierung städtischer Gebiete als geplant oder ungeplant mithilfe einer Kombination aus Segmentierung und Klassifizierung
ChipClassification -> Deep Learning für die multimodale Klassifizierung von Wolken-, Schatten- und Landbedeckungsszenen in PlanetScope- und Sentinel-2-Bildern
DeeplearningClassficationLandsat-tImages -> Wasser-/Eis-/Landklassifizierung mithilfe großformatiger Landsat-Satellitenbilder mittlerer Auflösung
wildfire-detection-from-satellite-images-ml -> Erkennen Sie, ob ein Bild einen Lauffeuer enthält, mit Beispiel-Flask-Web-App
Bergbau-Entdeckung-mit-Deep-Learning -> Erkennung von Bergbau- und Abraumdämmen in Satellitenbildern mithilfe von Deep Learning
e-Farmerce-Plattform -> Kulturart klassifizieren
sentinel2-deep-learning -> Neuartige Trainingsmethoden für die Landklassifizierung von Sentinel-2-Bildern
RSSC-Transfer -> Die Rolle des Vortrainings bei der Klassifizierung hochauflösender Fernerkundungsszenen
Klassifizierung georeferenzierter Fotos und Satellitenbilder zur Unterstützung der Geländeklassifizierung -> Erkennung von Überschwemmungen
Mehr Aufmerksamkeit schenken -> Fernerkundungsbild-Szenenklassifizierung basierend auf einem erweiterten Aufmerksamkeitsmodul
Fernerkundungsbildklassifizierung durch verbesserte Cross-Entropy-Loss- und Transfer-Learning-Strategie basierend auf Deep Convolutional Neural Networks
DenseNet40-for-HRRSISC -> DenseNet40 für die Klassifizierung von Fernerkundungsbildszenen verwendet UC Merced Dataset
SKAL -> Die Szene genauer betrachten: Multiskaliges Repräsentationslernen für die Bildszenenklassifizierung in der Fernerkundung
potsdam-tensorflow-practice -> Bildklassifizierung des Potsdam-Datensatzes mithilfe von Tensorflow
SAFF -> Selbstaufmerksamkeitsbasierte Tiefenmerkmalsfusion zur Klassifizierung von Fernerkundungsszenen
GLNET -> Auf Faltungs-Neuronalen Netzen basierende Fernerkundungs-Szenenklassifizierung in klaren und bewölkten Umgebungen
Fernerkundungsbildklassifizierung -> Transferlernen mit Pytorch zur Klassifizierung von Fernerkundungsdaten in drei Klassen: Flugzeuge, Schiffe, keine
remote_sensing_pretrained_models -> Als Alternative zur Feinabstimmung an auf ImageNet vorab trainierten Modellen werden hier einige CNN anhand der RSD46-WHU- und AID-Datensätze vorab trainiert
CNN_AircraftDetection -> CNN zur Flugzeugerkennung in Satellitenbildern mithilfe von Keras
OBIC-GCN -> Objektbasiertes Klassifizierungsrahmenwerk für Fernerkundungsbilder mit Graph-Faltungsnetzwerken
aitlas-arena -> Ein Open-Source-Benchmark-Framework zur Bewertung modernster Deep-Learning-Ansätze für die Bildklassifizierung in der Erdbeobachtung (EO)
droughtwatch -> Satellitengestützte Vorhersage der Futterbedingungen für Nutztiere in Nordkenia
JSTARS_2020_DPN-HRA -> Tiefe prototypische Netzwerke mit hybrider Restaufmerksamkeit für die hyperspektrale Bildklassifizierung
SIGNA -> Semantic Interleaving Global Channel Attention für Multilabel-Fernerkundungsbildklassifizierung
Satellitenbildklassifizierung mithilfe von rmldnn- und Sentinel 2-Daten
PBDL -> Patch-basiertes diskriminatives Lernen für die Klassifizierung von Fernerkundungsszenen
EmergencyNet -> Identifizieren Sie Brände und andere Notfälle mithilfe einer Drohne
satellite-deforestation -> Verwendung von Satellitenbildern zur Identifizierung der führenden Indikatoren der Entwaldung, angewendet auf die Kaggle Challenge Understanding the Amazon from Space
RSMLC -> Deep Network Architectures als Feature Extractors für die Multi-Label-Klassifizierung von Fernerkundungsbildern
FireRisk -> Ein Fernerkundungsdatensatz zur Brandrisikobewertung mit Benchmarks unter Verwendung von überwachtem und selbstüberwachtem Lernen
Flood_susceptibility_mapping -> Auf dem Weg zur Kartierung der städtischen Hochwasseranfälligkeit mithilfe datengesteuerter Modelle in Berlin, Deutschland
tick-tick-bloom -> Gewinner der „Tick Tick Bloom: Harmful Algal Bloom Detection Challenge“. Die Aufgabe bestand darin, den Schweregrad der Algenblüte vorherzusagen. Die Gewinner verwendeten Entscheidungsbäume
Schätzung des Betriebs von Kohlekraftwerken anhand von Satellitenbildern mit Computer Vision -> Verwenden Sie Sentinel 2-Daten, um mit Datensatz und Repo zu ermitteln, ob ein Kohlekraftwerk ein- oder ausgeschaltet ist
Gebäudeerkennung und Dachtyperkennung -> Ein CNN-basierter Ansatz zur automatischen Gebäudeerkennung und Erkennung von Dachtypen anhand eines einzigen Luftbildes
Leistungsvergleich multispektraler Kanäle für die Landnutzungsklassifizierung -> ResNet-50, ResNet-101, ResNet-152, Vision Transformer auf RGB und multispektrale Versionen des EuroSAT-Datensatzes implementiert.
SNN4Space -> Projekt, das die Machbarkeit des Einsatzes von Spiking Neural Networks (SNN) bei Landbedeckungs- und Landnutzungsklassifizierungsaufgaben untersucht
Schiffsklassifizierung -> Schiffe klassifizieren und Fischereiverhalten anhand von AIS-Daten identifizieren
RSMamba -> Fernerkundungsbildklassifizierung mit Zustandsraummodell
BirdSAT -> Kontrastive maskierte Cross-View-Autoencoder für die Klassifizierung und Kartierung von Vogelarten
EGNNA_WND -> Abschätzung des Vorkommens der West-Nil-Krankheit mithilfe eines Graph-Neural-Netzwerks
cyfi -> Schätzen Sie die Cyanobakteriendichte basierend auf Sentinel-2-Satellitenbildern
(links) ein Satellitenbild und (rechts) die semantischen Klassen im Bild.
Die Bildsegmentierung ist ein entscheidender Schritt in der Bildanalyse und Computer Vision mit dem Ziel, ein Bild in semantisch bedeutsame Segmente oder Regionen zu unterteilen. Der Prozess der Bildsegmentierung weist jedem Pixel in einem Bild eine Klassenbezeichnung zu, wodurch ein Bild effektiv von einem 2D-Pixelgitter in ein 2D-Pixelgitter mit zugewiesenen Klassenbezeichnungen umgewandelt wird. Eine häufige Anwendung der Bildsegmentierung ist die Straßen- oder Gebäudesegmentierung, deren Ziel darin besteht, Straßen und Gebäude in einem Bild zu identifizieren und von anderen Merkmalen zu trennen. Um diese Aufgabe zu erfüllen, werden Einzelklassenmodelle häufig darauf trainiert, zwischen Straßen und Hintergrund oder Gebäuden und Hintergrund zu unterscheiden. Diese Modelle sollen bestimmte Merkmale wie Farbe, Textur und Form erkennen, die für Straßen oder Gebäude charakteristisch sind, und diese Informationen verwenden, um den Pixeln in einem Bild Klassenbezeichnungen zuzuweisen. Eine weitere häufige Anwendung der Bildsegmentierung ist die Landnutzungs- oder Pflanzentypklassifizierung, bei der das Ziel darin besteht, verschiedene Landbedeckungstypen innerhalb eines Bildes zu identifizieren und abzubilden. In diesem Fall werden in der Regel Mehrklassenmodelle verwendet, um mehrere Klassen innerhalb eines Bildes zu erkennen und zu unterscheiden, beispielsweise Wälder, städtische Gebiete und landwirtschaftliche Flächen. Diese Modelle sind in der Lage, komplexe Beziehungen zwischen verschiedenen Landbedeckungstypen zu erkennen und ermöglichen so ein umfassenderes Verständnis des Bildinhalts. Lesen Sie eine kurze Einführung in die Segmentierung von Satellitenbildern mit neuronalen Netzen. Beachten Sie , dass viele Artikel, die sich auf die „hyperspektrale Landklassifizierung“ beziehen, häufig tatsächlich die semantische Segmentierung beschreiben. Bildquelle
U-Net für die semantische Segmentierung unausgeglichener Luftbilder -> unter Verwendung des Dubai-Datensatzes
Semantische Segmentierung des Dubai-Datensatzes mithilfe eines TensorFlow U-Net-Modells
nga-deep-learning -> führt eine semantische Segmentierung von GeoTIF-Daten mit hoher Auflösung mithilfe eines modifizierten U-Net und Keras durch, veröffentlicht von NASA-Forschern
Automatische Deponieerkennung mittels Deep Learning
SpectralNET -> ein 2D-Wavelet-CNN für die hyperspektrale Bildklassifizierung, verwendet den Salinas-Szenendatensatz und Keras
laika -> Ziel dieses Repos ist es, potenzielle Quellen für Satellitenbilddaten zu erforschen und verschiedene Algorithmen zur Satellitenbildsegmentierung zu implementieren
PEARL -> ein Human-in-the-Loop-KI-Tool zur drastischen Reduzierung der Zeit, die für die Erstellung einer genauen Landnutzungs-/Landbedeckungskarte (LULC) erforderlich ist, Blogbeitrag, nutzt Microsoft Planetary Computer und ML-Modelle, die lokal im Browser ausgeführt werden. Code für Backend und Frontend
Landbedeckungsklassifizierung mit U-Net -> Aufgabe zur semantischen Segmentierung mehrerer Klassen von Satellitenbildern mit PyTorch. Implementierung von U-Net, verwendet den DeepGlobe-Landbedeckungssegmentierungsdatensatz mit Code
Semantische Segmentierung von Satellitenbildern in mehreren Klassen mithilfe von U-Net unter Verwendung des DSTL-Datensatzes, Tensorflow 1 und Python 2.7. Begleitender Artikel
Codebasis für die Landbedeckungsklassifizierung in mehreren Klassen mit U-Net, die eine Masterarbeit begleitet, verwendet Keras
dubai-satellite-imagery-segmentation -> aufgrund des kleinen Datensatzes wurde Bildvergrößerung verwendet
CDL-Segmentierung -> Deep-Learning-basierte Landbedeckung und Klassifizierung der Pflanzenarten: Eine vergleichende Studie. Vergleicht UNet, SegNet und DeepLabv3+
LoveDA -> Ein Fernerkundungs-Landbedeckungsdatensatz für die domänenadaptive semantische Segmentierung
Semantische Segmentierung von Satellitenbildern mit CNN -> 7 verschiedene Segmentierungsklassen, DeepGlobe Land Cover Classification Challenge-Datensatz, mit Repo
Luftsemantische Segmentierung mithilfe des U-Net Deep Learning Model, mittlerer Artikel, mit Repo
UNet-Satellite-Image-Segmentation -> Eine Tensorflow-Implementierung des leichten semantischen Segmentierungsframeworks von UNet
DeepGlobe Land Cover Classification Challenge-Lösung
Semantische Segmentierung mit PyTorch-Satellitenbildern -> Vorhersage von 25 Klassen anhand von RGB-Bildern, die zur Schadensbeurteilung nach Hurrikan Harvey erstellt wurden
Semantische Segmentierung mit Sentinel-2-Bildern -> verwendet LandCoverNet-Datensatz und fast.ai
CNN_Enhanced_GCN -> CNN-Enhanced Graph Convolutional Network mit Feature-Fusion auf Pixel- und Superpixel-Ebene für die hyperspektrale Bildklassifizierung
LULCMapping-WV3images-CORINE-DLMethods -> Landnutzungs- und Landbedeckungskartierung unter Verwendung von Deep-Learning-basierten Segmentierungsansätzen und VHR Worldview-3-Bildern
MCANet -> Ein gemeinsames semantisches Segmentierungsframework von optischen und SAR-Bildern zur Landnutzungsklassifizierung. Verwendet den WHU-OPT-SAR-Datensatz
MUnet-LUC
Landbedeckung -> Modellverallgemeinerung in Deep-Learning-Anwendungen für die Kartierung der Landbedeckung
generalizablersc -> Datensatzübergreifendes Lernen für die Klassifizierung verallgemeinerbarer Landnutzungsszenen
Groß angelegte automatische Identifizierung städtischer Baulücken -> Groß angelegte automatische Identifizierung städtischer Baulücken mittels semantischer Segmentierung hochauflösender Fernerkundungsbilder
SSLTransformerRS -> Selbstüberwachte Vision Transformer für die Segmentierung und Klassifizierung der Landbedeckung
Aerial-Tile-Segmentierung -> Semantische Segmentierung großer Satellitenbilder in 6 Klassen unter Verwendung von Tensorflow 2.0 und ISPRS-Benchmark-Datensatz
LULCMapping-WV3images-CORINE-DLMethods -> Landnutzungs- und Landbedeckungskartierung unter Verwendung von Deep-Learning-basierten Segmentierungsansätzen und VHR Worldview-3-Bildern
DCSA-Net -> Dynamic Convolution Self-Attention Network zur Landbedeckungsklassifizierung in VHR-Fernerkundungsbildern
CHeGCN-CNN_enhanced_Heterogeneous_Graph -> CNN-Enhanced Heterogeneous Graph Convolutional Network: Ableitung der Landnutzung aus der Landbedeckung anhand einer Fallstudie zur Parksegmentierung
TCSVT_2022_DGSSC -> DGSSC: Ein tiefer generativer spektralräumlicher Klassifikator für unausgeglichene hyperspektrale Bilder
DeepForest-Wetland-Paper -> Deep Forest-Klassifikator für die Kartierung von Feuchtgebieten unter Verwendung der Kombination von Sentinel-1- und Sentinel-2-Daten, GIScience und Fernerkundung
Wetland_UNet -> UNet-Modelle, die Feuchtgebiete mithilfe von Fernerkundungsdaten abgrenzen können, einschließlich Bändern von Sentinel-2 LiDAR und Geomorphonen. Vom Conservation Innovation Center von Chesapeake Conservancy und Defenders of Wildlife
DPA -> DPA ist eine unbeaufsichtigte Domänenanpassungsmethode (UDA), die auf verschiedene Satellitenbilder zur großmaßstäblichen Landbedeckungskartierung angewendet wird.
dynamische Welt -> Dynamische Welt, nahezu in Echtzeit erfolgende globale 10-Meter-Landnutzungskartierung der Landbedeckung
spada -> Landbedeckungssegmentierung mit spärlichen Anmerkungen aus Sentinel-2-Bildern
M3SPADA -> Temporale unbeaufsichtigte Domänenanpassung mit mehreren Sensoren für die Kartierung der Landbedeckung mit räumlicher Pseudomarkierung und kontradiktorischem Lernen
GLNet -> Kollaborative global-lokale Netzwerke zur speichereffizienten Segmentierung ultrahochauflösender Bilder
LoveNAS -> LoveNAS: Auf dem Weg zur Multi-Scene-Landbedeckungskartierung über ein adaptives Netzwerk mit hierarchischer Suche
FLAIR-2-Herausforderung -> Herausforderung zur semantischen Segmentierung und Domänenanpassung, vorgeschlagen vom französischen Nationalen Institut für geografische und forstliche Informationen (IGN)
flair-2 8. Platz Lösung
Beachten Sie, dass die Entwaldungserkennung als Segmentierungsaufgabe oder Änderungserkennungsaufgabe behandelt werden kann
DetecTree -> Baumerkennung aus Luftbildern in Python, einem LightGBM-Klassifizierer von Baum-/Nicht-Baum-Pixeln aus Luftbildern
Erkennung von Feldgrenzen: Ansätze und größte Herausforderungen -> Mittlerer Artikel, der historische und moderne Ansätze abdeckt
kenya-crop-mask -> Jährliche und saisonale Erntekartierung in Kenia – LSTM-Klassifikator zur Klassifizierung von Pixeln, ob sie Nutzpflanzen enthalten oder nicht, und ein multispektraler Vorhersager, der bei teilweiser Eingabe eine 12-Monats-Zeitreihe liefert. Von GEE heruntergeladener Datensatz und für das Training verwendeter Pytorch-Blitz
Was wächst da? Identifizieren Sie Nutzpflanzen aus multispektralen Fernerkundungsdaten (Sentinel 2) mit eo-learn für die Datenvorverarbeitung, Wolkenerkennung, NDVI-Berechnung, Bildvergrößerung und Fastai
Baumartenklassifizierung anhand von luftgestützten LiDAR- und Hyperspektraldaten unter Verwendung 3D-Faltungs-Neuronaler Netze
Klassifizierung des Erntetyps -> Verwendung von Sentinel 1- und 2-Daten mit einem U-Net + LSTM, mehr Features (z. B. Bänder) und eine höhere Auflösung führten zu besseren Ergebnissen (Artikel, kein Code)
Finden Sie Sportplätze mit Mask R-CNN und überlagern Sie sie auf einer Open-Street-Map
Ein LSTM zum Generieren einer Zuschnittmaske für Togo
DeepSatModels -> Kontext-selbstkontrastives Vortraining für die semantische Segmentierung von Nutzpflanzentypen
farm-pin-crop-detection-challenge -> Verwendung von eo-learn und fastai zur Identifizierung von Nutzpflanzen aus multispektralen Fernerkundungsdaten
Erkennung landwirtschaftlicher Anbauflächen anhand von Sentinel-2-Satellitenbildern -> Wir haben UNet-Agri entwickelt, ein Benchmark-Modell für maschinelles Lernen, das Anbauflächen mithilfe frei zugänglicher Sentinel-2-Bilder mit einer räumlichen Auflösung von 10 m klassifiziert
DeepTreeAttention -> Implementierung von Hang et al. 2020 „Hyperspectral Image Classification with Attention Aided CNNs“ zur Vorhersage von Baumarten
Pflanzenklassifizierung -> Pflanzenklassifizierung mithilfe multitemporaler Satellitenbilder
ParcelDelineation -> Verwendung eines französischen Polygondatensatzes und Unet in Keras
Crop-Maske -> End-to-End-Workflow zur Erstellung hochauflösender Ackerlandkarten, verwendet GEE- und LSTM-Modell
DeepCropMapping -> Ein multitemporaler Deep-Learning-Ansatz mit verbesserter räumlicher Generalisierbarkeit für die dynamische Kartierung von Mais und Sojabohnen, nutzt LSTM
Segmentieren Sie die Überdachung und den Boden mithilfe von NDVI und Rasterio
Verwenden Sie KMeans-Clustering, um Satellitenbilder nach Landbedeckung/Landnutzung zu segmentieren
ResUnet-a -> ein Deep-Learning-Framework für die semantische Segmentierung von Fernerkundungsdaten
DSD_paper_2020 -> Klassifizierung der Pflanzenarten basierend auf maschinellem Lernen mit multitemporalen Sentinel-1-Daten
MR-DNN -> Reisfeld aus Landsat-8-Satellitenbildern extrahieren
deep_learning_forest_monitoring -> Waldkartierung und Überwachung des afrikanischen Kontinents mithilfe von Sentinel-2-Daten und Deep Learning
global-cropland-mapping -> globale multitemporale Ackerlandkartierung
U-Net zur semantischen Segmentierung von Sojabohnenfeldern mit SAR-Bildern
UNet-RemoteSensing -> nutzt 7 Bänder von Landsat und Keras
Landuse_DL -> Landformen aufgrund des Auftauens von eisreichem Permafrost abgrenzen
Baldachin -> Ein Faltungs-Neuronales Netzwerk-Klassifikator identifiziert Baumarten in gemischten Nadelwäldern anhand hyperspektraler Bilder
RandomForest-Klassifizierung -> Multisensordaten zur Ableitung von Moorvegetationsgemeinschaften mithilfe eines unbemannten Starrflügelflugzeugs
Forest_change_detection -> Waldänderungssegmentierung mit zeitabhängigen Modellen, einschließlich Siamese-, UNet-LSTM-, UNet-diff- und UNet3D-Modellen
cultionet -> Segmentierung von Kulturland, basierend auf PyTorch Geometric und PyTorch Lightning
Sentinel-Tree-Cover -> Eine globale Methode zur Identifizierung von Bäumen außerhalb geschlossener Baumkronenwälder mit Satellitenbildern mittlerer Auflösung
Crop-Type-Detection-ICLR-2020 -> Gewinnerlösungen aus dem Wettbewerb zur Erkennung von Crop-Typen beim CV4A-Workshop, ICLR 2020
Pflanzenidentifizierung mithilfe von Satellitenbildern -> Mittlerer Artikel, Einführung in die Pflanzenidentifizierung
S4A-Modelle -> Verschiedene Experimente zum Sen4AgriNet-Datensatz
Attention-Mechanism-unet -> Ein aufmerksamkeitsbasiertes U-Net zur Erkennung von Abholzung in Satellitensensorbildern
Cocoa_plantations_detection -> Erkennung von Kakaoplantagen in der Elfenbeinküste mithilfe von Sentinel-2-Fernerkundungsdaten unter Verwendung von KNN, SVM, Random Forest und MLP
SummerCrop_Deeplearning -> Ein übertragbares Lernklassifizierungsmodell und die Schätzung der Kohlenstoffbindung von Nutzpflanzen im landwirtschaftlichen Ökosystem
DeepForest ist ein Python-Paket zum Trainieren und Vorhersagen einzelner Baumkronen anhand luftgestützter RGB-Bilder
Offizielles Repository für die Herausforderung „Bäume auf Satellitenbildern identifizieren“ von Omdena
Zählen-Bäume-mit-Satellitenbildern -> Erstellen Sie eine Bestandsaufnahme der ein- und ausgehenden Bäume für eine jährliche Baumkontrolle, nutzen Sie Keras und semantische Segmentierung
2020 Nature Paper – Eine unerwartet große Anzahl von Bäumen in der westafrikanischen Sahara und Sahelzone -> Baumerkennungs-Framework basierend auf U-Net & Tensorflow 2 mit Code hier
TreeDetection -> Ein farbbasierter Klassifikator zur Erkennung der Bäume in Google-Bilddaten zusammen mit der visuellen Lokalisierung der Bäume und der Berechnung der Kronengröße über OpenCV
PTDM -> Methode zur Erkennung von Pampelmusenbäumen basierend auf Aufmerksamkeitsmechanismus und schichtübergreifender Merkmalsfusion
urban-tree-detection -> Erkennung einzelner Bäume in großräumigen städtischen Umgebungen mithilfe hochauflösender multispektraler Bilder. Mit Datensatz
BioMassters_baseline -> eine grundlegende Pytorch-Blitzbasislinie unter Verwendung eines UNet für den Einstieg in die BioMassters-Herausforderung (Biomasseschätzung)
Biomassters-Gewinner -> Top-3-Lösungen
kbrodt biomassters-Lösung -> 1. Platz-Lösung
Quqixun Biomassters-Lösung
Biomasseschätzung -> von Azavea, angewendet auf Sentinel 1 & 2
3DUNetGSFormer -> Eine Deep-Learning-Pipeline für die Kartierung komplexer Feuchtgebiete unter Verwendung generativer gegnerischer Netzwerke und Swin-Transformator
SEANet_torch -> Verwendung eines semantischen, kantenbewussten neuronalen Multitask-Netzwerks zur Abgrenzung landwirtschaftlicher Parzellen anhand von Fernerkundungsbildern
Baumpfleger -> Segmentierung und Klassifizierung von Baumkronen
Wiederverwendung -> REgressive Einheit zur Kohlenstoffspeicherung und Schätzung der oberirdischen Biomasse
unet-sentinel -> UNet zur Verarbeitung von Sentinel-1-SAR-Bildern zur Identifizierung der Abholzung
MaskedSST -> Maskierte Vision-Transformatoren für die hyperspektrale Bildklassifizierung
UNet-Defmapping -> Masterarbeit mit UNet zur Kartierung der Entwaldung mithilfe von Sentinel-2 Level 2A-Bildern, angewendet auf Amazonas- und Atlantische Regenwalddatensätze
cvpr-multiearth-deforestation-segmentation -> multimodaler Unet-Beitritt zur CVPR Multiearth 2023-Abholzungsherausforderung
Überwachte-Weizenklassifizierung-mit-pytorchs-torchgeo -> Überwachte Weizenklassifizierung mit Torchgeo
TransUNetplus2 -> TransU-Net++: Überdenken des aufmerksamkeitsgesteuerten TransU-Net für die Entwaldungskartierung. Verwendet den Amazonas- und Atlantikwald-Datensatz
Ein hochauflösendes Modell der Überdachungshöhe der Erde -> Ein hochauflösendes Modell der Überdachungshöhe der Erde
Radiant Earth Spot the Crop Challenge -> Gewinnermodelle der Radiant Earth Spot the Crop Challenge verwenden eine Zeitreihe von Sentinel-2-Multispektraldaten, um Nutzpflanzen im Westkap von Südafrika zu klassifizieren. Eine andere Lösung
transfer-field-delineation -> Multiregionales Transferlernen zur Segmentierung von Feldgrenzen in Satellitenbildern mit begrenzten Beschriftungen
Mäherkennung -> Automatische Erkennung von Mähen und Weiden anhand von Sentinel-Bildern
PTAViT3D und PTAViT3DCA -> Bekämpfung flauschiger Wolken: Erkennung von Feldgrenzen mithilfe von Zeitreihen von S2- und/oder S1-Bildern
ai4boundaries -> ein Python-Paket, das das Herunterladen des AI4boundaries-Datensatzes erleichtert
pytorch-waterbody-segmentation -> UNET-Modell, das auf dem Datensatz „Satellitenbilder von Gewässern“ von Kaggle trainiert wurde. Das Modell wird auf Hugging Face Spaces eingesetzt
Überschwemmungserkennung und -analyse mit UNET mit Resnet-34 als Rückgrat nutzt Fastai
Automatische Hochwassererkennung aus Satellitenbildern mittels Deep Learning
UNSOAT nutzte Fastai, um ein Unet zu trainieren, eine semantische Segmentierung auf Satellitenbildern durchzuführen, um Wasser zu erkennen
Halbüberwachte Klassifizierung und Segmentierung auf hochauflösenden Luftbildern – Lösung des FloodNet-Problems
Houston_flooding -> Kennzeichnung jedes Pixels als entweder überflutet oder nicht unter Verwendung von Daten von Hurrikan Harvey. Der Datensatz bestand aus Bildern vor und nach der Überschwemmung, und durch unbeaufsichtigtes Clustering (mit DBScan) von Bildpixeln mit menschlicher Clusterüberprüfung/-anpassung wurde eine Ground-Truth-Überschwemmungsmaske erstellt
ml4floods -> Ein Ökosystem aus Daten, Modellen und Code-Pipelines zur Bekämpfung von Überschwemmungen mit ML
Ein umfassender Leitfaden für den Einstieg in den ETCI Flood Detection-Wettbewerb -> mit Sentinel1 SAR und Pytorch
Kartieren Sie das Hochwasser von SAR-Bildern mit SageMaker -> angewendet auf den Sentinel-1-Datensatz
Erstplatzierte Lösung für STAC Overflow: Kartierung von Hochwasser anhand von Radarbildern, gehostet von Microsoft AI für Earth -> kombiniert Unet mit Catboostclassifier und verwendet deren Maxima, nicht den Durchschnitt
Hydra-Floods -> eine Open-Source-Python-Anwendung zum Herunterladen, Verarbeiten und Bereitstellen von Oberflächenwasserkarten, die aus Fernerkundungsdaten abgeleitet wurden
CoastSat -> Tool zur Kartierung von Küstenlinien mit der Erweiterung CoastSeg unter Verwendung von Segmentierungsmodellen
Satellite_Flood_Segmentation_of_Harvey -> erforscht sowohl Deep Learning als auch traditionelle kmeans
Erkennung von Hochwasserereignissen mithilfe von Satellitenbildern
ETCI-2021-Competition-on-Flood-Detection -> Experimente zur Hochwassersegmentierung auf Sentinel-1-SAR-Bildern mit zyklischer Pseudomarkierung und verrauschter Schülerschulung
FDSI -> Überschwemmungserkennung in Satellitenbildern – Multimedia-Satellitenaufgabe 2017
deepwatermap -> ein Tiefenmodell, das Wasser auf multispektralen Bildern segmentiert
rivamap -> eine automatisierte Flussanalyse- und Kartierungs-Engine
Tiefwasser -> Änderungen des Wasserstands verfolgen
WatNet -> Ein tiefes ConvNet für die Kartierung von Oberflächenwasser basierend auf dem Sentinel-2-Bild, verwendet den Erdoberflächenwasser-Datensatz
AU-Net-for-Flood-Extent-Mapping
Floatingobjects -> AUF DEM WEG, SCHWIMMENDE OBJEKTE AUF EINEM GLOBALEN MAßSTAB ZU ERKENNEN, MIT ERLERNEN RÄUMLICHEN FUNKTIONEN MIT SENTINEL 2. Verwendet U-Net und Pytorch
SpaceNet8 -> Basislösung von Unet zur Erkennung überfluteter Straßen und Gebäude
dlsim -> Durchbrechen der Grenzen der Fernerkundung durch Simulation und Deep Learning für die Kartierung von Überschwemmungen und Trümmerströmen
Water-HRNet -> HRNet trainiert auf Sentinel 2
semantisches Segmentierungsmodell zur Identifizierung neu erschlossener oder überschwemmter Flächen mithilfe von NAIP-Bildern der Chesapeake Conservancy, Schulung auf MS Azure
BandNet -> Analyse und Anwendung multispektraler Daten zur Wassersegmentierung mittels maschinellem Lernen. Verwendet Sentinel-2-Daten
mmflood -> MMFlood: Ein multimodaler Datensatz zur Hochwasserabgrenzung anhand von Satellitenbildern (Sentinel 1 SAR)
Urban_flooding -> Auf dem Weg zu übertragbaren datengesteuerten Modellen zur Vorhersage der städtischen Niederschlagswassertiefe in Berlin, Deutschland
Flood-Mapping-Using-Satellite-Images -> Masterarbeit zum Vergleich von Random Forest und Unet
MECNet -> Umfangreiche CNN-Funktionen zur Gewässersegmentierung anhand sehr hochauflösender Luft- und Satellitenbilder
SWRNET -> Ein Deep-Learning-Ansatz für die Erkennung kleiner Oberflächenwasserflächen an Bord von Satelliten
elwha-segmentation -> Feinabstimmung von Metas Segment Anything (SAM) für die Flusspixelsegmentierung aus der Vogelperspektive mit mittlerem Artikel
RiverSnap -> Code für Papier: Eine vergleichende Leistungsanalyse beliebter Deep-Learning-Modelle und des Segment-Anything-Modells (SAM) für die Flusswassersegmentierung in Nahbereichs-Fernerkundungsbildern
SatelliteVu-AWS-Disaster-Response-Hackathon -> Vorhersage der Brandausbreitung mithilfe klassischer ML und Deep Learning
Erkennung von Waldbränden mithilfe von U-Net, trainiert auf Databricks und Keras, semantische Segmentierung
Eine praktische Methode zur hochauflösenden Überwachung verbrannter Bereiche mit Sentinel-2 und VIIRS
AI Geospatial Wildfire Risk Prediction -> Ein Vorhersagemodell, das Geodaten-Rasterdaten verwendet, um mithilfe von Unet das Risikopotenzial von Waldbränden in den angrenzenden Vereinigten Staaten zu bewerten
IndustrialSmokePlumeDetection -> unter Verwendung von Sentinel-2 und einem modifizierten ResNet-50
Burned-Area-Detection -> verwendet Sentinel-2
Rettung -> Achtung bei Bränden: Mehrkanal-Deep-Learning-Modelle zur Vorhersage der Schwere von Waldbränden
Smoke_segmentation -> Rauchwolken segmentieren und Dichte anhand von GOES-Bildern vorhersagen
Wildfire-Detection -> Verwendung von Vision Transformers zur verbesserten Waldbranderkennung in Satellitenbildern
Burned_Area_Detection -> Erkennung verbrannter Bereiche mit Sentinel-2-Daten
burned-area-baseline -> Basislinien-Unit-Modell, das den Satelliten-Datensatz „Burned Area“ (Sentinel 1 und 2) begleitet
burned-area-seg -> Segmentierung verbrannter Bereiche von Sentinel-2 mithilfe von Multitasking-Lernen
chabud2023 -> Änderungserkennung für die Burned Area Delineation (ChaBuD) ECML/PKDD 2023-Herausforderung
Erkennung von Brandbränden nach einem Waldbrand mithilfe von Siamese-UNet -> im Chadbud-Datensatz
Vit-Burned-Detection -> Vision-Transformatoren in der Abgrenzung verbrannter Bereiche
landslide-sar-unet -> Deep Learning für die schnelle Erkennung von Erdrutschen mithilfe von SAR-Datenwürfeln (Synthetic Aperture Radar).
Erdrutsch-Mapping-with-cnn -> Eine neue Strategie zur Kartierung von Erdrutschen mit einem verallgemeinerten Faltungs-Neuronalen Netzwerk
Relict_landslides_CNN_KMEANS-> Relikt-Erdrutscherkennung in Regenwaldgebieten unter Verwendung einer Kombination aus K-Means-Clustering-Algorithmus und tiefen semantischen Segmentierungsmodellen
Erdrutsch-Mapping-on-SAR-DATA-BY-ATTENTENTION-U-NET-> Schnelle Kartierung von Erdrutschdaten für SAR-Daten nach Aufmerksamkeit U-NET
Sar-Landslide-Erkennung-> Sar-Basis-Erdrutschklassifizierung Vorabbau führt zu einer besseren Segmentierung
Erdrutschkartierung aus Sentinel-2-Bildern durch Änderungserkennung
HED -Unet -> Ein Modell für die gleichzeitige semantische Segmentierung und Kantenerkennung. Beispiele sind Gletscherfronten und Erstellen von Fußabdrücken unter Verwendung des Datensatzes der INRIA -Luftbildkennzeichnung
Glacier_Mapping -> Mapping -Gletscher im Hindu -Kush -Himalaya, Landsat 7 Bilder, Shapefile -Etiketten der Gletscher, unet mit Ausstieg
Gletscherdetekte-ML-> Ein einfaches logistisches Regressionsmodell, um einen Gletscher in Landsat-Satellitenbildern zu identifizieren
Gletschersemantik
Antarktis-Fraktur-Detektion-> verwendet Unet mit dem MODIS-Mosaik der Antarktis, um Oberflächenfrakturen zu erkennen
Nachweis von offenen Deponien -> Sentinel -2 verwendet, um große Änderungen im normalisierten Verbrennungsverhältnis (NBR) zu erkennen
Sea_ICE_REMOTE_SENSING -> Meereiskonzentrationsklassifizierung
Methan-Detektion-from-hypferspektraler Vergrößerung-> Tiefe Fernerkundungsmethoden zur Methanerkennung in Überkopfhyperspektralbildern
Methan-Emissionsprojekt-> Klassifizierungs-CNNs wurde in einem Ensemble-Ansatz mit herkömmlichen Methoden auf tabellarischen Daten kombiniert
CH4NET -> Ein schnelles, einfaches Modell zum Nachweis von Methanfahnen mit Sentinel -2
Eddynet -> Ein tiefes neuronales Netzwerk für die pixelweise Klassifizierung von ozeanischen Wirbeln
Schisto -Vegetation -> Deep -Lern -Segmentierung von Satellitenbildern identifiziert aquatische Vegetation im Zusammenhang mit Zwischengeschichten von Schistosomiasis im Senegal, Afrika
Earthformer -> Erforschung von Raum -Zeit -Transformatoren für die Vorhersage des Erdsystems
Weather4Cast-2022-> UNET-3D-Basismodell für Weather4Cast Rain Movie Prediction Wettbewerb
WeatherFusionNet -> Vorhersage der Niederschläge aus Satellitendaten. Weather4Cast-2022 1st Place-Lösung
Marinebrisdetektor-> groß angelegte Erkennung von Meeresabfällen in Küstengebieten mit Sentinel-2
Kaggle-Identify-Contrails-4th-> 4. Platzlösung, Google Research-Identifizieren Sie Kontrail, um die globale Erwärmung zu verringern
Minesegsat -> Ein automatisiertes System zur Bewertung des störenden Gebietsausmaßes aus Sentinel -2 -Bildern
STARCOP: Semantische Segmentierung von Methanfahnen mit hyperspektralen maschinellen Lernmodellen
ASOS -> Erkennen geschützter und anthropogener Muster in Landschaften mit interpretierbarem maschinellem Lernen und Satellitenbildern
Das Extrahieren von Straßen ist aufgrund der von anderen Objekten verursachten Okklusionen und der komplexen Verkehrsumgebung eine Herausforderung, und die komplexe Verkehrsumgebung
Chesapeakersc -> Segmentierung, um Straßen aus dem Hintergrund zu extrahieren, werden jedoch zusätzlich dadurch bewertet, wie sie auf der Klasse "Baumandach über die Straße" durchführen
Straßenerkennung unter Verwendung semantischer Segmentierung und Albumentationen für die Datenvergrößerung mit dem Datensatz von Massachusetts Roads, U-NET & Keras. Mit Code
Ml_effl_project_2 -> u -net in pytorch, um die semantische Segmentierung von Straßen auf Satellitenbildern durchzuführen
Semantische Segmentierung von Straßen unter Verwendung von U-NET-Keras, OSM-Daten, Projektzusammenfassungsartikel von Student, kein Code
Gewinn von Lösungen aus der SpaceNet Road Detection and Routing Challenge
RoadVecnet-> Straßennetz-Segmentierung und -vektorisierung in Keras mit Datensatz
Erkennen von Straßen- und Straßentypen Jupyter Notebook
Awesome-Deep-Map-> Eine kuratierte Liste von Ressourcen, die sich für Deep Learning / Computer Vision-Algorithmen für die Zuordnung widmen. Zu den Zuordnungsproblemen gehören das Inferenz des Straßennetzes, die Erstellung von Fußabdruckextraktion usw.
Roadtracer: Automatische Extraktion von Straßennetzwerken aus Luftbildern -> verwendet einen iterativen Suchprozess, der von einer CNN -basierten Entscheidungsfunktion geleitet wird, um den Straßennetzwerk direkt aus der Ausgabe des CNN abzuleiten
Road_detion_mtl -> Straßenerkennung unter Verwendung einer Lerntechnik mit mehreren Aufgaben zur Verbesserung der Leistung der Straßenerkennungsaufgabe durch Einbeziehung von Vorkenntnisbeschränkungen, verwendet das Datensatz von Spacenet Roads
Road_Connectivity -> Verbesserte Straßenkonnektivität durch gemeinsames Lernen von Orientierung und Segmentierung (CVPR2019)
Road-Network-Extraktion mit klassischer Bildverarbeitung-> Blur & Canny Edge-Erkennung
Spin_roadmapper -> Straßen aus Luftbildern über räumliche und Interaktionsraum -Diagramme für autonomes Fahren extrahieren
road_extraction_remote_sensing -> Pytorch -Implementierung, CVPR2018 DeepGlobe Road Extraction Challenge -Einreichung. Siehe auch Deepglobe-Road-Extraction-Challenge
RoadDections -Datensatz von Microsoft
Coanet -> Konnektivitätsaufmerksamkeitsnetzwerk für die Straßendrahme aus Satellitenbildern. Das COA -Modul enthält grafische Informationen, um sicherzustellen, dass die Konnektivität der Straßen besser erhalten bleibt
Satellitenbilder -Straßensegmentierung -> Intro -Artikule auf Medium mit dem Kaggle Massachusetts Roads Dataset
Label -Pixel -> Für die semantische Segmentierung von Straßen und anderen Merkmalen
Satelliten-Image-Road-Extraktion-> Straßendrehung durch tiefe Rest-U-NET
Road_building_extraction -> Pytorch -Implementierung der U -NET -Architektur für Straßen- und Gebäudeextraktion
RCFSNET -> Straßenextraktion aus Satellitenbildern nach Straßenkontext und in voller Stufe
SGCN-> Tiefe, trennbares trennbares Graph-Konvolution-Netzwerk für die Straßensextraktion in komplexen Umgebungen aus hochauflösenden Remote-Sensing-Bildern
ASPN -> Straßensegmentierung für Remote -Erfassungsbilder unter Verwendung von kontroversen räumlichen Pyramidennetzwerken
FCNS-for-Road-Extraction-Keras-> Straßenextraktion hochauflösender Remote-Erfassungsbilder basierend auf verschiedenen semantischen Segmentierungsnetzwerken
CRESI -> Road Network Extraktion aus Satellitenbildern mit Geschwindigkeits- und Reisezeitschätzungen
D -LinkNet -> LinkNet mit vorgenerochem Encoder und erweiterte Faltung für hochauflösende Satellitenbilder -Straße Extraktion
SAT2GRAPH -> Road Graph Extraktion durch Graphtensor -Codierung
Bild -Segmentierung) -> Verwenden von Massachusetts Road Dataset und Fast.ai
Roadtracer -M -> Road Network Extraktion aus Satellitenbildern unter Verwendung von CNN -basierter Segmentierung und Verfolgung
Scroadextraktor -> kritzelbasiertes schwach überwachtes Deep -Lernen für die Extraktion der Straßenoberfläche von Fernerkundungsbildern
Roadda -> Stage Unbeaufsichtigtes Domänenanpassung mit kontroversibler Selbsttraining für die Straßensegmentierung von Fernerkundungsbildern
DeepSegmentor -> Eine Pytorch -Implementierung von Deepcrack- und RoadNet -Projekten
Kaskaden verbesserte Aufmerksamkeit verbesserte die Straßenextraktion durch Fernerkundungsbilder
NL-LinkNet-> in Richtung leichterer, aber genauerer Straßenextraktion mit nicht-lokalen Operationen
IRSR -NET -> Leichtes Remote -Erkennungsnetz
Hironex -> Ein Python -Tool für automatische, vollständig unbeaufsichtigte Extraktion historischer Straßennetzwerke aus historischen Karten
Road_detction_model -> Mapping Roads im brasilianischen Amazonas mit künstlicher Intelligenz und Sentinel -2
DTNET-> Straßenerkennung über ein Dual-Task-Netzwerk basierend auf Cross-Layer-Graph-Fusionsmodulen
Automatische Road-Extraction-From-Historical Maps-Use-Deep-Learning-Techniken-> Automatische Straßendrammextraktion aus historischen Karten mit Deep-Lern-Techniken
Istanbul_dataset -> Segmentierung auf den Datensätzen Istanbul, Inria und Massachusetts
Straßensegmentierung-> Straßensegmentierung auf Satellitenbildern mit CNN (U-Nets und FCN8) und logistischer Regression
D -Linknet -> 1. Platzlösung in der Deepglobe Road Road Extraction Challenge
Park-Kenner-> Park-Kenner: Auf dem Weg zu einer effizienten Multitasking-Satellitenbilder-Straße, über die patchische Tastoint-Erkennung
Tile2NET -> Zuordnung des Walks: Ein skalierbarer Computer Vision -Ansatz zum Generieren von Sidewalk -Netzwerkdatensätzen aus Luftbildern
Aeriallanenet-> Karten auf der Fahrspurebene aus Luftbildern und Einführung des AEL-Datensatzes (AEL)
SAM_ROAD -> Segment Alles Modell (SAM) für groß angelegte, vektorisierte Straßennetzextraktion aus Luftbildern.
LRDNET -> Ein leichtgewichtetes Straßenerkennungsalgorithmus auf der Basis von Aufmerksamkeitsnetzwerk mit mehreren Faltungen und gekoppelten Decoderkopf
Fine -verräterische Extraktion von Straßennetzwerken durch gemeinsames Lernen von Konnektivität und Segmentierung -> verwendet Spazipa 3 -Datensatz
Semantische Semantik in Satelliten im Satellitenbilder verwendet U-NET im Massachusetts Roads Dataset & Keras
Finden Sie nicht autorisierte Konstruktionen mithilfe von Luftfotografie -> Datensatzerstellung
Srbuildseg-> Satellitenbilder mit niedriger Auflösung wiedergeboren werden: Ein Deep-Lern-Ansatz für die Extraktion über die Auflösung von Superauflösungen
Aufbau der Fußabdruckerkennung mit Fastai auf dem herausfordernden SpaceNet7-Datensatz verwendet U-Net & Fastai
PIX2PIX-for-Semantic-Segmentation-of-Satellite-Images-> Verwenden Sie das PIX2PIX-GAN-Netzwerk, um den Gebäude-Fußabdruck aus Satellitenbildern zu segmentieren, verwendet TensorFlow
Spacenetunet -> Basismodell ist U -NET wie in Spacenet Vegas -Daten unter Verwendung von Keras angewendet
automatisierte Bauanerkennung-> Eingabe: sehr hohe Auflösung (<= 0,5 m/pixel) RGB-Satellitenbilder. Ausgabe: Gebäude im Vektorformat (Geojson), das in digitalen Kartenprodukten verwendet werden soll. Auf Robosat und Robosat.Pink gebaut.
project_sunroof_india -> Analysierte Google -Satelliten -Bilder, um einen Bericht über das Solarleistungspotential des einzelnen Hauss auf dem Dach auf dem Dach zu generieren, und verwendet eine Reihe klassischer Computer -Vision -Techniken (z.
Jointnet-a-Common-Neural-Network-for-Road-and-Building-Extraktion
Zuordnen der Gebäude Afrikas mit Satellitenbildern: Google AI Blog -Beitrag. Siehe den Datensatz mit offenem Gebäuden
NZ_CONVNET -> Ein U -NET -basiertes ConvNet für neuseeländische Bilder zur Klassifizierung von Gebäudeumrechnungen
Polycnn-> End-to-End-Lernen von Polygonen für die Bildklassifizierung der Fernerkundung
spacenet_building_detektionslösung durch motokimura mit unet
VEC2Instance -> Angewendet auf das SpaceNet Challenge AOI 2 (Vegas) Erstellen Sie Fußabdruckdatensatz, Tensorflow v1.12
EartquaKaked -veranstaltete TEILECTICE -> Gebäudesegmentierung aus Satellitenbildern und Schadensklassifizierung für jeden Build unter Verwendung von Keras
Semantic-Segmentation Repo von Fuweifu-vtoo-> verwendet Pytorch und die Datensätze für Gebäude und Straßen von Massachusetts und Straßen
Extrahieren von Gebäuden und Straßen von AWS Open Daten mit Amazon Sagemaker -> mit Repo
TF -SEGNET -> AIRNET ist ein Segmentierungsnetzwerk, das auf Segnet basiert, jedoch mit einigen Modifikationen
RGB-Footprint-Extract-> Ein semantisches Segmentierungsnetzwerk für die Aufbau von Fußabdruckextraktion in städtischer Ebene unter Verwendung von RGB-Satellitenbildern, Deeplavv3+ -Modul mit einem erweiterten RESNET-C42-Backbone
SpaceNeTexploration -> Ein Beispielprojekt, das demonstriert, wie man unter Verwendung eines semantischen Segmentierungsmodells Fußabdrücke aus Satellitenbildern extrahiert. Daten aus der SpaceNet Challenge
Dach-Instanz-Segmentierung-> VGG-16, Instanzsegmentierung, verwendet den Airs-Datensatz
Solar-Farms-Mapping-> Ein Datensatz für künstliche Intelligenz für Solarenergie-Standorte in Indien
Geflügel-Cafos-> Dieses Repo enthält Code zum Erkennen von Geflügelstern aus hochauflösenden Luftbildern und einem dazugehörigen Datensatz mit vorhergesagten Scheunen über die USA
SSAI -CNN -> Dies ist eine Implementierung der Dissertationsmethoden von Volodymyr Mnih auf seiner Massachusetts Road & Building Dataset
Remote-Sensing-Building-Extraction-to-3D-Modell-Nutzung-Paddle-und-Grasshopper
Segmentierungsverstärkte-> Städtebau-Extraktion in der Daejeon-Region unter Verwendung modifizierter Rest-U-NET (modifiziertes Resunet) und Anwendung der Nachbearbeitung
Maske RCNN für Spacenet vor der Erkennung von Nadir -Gebäude
GRSL_BFE_MA -> Deep Learning -basiertes Aufbau von Fußabdruckextraktion mit fehlenden Annotationen unter Verwendung einer neuartigen Verlustfunktion
Fer -CNN -> Erkennung, Klassifizierung und Grenz regulalisiert von Gebäuden in Satellitenbildern unter Verwendung einer schnelleren Kantenregion Faltungsnetzwerke
Unet-Image-Segmentierungs-Satelliten-Picture-> Unet, um Dachflächen auf Crowed AI Mapping-Datensatz vorherzusagen, verwendet Keras
Vektor-Map-Generation-From-Aerial-Imagery-Use-Deep-Learning-Geospatial-Unet-> auf geo-referenzierte Bilder angewendet, die sehr groß sind
Gebäude-Footprint-Segmentierung-> PIP Installierbare Bibliothek für die Ausbildung des Gebäudes-Fußabdrucks Segmentierung auf Satelliten- und Luftbildern, angewendet auf Datensatz von Massachusetts Buildings und INRIA Aerial Image-Kennzeichnung Datensatz
Semsegbuildings -> Projekt mit Fast.ai Framework für die semantische Segmentierung auf INRIA -Gebäude -Segmentierungsdatensatz
Fcnn -example -> über ein bestimmtes Bild übertreffen, um Häuser zu erkennen
SAT2LOD2-> Eine Open-Source-Software für Python-basierte GUI-fähige, die die Satellitenbilder als Eingänge aufnimmt und LOD2-Gebäudemodelle als Ausgänge zurückgibt
SATFOOTPRINT -> Segmentierung auf dem Spacenet 7 -Datensatz erstellen
Gebäudetechnik -> Raster Vision Experiment, um ein Modell zu trainieren, um Gebäude aus Satellitenbildern in drei Städten in Lateinamerika zu erkennen
Multi-Building-Tracker-> Multi-Target Building Tracker für Satellitenbilder mit Deep Learning
Semantische Segmentierung der Grenzverstärkung zur Gebäudeextraktion
Kerascode für binäre semantische Segmentierung
SpaceNet-Building-Detektion
LGPNET-BCD-> Erstellen Änderungen Erkennung für VHR-Fernerkundungsbilder über lokales Pyramidennetzwerk und Cross-Task-Transferlernstrategie
Mtl_homoscedastic_srb -> ein multi -taskisches Deep -Lern -Framework zum Aufbau von Fußabdrucksegmentierung
UNET_CNN -> UNET -Modell zum Segmentgebäudeabdeckung in Boston mithilfe von Remote -Erfassungsdaten verwendet Keras
FDANET-> Domänenanpassung auf Vollstufe zum Aufbau der Extraktion in optischen Fernbedienungsbildern mit sehr hoher Auflösung
CBRNET-> Ein grobes bis zum Feingrenze-Verfeinerungsnetz zum Aufbau von Extraktion aus Remote-Erfassungsbildern
ASLNET -> Konversarisches Formlernen zum Aufbau der Extraktion in VHR -Fernerkundungsbildern
BRRNET -> Ein vollständig faltungsvolles neuronales Netzwerk für die automatische Erstellung der Extraktion von hochauflösenden Fernerkundungsbildern
Multi-Scale-Filtering-Building-Index-> Ein Multi-Skalierungsfilter-Gebäude-Index für die Aufbau von Extraktion in sehr hohen Satellitenbildern
Modelle für die Fernerkundung -> Lange Liste der Unets usw. für die Erkennung von Gebäuden angewendet
boundary_loss_for_remote_sensing -> Grenzverlust für die semantische Segmentierung von Remote -Erfassungsbildern
Offene Städte AI Challenge -> Segmentierung von Gebäuden für die Widerstandsfähigkeit von Katastrophen. Gewinnungslösungen auf Github
MAPNET -> Multi anwesender Pfad Neuronales Netz
Dual -HRNet -> Gebäude lokalisieren und ihr Schadensniveau klassifizieren
ESFNET -> Effizientes Netzwerk zum Aufbau der Extraktion aus hochauflösenden Luftbildern
Dach-Detektion-Python-> Dächer aus Satellitenbildern mit niedriger Auflösung erkennen und den Bereich für die Kultivierungs- und Solarpanel-Rate unter Verwendung klassischer Computer Vision-Techniken berechnen
keras_segmentation_models -> Verwenden von offenen vektorbasierten räumlichen Daten, um semantische Datensätze zum Erstellen von Segmentierung für Rasterdaten zu erstellen
CVCMFFNET -> Komplex betrachtete Faltungs- und Multiature -Fusions -Netzwerk zum Aufbau der semantischen Segmentierung von Insar -Bildern
Steb-Unet-> Ein in Swin Transformator basierender Codierungspflichtiger in das U-förmige Netzwerk zur Aufbau-Extraktion integriert
DFC2020_BASELINE-> Grundlinienlösung für den IEEE GRSS-Datenfusionswettbewerb 2020. Vorhersagen
Fusing mehrere Segmentierungsmodelle, die auf verschiedenen Datensätzen basieren
Ground-Truth-Gan-Segmentierung-> Verwenden Sie PIX2PIX, um den Fußabdruck eines Gebäudes zu segmentieren. Der verwendete Datensatz ist Airs
UNICEF -GIGA_SUDAN -> Schullose aus Satellitenbildern im Südsudan unter Verwendung eines UNET -Segmentierungsmodells erkennen
BUILE_FOOTPRINT_EXTRAKTION -> Das Projekt ruft Satellitenbilder aus Google ab und führt mithilfe eines U -NET die Footprint -Extraktion durch.
ProjectreGularisation -> Regularisierung von Gebäudegrenzen in Satellitenbildern unter Verwendung von kontroversen und regulierten Verlusten
PolyworldPretrainedNetwork -> polygonale Gebäudetechnik -Extraktion mit Grafiknetzwerken in Satellitenbildern
DL_IMAGE_SEGNUNGSATION -> Unsicherheit -bewusstes interpretierbares Deep -Lernen für die Slum -Zuordnung und -überwachung. Verwendet Shap
UBC-Datensatz-> Ein Datensatz zum Erstellen von Erkennung und Klassifizierung aus sehr hochauflösenden Satellitenbildern mit Schwerpunkt auf der Interpretation der einzelnen Gebäude auf Objektebene
Unetformer -> Ein unet -ähnlicher Transformator für eine effiziente semantische Segmentierung von Fernerkundungsbildern der Fernerkundung
BES-NET-> Grenzverstärkeres semantisches Kontextnetzwerk für hochauflösende Bildsegmentierung. Angewendet auf Vaihingden- und Potsdam -Datensätze
CVNET -> Kontur -Vibrationsnetz für die Erstellung der Extraktion
CFENET -> Ein Kontextfunktionsverbesserungsnetzwerk zum Aufbau von Extraktion aus hochauflösenden Fernerkundungsbildern
Hisup -> Genaue polygonale Zuordnung von Gebäuden in Satellitenbildern
BUILIDEXTRAKTION -> Bauen Sie die Extraktion aus Remote -Erfassungsbildern mit spärlichen Token -Transformatoren auf
Crossgeonet -> Ein Rahmen für den Aufbau der geografischen Regionen von Label -Scarce -Rahmen
AFM_BUILDING -> Aufbau der Fußabdruck -Generation durch Faltungsnetzwerke mit Anziehungsfelddarstellung
Rampe (Reply AI für Mikroplaning) -> Erkennung in Ländern mit niedrigem und mittlerem Einkommen
Gebäude-Instanz-Segmentierung-> Multimodal-Fusionsfusionsnetzwerk mit adaptivem Center Point Detector für die Gebäudeinstanzextraktion
CGSanet-> Ein konturgeführtes und lokales strukturbewusstes Encoder-Decoder-Netzwerk für eine genaue Gebäudeextraktion aus sehr hochauflösenden Fernerkundungsbildern
Gebäude-Footprints-Update-> Lernfarbverteilungen von Bitemporal Remote-Sensing-Bildern zum Aktualisieren vorhandener Gebäude-Fußabdrücke
Ramp -> Modell- und Gebäude -Datensatz zur Unterstützung einer Vielzahl humanitärer Anwendungsfälle
Thesis_Semantic_image_segmentation_on_satellite_imagery_using_unets -> Diese Master -These zielt darauf ab, die semantische Segmentierung von Gebäuden auf Satellitenbildern aus der SpaceNet Challenge 1 -Datensatz mit der U -NET -Architektur durchzuführen
HD-NET-> Hochauflösendes entkoppeltes Netzwerk zum Aufbau von Fußabdruckextraktion über tief beaufsichtigte Körper- und Grenzzerlegung
Roofsense -> Eine neuartige Deep -Learning -Lösung für die automatische Klassifizierung des niederländischen Gebäudes mit Luftbildern und Laser -Scandatenfusion für die automatische Dachdächermaterialklassifizierung
IBS-AQSNET-> Verbessertes automatisiertes Qualitätsbewertungsnetzwerk für die interaktive Bauensegmentierung in hochauflösenden Remote-Erfassungsbildern
Deepmao -> Deep Multi -Scale Awesare Overcomplete Network für den Aufbau der Segmentierung in Satellitenbildern
Deep-Learning-for-Solar-Panel-Erkennung-> Verwenden sowohl der Objekterkennung mit Yolov5 als auch der UNET-Segmentierung
DeepSolar -> Ein maschinelles Lernrahmen zum effizienten Erstellen einer Solar -Bereitstellungsdatenbank in den USA. Der Datensatz auf Kaggle verwendete tatsächlich einen CNN zur Klassifizierung und Segmentierung, indem ein Schwellenwert auf die Aktivierungskarte angewendet wird. Der ursprüngliche Code ist TF1, aber TF2/Ker und eine Pytorch -Implementierung sind verfügbar. Auch Checkout-Visualisierungen und eingehende Analyse. Von den Faktoren, die die Einführung von Sonnenenergie in .. Virginia und DeepSolar Tracker erklären können
hyperion_solar_net -> trainierte klassifikaton- und Segmentierungsmodelle auf RGB -Bildern von Google Maps
3D-PV-Lokator-> groß angelegte Erkennung von Photovoltaiksystemen auf dem Dach in 3D
Pv_pipeline -> DeepSolar für Deutschland
Solar-Panels-Erkennung-> mit Segnet, f