Hadoop ist eine verteilte Systemarchitektur, die äußerst fehlertolerant ist und für den Einsatz auf kostengünstiger Hardware konzipiert ist. Funktionseinführung: hohe Zuverlässigkeit. Die Fähigkeit von Hadoop, Daten Stück für Stück zu speichern und zu verarbeiten, ist vertrauenswürdig. Hohe Skalierbarkeit. Hadoop verteilt Daten und erledigt Rechenaufgaben zwischen verfügbaren Computerclustern, die problemlos auf Tausende von Knoten erweitert werden können. Effizienz. Hadoop kann Daten dynamisch zwischen Knoten verschieben und das dynamische Gleichgewicht jedes Knotens sicherstellen, sodass die Verarbeitungsgeschwindigkeit sehr hoch ist. Hohe Fehlertoleranz. Hadoop kann automatisch mehrere Kopien von Daten speichern und fehlgeschlagene Aufgaben automatisch neu verteilen. niedrige Kosten. Im Vergleich zu All-in-One-Computern, kommerziellen Data Warehouses und Data Marts wie QlikView und Yonghong Z-Suite ist Hadoop Open Source, sodass die Softwarekosten des Projekts erheblich reduziert werden. Hadoop wird mit einem in der Java-Sprache geschriebenen Framework geliefert und eignet sich daher ideal für die Ausführung auf Linux-Produktionsplattformen. Anwendungen auf Hadoop können auch in anderen Sprachen, beispielsweise C++, geschrieben werden.
Expandieren