Hadoop - Groß Daten Lösungen



Traditionelle Enterprise-Ansatz

Bei dieser Ansatz ,Unternehmungsgeist werden haben einen Computer zu speichern und verarbeiten groß Daten. Für die Lagerung Zweck werden die Programmierer nehmen die Hilfe von ihre Wahl der Datenbankanbieter wie Oracle, IBM, etc. In diesem Ansatz, der Benutzer interagiert mit dem Antrag welche wiederum Griffe die Rolle der Datenspeicherung und Analyse.

Big Data Traditioneller Ansatz

Beschränkung

Dieser Ansatz funktioniert gut mit den Anwendungen, dass verarbeiten weniger voluminös Daten dass kann sein aufgenommen von Standard-Datenbankserver, oder bis an die Grenze des Prozessors, dass ist verarbeitet Daten. Aber wenn es um den Umgang mit riesig Mengen von skalierbaren Daten kommt, ist es eine hektische Aufgabe, diese Daten über eine einzige Datenbank Engpass zu verarbeiten.

Google ist Lösung

Google löste dieses Problem mit Hilfe eines Algorithmus namens Karte reduzieren. Dieser Algorithmus die Aufgabe zerfällt in kleine Teile und ordnet sie auf vielen Computern und sammelt die Ergebnisse von ihnen, die als integrierte, bilden die Ergebnisdatensatz.

Google MapReduce

Hadoop

Verwendung der Lösung von Google bereitgestellten, Doug Cutting und sein Team entwickelt eine Open-Source-Projekt namens Hadoop.

Hadoop führt Anwendungen unter Verwendung der Karte reduzieren Algorithmus, in dem die Daten parallel mit anderen verarbeitet. Kurz gesagt, Hadoop wird verwendet, um Anwendungen, die vollständige statistische Analyse riesig Datenmengen führen könnte zu entwickeln.

Hadoop Framework
Advertisements