Hadoop - HDFS Operationen



Start- HDFS

Anfänglich müssen Sie die konfiguriert HDFS-Dateisystem, offene Namen Knoten (HDFS-Server) zu formatieren, und führen Sie den folgenden Befehl ein.

$ hadoop namenode -format 

Nach der Formatierung der HDFS starten Sie das verteilte Dateisystem. Der folgende Befehl wird starten den Namen Knoten ebenso gut wie die Daten Knoten als Cluster.

$ start-dfs.sh 

Auflisten von Dateien in HDFS

Nach dem Laden der Daten in dem Server, können wir die Liste der Dateien in einem Verzeichnis zu finden, Status einer Datei verwendung 'ls'. Da unten ist die Syntax des ls, dass Sie kann zu ein Verzeichnis oder einen Dateinamen als Argument übergeben.

$ $HADOOP_HOME/bin/hadoop fs -ls <args>

Einfügen von Daten in HDFS

Übernehmen wir haben Daten in der Datei mit dem Namen file.txt im lokalen System, die es haben sollte im HDFS-Dateisystem gespeichert werden. Befolgen Sie die unten angegebenen Schritte, um die einfügen erforderlichen Datei in der Hadoop-Dateisystem ein.

Schritt 1

Sie haben einen Eingang Verzeichnis zu erstellen.

$ $HADOOP_HOME/bin/hadoop fs -mkdir /user/input 

Schritt 2

Übertragen und Speichern einer daten Datei von der lokalen Systeme an die Hadoop-Dateisystem verwendung dem Befehl setzen.

$ $HADOOP_HOME/bin/hadoop fs -put /home/file.txt /user/input 

Schritt 3

Sie können die Datei verwendung ls Befehl verifizieren.

$ $HADOOP_HOME/bin/hadoop fs -ls /user/input 

Abrufen von Daten aus HDFS

Angenommen, wir haben eine Datei in HDFS namens outfile. Da unten ist eine einfache Demonstration zum Abrufen die gewünschte Datei aus der Hadoop-Dateisystem.

Schritt 1

Anfänglich sehen Sie die Daten aus HDFS verwendung cat Befehl.

$ $HADOOP_HOME/bin/hadoop fs -cat /user/output/outfile 

Schritt 2

Holen Sie sich die Datei von HDFS in das lokale Dateisystem verwendung get Befehl.

$ $HADOOP_HOME/bin/hadoop fs -get /user/output/ /home/hadoop_tp/ 

Herunterfahren des HDFS

Sie können Herunterfahren des HDFS, indem Sie den folgenden Befehl aus.

$ stop-dfs.sh 
Advertisements