Hilfreiche Hadoop Shell-Befehle



Dieser Blog beschreibt alle hilfreichen Hadoop Shell-Befehle. Neben den Hadoop Shell-Befehlen enthält es auch Screenshots, um das Lernen zu vereinfachen. Weiter lesen!

HDFS steht für „ H. adoop D. verteilt wird F. mit S. ystem ’. Das HDFS ist ein Unterprojekt des Apache Hadoop-Projekts. Dieses Apache Software Foundation-Projekt wurde entwickelt, um ein fehlertolerantes Dateisystem bereitzustellen, das auf Standardhardware ausgeführt werden kann. Auf HDFS wird über eine Reihe von Shell-Befehlen zugegriffen, die in diesem Beitrag erläutert werden.





Ein kurzer Hinweis vor dem Start: Alle Hadoop Shell-Befehle werden vom bin / hadoop-Skript aufgerufen.

Benutzerbefehle:

  • Führen Sie das DFS-Dateisystem aus:

Verwendung: hadoop fsck - /



Run-DFS-Dateisystem (1)

wie man als Referenz in Java übergibt
  • C. Heck-Version von Hadoop ::

Verwendung: Hadoop-Version



FS Shell-Befehle:

Der Befehl Hadoop fs führt einen generischen Dateisystem-Benutzerclient aus, der mit dem MapR-Dateisystem (MapR-FS) interagiert.

  • Dateilisten anzeigen:

Verwendung: hadoop fs -ls hdfs: /

  • Überprüfen Sie den Speicherstatus:

Verwendung: hadoop fs -df hdfs: /

  • Anzahl der Verzeichnisse, Dateien und Bytes im angegebenen Pfad und Dateimuster:

Verwendung: hadoop fs -count hdfs: /

  • Verschieben Sie die Datei von einem Speicherort an einen anderen:

Verwendung: -mv

  • Kopieren Sie die Datei von der Quelle zum Ziel ::

Verwendung: -cp

  • Datei löschen:

Verwendung: -rm

  • Datei aus dem lokalen Dateisystem in das verteilte Hadoop-Dateisystem einfügen:

Verwendung: -put…

  • Datei von Local nach HDFS kopieren:

Verwendung: -copyFromLocal…

  • Datei im Hadoop Distributed File System anzeigen ::

Verwendung: -cat

Administrationsbefehle:

  • Formatieren Sie den Zweck ::

Verwendung: Hadoop Zweck-Format

  • Starten von sekundären Zwecken:

Verwendung: hadoop secondrynamenode

  • Mit Absicht ausführen ::

Verwendung: Hadoop-Zweck

  • Lauf Datenknoten ::

Verwendung: Hadoop-Datenknoten

  • Cluster-Balancing ::

Verwendung: Hadoop Balancer

  • Führen Sie den MapReduce-Job-Tracker-Knoten aus:

Verwendung: Hadoop Job Tracker

Standardwert für char in Java

  • Führen Sie den MapReduce-Task-Tracker-Knoten aus:

Verwendung: Hadoop Tasktracker

Hast du eine Frage an uns? Bitte erwähnen Sie sie in den Kommentaren und wir werden uns bei Ihnen melden.

Zusammenhängende Posts:

Operatoren in Apache Pig