Commandes utiles du shell Hadoop



Ce blog décrit toutes les commandes Hadoop Shell utiles. Outre les commandes Hadoop Shell, il comporte également des captures d'écran pour simplifier l'apprentissage. Continuer à lire!

HDFS signifie « H adoop istribué F avec S ystem ». Le HDFS est un sous-projet du projet Apache Hadoop. Ce projet Apache Software Foundation est conçu pour fournir un système de fichiers tolérant aux pannes conçu pour fonctionner sur du matériel standard. HDFS est accessible via un ensemble de commandes shell qui seront discutées dans cet article.





Une petite note avant de commencer: Toutes les commandes Hadoop Shell sont appelées par le script bin / hadoop.

comment définir le chemin en java

Commandes utilisateur:

  • Exécutez le système de fichiers DFS:

Utilisation: hadoop fsck - /



Système de fichiers Run-DFS (1)

  • C diable version de Hadoop :

Utilisation: version Hadoop



Commandes du shell FS:

La commande Hadoop fs exécute un client utilisateur de système de fichiers générique qui interagit avec le système de fichiers MapR (MapR-FS).

  • Afficher les listes de fichiers:

Utilisation: hadoop fs -ls hdfs: /

  • Vérifiez l'état de la mémoire:

Utilisation: hadoop fs -df hdfs: /

  • Nombre de répertoires, fichiers et octets dans le chemin et le modèle de fichier spécifiés:

Utilisation: hadoop fs -count hdfs: /

  • Déplacer le fichier d'un emplacement à un autre:

Utilisation: -mv

  • Copier le fichier de la source vers la destination :

Utilisation: -cp

  • Supprimer le fichier:

Utilisation: -rm

  • Placez le fichier du système de fichiers local vers le système de fichiers distribué Hadoop:

Utilisation: -put…

  • Copiez le fichier de Local vers HDFS:

Utilisation: -copyFromLocal…

comment écrire la méthode tostring en java
  • Afficher le fichier dans le système de fichiers distribués Hadoop :

Utilisation: -cat

Commandes d'administration:

  • Formater le but :

Utilisation: hadoop purpose -format

  • Début des objectifs secondaires:

Utilisation: hadoop secondrynamenode

  • Courir exprès :

Utilisation: but hadoop

configurer hadoop sur ubuntu

  • Courir nœud de données :

Utilisation: hadoop datanode

  • Équilibrage de cluster :

Utilisation: équilibreur hadoop

  • Exécutez le nœud de suivi des travaux MapReduce:

Utilisation: suivi des travaux hadoop

  • Exécutez le nœud de suivi des tâches MapReduce:

Utilisation: hadoop tasktracker

Vous avez une question pour nous? Veuillez les mentionner dans la section commentaires et nous vous recontacterons.

Articles Similaires:

Opérateurs dans Apache Pig