Section courante

A propos

Section administrative du site

Toutes les commandes HDFS utilise la syntaxe suivante :

hdfs [SHELL_OPTIONS] COMMAND [GENERIC_OPTIONS] [COMMAND_OPTIONS]

Voici les commandes disponibles avec le HDFS :

Nom Description
balancer Cette commande permet d'exécuter un utilitaire d'équilibrage de l'unité d'allocation. Un administrateur peut simplement appuyer sur Ctrl+C pour arrêter le processus de rééquilibrage.
cacheadmin Cette commande permet d'effectuer la gestion du cache administrateur.
classpath Cette commande permet d'afficher le chemin de classe nécessaire pour obtenir le fichier jar de Hadoop et les bibliothèques requises.
computeMeta Cette commande permet de calculer les métadonnées HDFS à partir de fichiers de bloc.
crypto Cette commande permet de gérer l'encryption.
datanode Cette commande permet d'exécuter un noeud de données.
dfs Cette commande permet d'exécuter une commande de système de fichiers sur le système de fichiers pris en charge dans Hadoop.
dfsadmin Cette commande permet d'exécuter un client dfsadmin pour HDFS.
dfsrouter Cette commande permet d'exécuter le routeur DFS.
dfsrouteradmin Cette commande permet d'effectuer la gestion de la fédération basée sur un routeur.
diskbalancer Cette commande permet d'exécuter le CLI du diskbalancer.
ec Cette commande permet d'exécuter le CLI du ErasureCoding.
envvars Cette commande permet d'afficher les variables d'environnement Hadoop calculées.
fetchdt Cette commande permet de demander le jeton de délégation d'un nom de noeud.
fsck Cette commande permet d'exécuter l'utilitaire de vérification du système de fichiers HDFS.
getconf Cette commande permet de demander les informations de configuration à partir du répertoire de configuration, post-traitement.
groups Cette commande permet de demander les informations de groupe en fonction d'un ou de plusieurs noms d'utilisateur.
haadmin Cette commande permet d'effectuer la gestion de l'administrateur HA.
httpfs Cette commande permet d'exécuter le serveur HttpFS et la passerelle HTTP de HDFS.
journalnode Cette commande permet de démarrer un nom de journal de bord à utiliser dans HDFS HA avec QJM.
lsSnapshottableDir Cette commande permet de demander la liste des répertoires snapshottable. Lorsqu'il est exécuté en tant que super utilisateur, il renvoie tous les répertoires snapshottable. Sinon, il renvoie les répertoires appartenant à l'utilisateur actuel.
jmxget Cette commande permet de vider les informations JMX d'un service.
mover Cette commande permet d'exécuter l'utilitaire de migration de données.
namenode Cette commande permet d'exécuter le nom du noeud.
nfs3 Cette commande permet de démarrer la passerelle NFS3 à utiliser avec le service NFS3 du HDFS.
oev Cette commande permet d'indiquer que Hadoop doit éditer en mode hors ligne le visualiseur.
oiv Cette commande permet d'appeler le Hadoop Offline Image Viewer pour les fichiers image dans Hadoop 2.4 ou version ultérieure.
oiv_legacy Cette commande permet de visualiser les images hors connexion Hadoop pour les anciennes versions de Hadoop.
portmap Cette commande permet de démarrer la carte de port RPC à utiliser avec le service NFS3 du HDFS.
recoverLease Cette commande permet de récupérer le bail sur le chemin spécifié.
secondarynamenode Cette commande permet d'exécuter le nom du noeud secondaire de HDFS.
storagepolicies Cette commande permet d'afficher la liste de toutes les politiques d'entreposage Gets/sets/unsets.
snapshotDiff Cette commande permet de déterminer la différence entre les instantanés HDFS.
verifyMeta Cette commande permet de vérifier les métadonnées HDFS et bloquer les fichiers.
version Cette commande permet d'afficher la version de la commande.
zkfc Cette commande permet de démarrer un processus de contrôleur de basculement Zookeeper à utiliser dans HDFS HA avec QJM.


Dernière mise à jour : Vendredi, le 8 novembre 2019