Erreurs «Autorisation refusée» lors du démarrage d'un cluster à nœud unique dans Hadoop

10

Je travaille dans Ubuntu 10.10 et j'essaie de démarrer un cluster à nœud unique dans Hadoop.

hadoop@abraham-Dimension-3000:/usr/local/hadoop$ bin/start-all.sh
mkdir: cannot create directory `/usr/local/hadoop/bin/../logs': Permission denied
starting namenode, logging to /usr/local/hadoop/bin/../logs/hadoop-hadoop-namenode-abraham-Dimension-3000.out
/usr/local/hadoop/bin/hadoop-daemon.sh: line 117: /usr/local/hadoop/bin/../logs/hadoop-hadoop-namenode-abraham-Dimension-3000.out: No such file or directory
head: cannot open `/usr/local/hadoop/bin/../logs/hadoop-hadoop-namenode-abraham-Dimension-3000.out' for reading: No such file or directory
localhost: mkdir: cannot create directory `/usr/local/hadoop/bin/../logs': Permission denied
localhost: starting datanode, logging to /usr/local/hadoop/bin/../logs/hadoop-hadoop-datanode-abraham-Dimension-3000.out
localhost: /usr/local/hadoop/bin/hadoop-daemon.sh: line 117: /usr/local/hadoop/bin/../logs/hadoop-hadoop-datanode-abraham-Dimension-3000.out: No such file or directory
localhost: head: cannot open `/usr/local/hadoop/bin/../logs/hadoop-hadoop-datanode-abraham-Dimension-3000.out' for reading: No such file or directory
localhost: mkdir: cannot create directory `/usr/local/hadoop/bin/../logs': Permission denied
localhost: starting secondarynamenode, logging to /usr/local/hadoop/bin/../logs/hadoop-hadoop-secondarynamenode-abraham-Dimension-3000.out
localhost: /usr/local/hadoop/bin/hadoop-daemon.sh: line 117: /usr/local/hadoop/bin/../logs/hadoop-hadoop-secondarynamenode-abraham-Dimension-3000.out: No such file or directory
localhost: head: cannot open `/usr/local/hadoop/bin/../logs/hadoop-hadoop-secondarynamenode-abraham-Dimension-3000.out' for reading: No such file or directory
mkdir: cannot create directory `/usr/local/hadoop/bin/../logs': Permission denied
starting jobtracker, logging to /usr/local/hadoop/bin/../logs/hadoop-hadoop-jobtracker-abraham-Dimension-3000.out
/usr/local/hadoop/bin/hadoop-daemon.sh: line 117: /usr/local/hadoop/bin/../logs/hadoop-hadoop-jobtracker-abraham-Dimension-3000.out: No such file or directory
head: cannot open `/usr/local/hadoop/bin/../logs/hadoop-hadoop-jobtracker-abraham-Dimension-3000.out' for reading: No such file or directory
localhost: mkdir: cannot create directory `/usr/local/hadoop/bin/../logs': Permission denied
localhost: starting tasktracker, logging to /usr/local/hadoop/bin/../logs/hadoop-hadoop-tasktracker-abraham-Dimension-3000.out
localhost: /usr/local/hadoop/bin/hadoop-daemon.sh: line 117: /usr/local/hadoop/bin/../logs/hadoop-hadoop-tasktracker-abraham-Dimension-3000.out: No such file or directory
localhost: head: cannot open `/usr/local/hadoop/bin/../logs/hadoop-hadoop-tasktracker-abraham-Dimension-3000.out' for reading: No such file or directory
hadoop@abraham-Dimension-3000:/usr/local/hadoop$ 

Je n'ai aucune idée de ce que je fais mal ou de ce que certaines de ces erreurs suggèrent.

hadoop@abraham-Dimension-3000:/usr/local/hadoop$ jps
5099 Jps

Quelqu'un peut-il diagnostiquer le problème?

ATMathew
la source

Réponses:

21

Les erreurs suggèrent un problème d'autorisations.

Assurez-vous que l'utilisateur hadoop dispose des privilèges appropriés /usr/local/hadoop. Essayer:

sudo chown -R hadoop / usr / local / hadoop /
Mark Russell
la source
J'ai passé quelques heures à essayer de comprendre quels paramètres dois-je modifier pour faire fonctionner mon hadoop. Et finalement j'ai trouvé une solution qui fonctionne pour moi. Je vous remercie! :)
jjankowiak
1

vous avez spécifié le répertoire de travail pour le système de fichiers hadoop avec un utilisateur autre que l'utilisateur hadoop, alors définissez le répertoire qui a lu, écrivez les autorisations pour l'utilisateur hadoop ou changez l'ower du répertoire
Try ::

sudo chown -R hadoop-user /user/hadoop_project/

ou

sudo chmod 777 /user/hadoop_project

où "hadoop-user" nom de connexion pour l'environnement hadoop. 'hadoop-project' a spécifié le répertoire de travail du système de fichiers hadoop. (spécifiez vos propres identifiant et répertoire que vous utilisez pour l'installation de hadoop)

sudhakara.st
la source