J'ai construit Spark 1.4 à partir du maître de développement GH, et la construction s'est bien déroulée. Mais quand je fais un, bin/pyspark
j'obtiens la version Python 2.7.9. Comment puis-je changer cela?
python
python-3.x
apache-spark
tchakravarty
la source
la source
PYSPARK_DRIVER_PYTHON=ipython3 PYSPARK_DRIVER_PYTHON_OPTS="notebook" ./bin/pyspark
:, auquel cas il exécute le notebook IPython 3.Réponses:
Définissez simplement la variable d'environnement:
export PYSPARK_PYTHON=python3
au cas où vous voudriez que ce soit un changement permanent, ajoutez cette ligne au script pyspark.
la source
export PYSPARK_PYTHON=python3.5
pour Python 3.5$SPARK_HOME/conf/spark-env.sh
afin d'spark-submit
utiliser également le même interpréteur.Si vous souhaitez exécuter dans IPython Notebook, écrivez:
Si
python3
n'est pas accessible, vous devez lui passer le chemin.Gardez à l'esprit que la documentation actuelle (à partir de 1.4.1) contient des instructions obsolètes. Heureusement, il a été corrigé .
la source
1, modifier le profil:
vim ~/.profile
2, ajoutez le code dans le fichier:
export PYSPARK_PYTHON=python3
3, exécutez la commande:
source ~/.profile
4,
./bin/pyspark
la source
Jetez un œil au dossier. La ligne shebang est probablement pointée vers le binaire 'env' qui recherche le chemin du premier exécutable compatible.
Vous pouvez changer python en python3. Modifiez l'environnement pour utiliser directement le binaire python3 codé en dur. Ou exécutez le binaire directement avec python3 et omettez la ligne shebang.
la source
PYSPARK_PYTHON
variable d'environnement.Pour Jupyter Notebook, modifiez le
spark-env.sh
fichier comme indiqué ci-dessous à partir de la ligne de commandeAller au bas du fichier et copier coller ces lignes
Ensuite, exécutez simplement la commande suivante pour démarrer pyspark dans notebook
la source