“Comment puis-je utiliser Apache Spark avec un cahier dans Anaconda” Réponses codées

Comment puis-je utiliser Apache Spark avec un cahier dans Anaconda

PYSPARK_PYTHON=/opt/continuum/anaconda/bin/python spark-submit pyspark_script.py
Lazy Lion

Comment puis-je utiliser Apache Spark avec un cahier dans Anaconda

import os
import sys
os.environ["PYSPARK_PYTHON"] = "/opt/continuum/anaconda/bin/python"
os.environ["JAVA_HOME"] = "/usr/java/jdk1.7.0_67-cloudera/jre"
os.environ["SPARK_HOME"] = "/opt/cloudera/parcels/CDH/lib/spark"
os.environ["PYLIB"] = os.environ["SPARK_HOME"] + "/python/lib"
sys.path.insert(0, os.environ["PYLIB"] +"/py4j-0.9-src.zip")
sys.path.insert(0, os.environ["PYLIB"] +"/pyspark.zip")
Lazy Lion

Réponses similaires à “Comment puis-je utiliser Apache Spark avec un cahier dans Anaconda”

Questions similaires à “Comment puis-je utiliser Apache Spark avec un cahier dans Anaconda”

Plus de réponses similaires à “Comment puis-je utiliser Apache Spark avec un cahier dans Anaconda” dans Python

Parcourir les réponses de code populaires par langue

Parcourir d'autres langages de code