“Convertir Pandas DataFrame pour Spark DataFrame” Réponses codées

Convertir Pandas DataFrame pour Spark DataFrame

import pandas as pd
from pyspark.sql import SparkSession

filename = <'path to file'>
spark = SparkSession.build.appName('pandasToSpark').getOrCreate()
# Assuming file is csv
pandas_df = pd.read_csv(filename)
spark_df = spark.CreateDataFrame(pandas_df)
Makstar

dataframe pandas à étinceler


from pyspark.sql import SparkSession
#Create PySpark SparkSession
spark = SparkSession.builder \
    .master("local[1]") \
    .appName("SparkByExamples.com") \
    .getOrCreate()
#Create PySpark DataFrame from Pandas
sparkDF=spark.createDataFrame(pandasDF) 
sparkDF.printSchema()
sparkDF.show()

#Outputs below schema & DataFrame

root
 |-- Name: string (nullable = true)
 |-- Age: long (nullable = true)

+------+---+
|  Name|Age|
+------+---+
| Scott| 50|
|  Jeff| 45|
|Thomas| 54|
|   Ann| 34|
+------+---+
Sore Stork

Spark DF à Pandas DF

some_df = sc.parallelize([
 ("A", "no"),
 ("B", "yes"),
 ("B", "yes"),
 ("B", "no")]
 ).toDF(["user_id", "phone_number"])
pandas_df = some_df.toPandas()
Muhammad Fayyaz

Réponses similaires à “Convertir Pandas DataFrame pour Spark DataFrame”

Questions similaires à “Convertir Pandas DataFrame pour Spark DataFrame”

Plus de réponses similaires à “Convertir Pandas DataFrame pour Spark DataFrame” dans Python

Parcourir les réponses de code populaires par langue

Parcourir d'autres langages de code