脚本之家,脚本语言编程技术及教程分享平台!
分类导航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服务器之家 - 脚本之家 - Python - pyspark 读取csv文件创建DataFrame的两种方法

pyspark 读取csv文件创建DataFrame的两种方法

2021-03-01 00:29Stephen__Chou Python

今天小编就为大家分享一篇pyspark 读取csv文件创建DataFrame的两种方法,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧

方法一:用pandas辅助

?
1
2
3
4
5
6
7
from pyspark import SparkContext
from pyspark.sql import SQLContext
import pandas as pd
sc = SparkContext()
sqlContext=SQLContext(sc)
df=pd.read_csv(r'game-clicks.csv')
sdf=sqlc.createDataFrame(df)

方法二:纯spark

?
1
2
3
4
5
from pyspark import SparkContext
from pyspark.sql import SQLContext
sc = SparkContext()
sqlContext = SQLContext(sc)
sqlContext.read.format('com.databricks.spark.csv').options(header='true', inferschema='true').load('game-clicks.csv')

以上这篇pyspark 读取csv文件创建DataFrame的两种方法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持服务器之家。

原文链接:https://blog.csdn.net/zhouweiyu/article/details/79043591

延伸 · 阅读

精彩推荐