spark中dataframe解析_Spark-SQL
生活随笔
收集整理的這篇文章主要介紹了
spark中dataframe解析_Spark-SQL
小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
fe
缺點(diǎn)
- 不方便添加新的優(yōu)化策略
- 線程安全問(wèn)題
Spark SQL支持三種語(yǔ)言
- java
- Scala
- python
DataFrame
- 大規(guī)模數(shù)據(jù)化結(jié)構(gòu)能歷、提高了運(yùn)算能力
- 從sql到dataFrame的轉(zhuǎn)化,支持sql查詢
- RDD是分布式的java對(duì)象的集合,對(duì)象顳部結(jié)構(gòu)不可知
- dataframe以rdd為基礎(chǔ)的分布式數(shù)據(jù)集,提供了詳細(xì)的結(jié)構(gòu)信息
DataFrame的創(chuàng)建
SparkSession
dataframe的常用操作
df = spark.read.json("people.json") df.printSchema() 查看表的結(jié)構(gòu) df select(df['name'],df['age']+1).show()df.filter(df['age']>20).show() df.groupby("age").count().show()df.sort(df['age'] desc()).show() df.sort(df['age'].desc(),df['name'].asc()).show()利用反射機(jī)制推斷RDD的模式
讀取Mysql數(shù)據(jù)庫(kù)中的數(shù)據(jù)
DataFrame的創(chuàng)建
from pyspark import SparkContext,SparkConf from pyspark.sql import SparkSession spark = SparkSession.builder.config(conf = SparkConf()).getOrCreate()# 分布式讀取文件 spark.read.text("people.txt") spark.read.format("text").load("people.txt") spark.read.json("people.json") spark.read.format("json").load("people.json") spark.read.parquet("people/parquet") spark.read.format("parquet").load("people.parquent")#文件保存 最后保到一個(gè)目錄 df.write.txt("people.txt") df.write.json("people.json") df.write.parquent("people.parquent")# dataFrame的一些常用操作df.printSchema() dat.select('_c1').show() df.filter(df['age']>20).show() df.groupby("age").count().show() df.sort(df["age"].desc()).show() df.sort(df["age"].desc(),df['name'].asc()).show()RDD轉(zhuǎn)換得到dataFrame
利用反射機(jī)制推斷RDD模式
#用ROW對(duì)象去封裝一行一行的數(shù)據(jù) from pyspark.sql import ROW people = spark.sparkContext.textFile("file:///file_path").map(lambda x:x.split(",")).map(lambda x:ROW(NAME= P[0],age = int(p[1])))schemaPeople = spark.createDataFrame(people) #必須注冊(cè)為臨時(shí)表才供下面的查詢使用 schemaPeople.createOrReplaceTempView("people") personDF = spark.sql("select name,age from people where age>20") personsDRR = personsDF.rdd.map(lambda p:"Nmae"+p.name+","+age:"+str()p.age)) personsRDD.foreach(print)總結(jié)
以上是生活随笔為你收集整理的spark中dataframe解析_Spark-SQL的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: php gmssl,centos7 ph
- 下一篇: SQLyog 安装和配置教程