亚洲免费在线-亚洲免费在线播放-亚洲免费在线观看-亚洲免费在线观看视频-亚洲免费在线看-亚洲免费在线视频

Spark學習實例(Python):RDD、DataFrame、DataSet

系統 1539 0

在學習轉換之前先了解以下它們的基本概念

  • RDD:彈性分布式數據集,是一個只讀分區集合
  • DataFrame:以命名列方式組織的分布式數據集,概念上和關系型數據庫的一張表一樣
  • DataSet:分布式數據集合, Python暫時不支持

了解了基本的概念之后,接下來我們通過代碼編寫三種數據集的形成

RDD的形成

            
              from pyspark.sql import SparkSession

if __name__ == '__main__':
    spark = SparkSession \
        .builder \
        .appName("rddData") \
        .master("local[*]") \
        .getOrCreate()
    # 方式一:
    data = [1, 2, 3, 4, 5]
    rdd1 = spark.sparkContext.parallelize(data)
    print(rdd1.collect())
    # [1, 2, 3, 4, 5]
    # 方式二:
    rdd2 = spark.sparkContext.textFile("/home/llh/data/people.txt")
    print(rdd2.collect())
    # ['Jack 27', 'Rose 24', 'Andy 32']
    spark.stop()
            
          

DataFrame的形成

            
              from pyspark.sql import SparkSession

if __name__ == '__main__':
    spark = SparkSession \
        .builder \
        .appName("rddDataFrame") \
        .master("local[*]") \
        .getOrCreate()
    df = spark.read.text("/home/llh/data/people.txt")
    df.show()
    # +---+----+
    # |age|name|
    # +---+----+
    # | 27|Jack|
    # | 24|Rose|
    # | 32|Andy|
    # +---+----+
    spark.stop()
            
          

RDD轉成DataFrame

            
              from pyspark.sql import SparkSession
from pyspark.sql import Row

if __name__ == '__main__':
    spark = SparkSession \
        .builder \
        .appName("rddRDD") \
        .master("local[*]") \
        .getOrCreate()
    data = [1, 2, 3]
    rdd1 = spark.sparkContext.parallelize(data)
    print(rdd1.collect())
    # [1, 2, 3]
    # rdd ->  dataframe
    rdd2 = rdd1.map(lambda x: Row(x))
    df = spark.createDataFrame(rdd2, schema=['num'])
    df.show()
    # +---+
    # |num|
    # +---+
    # | 1 |
    # | 2 |
    # | 3 |
    # +---+
    spark.stop()
            
          

DataFrame轉成RDD

            
              from pyspark.sql import SparkSession

if __name__ == '__main__':
    spark = SparkSession \
        .builder \
        .appName("rddDataFrame") \
        .master("local[*]") \
        .getOrCreate()
    df = spark.read.text("/home/llh/data/people.txt")
    rdd = df.rdd
    print(rdd.collect())
    # [Row(value='Jack 27'), Row(value='Rose 24'), Row(value='Andy 32')]
    spark.stop()
            
          

以上就是RDD與DataFrame形成與相互轉換

?

Spark學習目錄:

  • Spark學習實例1(Python):單詞統計 Word Count
  • Spark學習實例2(Python):加載數據源Load Data Source
  • Spark學習實例3(Python):保存數據Save Data
  • Spark學習實例4(Python):RDD轉換 Transformations
  • Spark學習實例5(Python):RDD執行 Actions
  • Spark學習實例6(Python):共享變量Shared Variables
  • Spark學習實例7(Python):RDD、DataFrame、DataSet相互轉換
  • Spark學習實例8(Python):輸入源實時處理 Input Sources Streaming
  • Spark學習實例9(Python):窗口操作 Window Operations

?

?


更多文章、技術交流、商務合作、聯系博主

微信掃碼或搜索:z360901061

微信掃一掃加我為好友

QQ號聯系: 360901061

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。

【本文對您有幫助就好】

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描上面二維碼支持博主2元、5元、10元、自定義金額等您想捐的金額吧,站長會非常 感謝您的哦!!!

發表我的評論
最新評論 總共0條評論
主站蜘蛛池模板: 日日夜夜嗷嗷叫 | 一本久道综合久久精品 | 亚洲精品福利一区二区 | 日韩欧美色综合 | 亚洲成在人网站天堂一区二区 | 亚洲一区二区三区中文字幕 | 国产成人综合亚洲动漫在线 | 国产精品欧美亚洲韩国日本99 | 在线成人免费观看国产精品 | 五月婷婷在线播放 | 四虎网址换成什么了2021 | 国产一级免费在线观看 | 99在线观看免费视频 | 国产成人综合网在线观看 | 国产高清ujzzujzz | 狠狠亚洲丁香综合久久 | 日本在线一区二区三区 | 一区二区三区www | 91精品国产综合久久久久久 | 日本免费小视频 | 看全色黄大色黄大片 视 | 老司机福利深夜亚洲入口 | 夜夜夜夜夜夜夜工噜噜噜 | 啪啪短视频 | 日韩一级大毛片欧美一级 | 婷婷国产偷v国产偷v亚洲 | 亚洲精品成人456在线播放 | 亚洲二区视频 | 久久免费在线视频 | 日韩欧美中文字幕在线视频 | 爱视频福利网 | 奇米影视亚洲狠狠色777不卡 | 四虎视频网站 | 欧美黄视频在线观看 | 免费视频爱爱太爽了 | 国内成人免费视频 | 精品黑人一区二区三区 | 国产99视频精品免视看9 | 午夜91视频| 豆国产97在线 | 亚洲 | 日韩美女一级毛片 |