1. <ul id="0c1fb"></ul>

      <noscript id="0c1fb"><video id="0c1fb"></video></noscript>
      <noscript id="0c1fb"><listing id="0c1fb"><thead id="0c1fb"></thead></listing></noscript>

      99热在线精品一区二区三区_国产伦精品一区二区三区女破破_亚洲一区二区三区无码_精品国产欧美日韩另类一区

      RELATEED CONSULTING
      相關(guān)咨詢
      選擇下列產(chǎn)品馬上在線溝通
      服務(wù)時(shí)間:8:30-17:00
      你可能遇到了下面的問(wèn)題
      關(guān)閉右側(cè)工具欄

      新聞中心

      這里有您想知道的互聯(lián)網(wǎng)營(yíng)銷(xiāo)解決方案
      Pyspark如何讀取parquet數(shù)據(jù)

      這期內(nèi)容當(dāng)中小編將會(huì)給大家?guī)?lái)有關(guān)Pyspark如何讀取parquet數(shù)據(jù),文章內(nèi)容豐富且以專(zhuān)業(yè)的角度為大家分析和敘述,閱讀完這篇文章希望大家可以有所收獲。

      創(chuàng)新互聯(lián)是一家集網(wǎng)站建設(shè),房縣企業(yè)網(wǎng)站建設(shè),房縣品牌網(wǎng)站建設(shè),網(wǎng)站定制,房縣網(wǎng)站建設(shè)報(bào)價(jià),網(wǎng)絡(luò)營(yíng)銷(xiāo),網(wǎng)絡(luò)優(yōu)化,房縣網(wǎng)站推廣為一體的創(chuàng)新建站企業(yè),幫助傳統(tǒng)企業(yè)提升企業(yè)形象加強(qiáng)企業(yè)競(jìng)爭(zhēng)力。可充分滿足這一群體相比中小企業(yè)更為豐富、高端、多元的互聯(lián)網(wǎng)需求。同時(shí)我們時(shí)刻保持專(zhuān)業(yè)、時(shí)尚、前沿,時(shí)刻以成就客戶成長(zhǎng)自我,堅(jiān)持不斷學(xué)習(xí)、思考、沉淀、凈化自己,讓我們?yōu)楦嗟钠髽I(yè)打造出實(shí)用型網(wǎng)站。

      可以跳過(guò)不符合條件的數(shù)據(jù),只讀取需要的數(shù)據(jù),降低IO數(shù)據(jù)量;壓縮編碼可以降低磁盤(pán)存儲(chǔ)空間,使用更高效的壓縮編碼節(jié)約存儲(chǔ)空間;只讀取需要的列,支持向量運(yùn)算,能夠獲取更好的掃描性能。parquet數(shù)據(jù):列式存儲(chǔ)結(jié)構(gòu),由Twitter和Cloudera合作開(kāi)發(fā),相比于行式存儲(chǔ),其特點(diǎn)是:

      那么我們?cè)趺丛趐yspark中讀取和使用parquet數(shù)據(jù)呢?我以local模式, linux下的pycharm執(zhí)行作說(shuō)明。

      首先,導(dǎo)入庫(kù)文件和配置環(huán)境:

      import os
      from pyspark import SparkContext, SparkConf
      from pyspark.sql.session import SparkSession
       
      os.environ["PYSPARK_PYTHON"]="/usr/bin/python3" #多個(gè)python版本時(shí)需要指定
       
      conf = SparkConf().setAppName('test_parquet')
      sc = SparkContext('local', 'test', conf=conf)
      spark = SparkSession(sc)

      然后,使用spark進(jìn)行讀取,得到DataFrame格式的數(shù)據(jù):host:port 屬于主機(jī)和端口號(hào)

      parquetFile = r"hdfs://host:port/Felix_test/test_data.parquet"
      df = spark.read.parquet(parquetFile)

      而,DataFrame格式數(shù)據(jù)有一些方法可以使用,例如:

      1.df.first() :顯示第一條數(shù)據(jù),Row格式

      print(df.first())

      Pyspark如何讀取parquet數(shù)據(jù)

      2.df.columns:列名

      3.df.count():數(shù)據(jù)量,數(shù)據(jù)條數(shù)

      4.df.toPandas():從spark的DataFrame格式數(shù)據(jù)轉(zhuǎn)到Pandas數(shù)據(jù)結(jié)構(gòu)

      5.df.show():直接顯示表數(shù)據(jù);其中df.show(n) 表示只顯示前n行信息

      6.type(df):顯數(shù)據(jù)示格式

      Pyspark如何讀取parquet數(shù)據(jù)

      上述就是小編為大家分享的Pyspark如何讀取parquet數(shù)據(jù)了,如果剛好有類(lèi)似的疑惑,不妨參照上述分析進(jìn)行理解。如果想知道更多相關(guān)知識(shí),歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道。


      文章題目:Pyspark如何讀取parquet數(shù)據(jù)
      URL分享:http://www.ef60e0e.cn/article/gipojj.html
      99热在线精品一区二区三区_国产伦精品一区二区三区女破破_亚洲一区二区三区无码_精品国产欧美日韩另类一区
      1. <ul id="0c1fb"></ul>

        <noscript id="0c1fb"><video id="0c1fb"></video></noscript>
        <noscript id="0c1fb"><listing id="0c1fb"><thead id="0c1fb"></thead></listing></noscript>

        福鼎市| 南华县| 龙州县| 阿拉善盟| 乐亭县| 海兴县| 涟水县| 宜兴市| 城固县| 广灵县| 澄江县| 蒙阴县| 宝鸡市| 临江市| 郑州市| 上饶市| 革吉县| 萨迦县| 屏南县| 武威市| 大洼县| 无棣县| 惠东县| 澳门| 偏关县| 宾阳县| 楚雄市| 龙里县| 阿克陶县| 翁牛特旗| 屏东市| 丹寨县| 吴川市| 乃东县| 崇左市| 赤壁市| 广河县| 沙坪坝区| 登封市| 乌鲁木齐市| 阳春市|