主頁 > 知識(shí)庫 > python Polars庫的使用簡介

python Polars庫的使用簡介

熱門標(biāo)簽:企業(yè)做大做強(qiáng) 語音系統(tǒng) 電話運(yùn)營中心 硅谷的囚徒呼叫中心 Win7旗艦版 百度AI接口 客戶服務(wù) 呼叫中心市場(chǎng)需求

大家好,我是小F~

很多人在學(xué)習(xí)數(shù)據(jù)分析的時(shí)候,肯定都會(huì)用到Pandas這個(gè)庫,非常的實(shí)用!

從創(chuàng)建數(shù)據(jù)到讀取各種格式的文件(text、csv、json),或者對(duì)數(shù)據(jù)進(jìn)行切片和分割組合多個(gè)數(shù)據(jù)源,Pandas都能夠很好的滿足。

Pandas最初發(fā)布于2008年,使用Python、Cython和C編寫的。是一個(gè)超級(jí)強(qiáng)大、快速和易于使用的Python庫,用于數(shù)據(jù)分析和處理。

當(dāng)然Pandas也是有不足之處的,比如不具備多處理器,處理較大的數(shù)據(jù)集速度很慢。

今天,小F就給大家介紹一個(gè)新興的Python庫——Polars。

使用語法和Pandas差不多,處理數(shù)據(jù)的速度卻比Pandas快了不少。

一個(gè)是大熊貓,一個(gè)是北極熊~

GitHub地址:https://github.com/ritchie46/polars

使用文檔:https://ritchie46.github.io/polars-book/

Polars是通過Rust編寫的一個(gè)庫,Polars的內(nèi)存模型是基于Apache Arrow。

Polars存在兩種API,一種是Eager API,另一種則是Lazy API。

其中Eager API和Pandas的使用類似,語法差不太多,立即執(zhí)行就能產(chǎn)生結(jié)果。

而Lazy API就像Spark,首先將查詢轉(zhuǎn)換為邏輯計(jì)劃,然后對(duì)計(jì)劃進(jìn)行重組優(yōu)化,以減少執(zhí)行時(shí)間和內(nèi)存使用。

安裝Polars,使用百度pip源。

# 安裝polars
pip install polars -i https://mirror.baidu.com/pypi/simple/

安裝成功后,開始測(cè)試,比較Pandas和Polars處理數(shù)據(jù)的情況。

使用某網(wǎng)站注冊(cè)用戶的用戶名數(shù)據(jù)進(jìn)行分析,包含約2600萬個(gè)用戶名的CSV文件。

文件已上傳公眾號(hào),獲取方式見文末。

import pandas as pd

df = pd.read_csv('users.csv')
print(df)

數(shù)據(jù)情況如下。

此外還使用了一個(gè)自己創(chuàng)建的CSV文件,用以數(shù)據(jù)整合測(cè)試。

import pandas as pd

df = pd.read_csv('fake_user.csv')
print(df)

得到結(jié)果如下。

首先比較一下兩個(gè)庫的排序算法耗時(shí)。

import timeit
import pandas as pd

start = timeit.default_timer()

df = pd.read_csv('users.csv')
df.sort_values('n', ascending=False)
stop = timeit.default_timer()

print('Time: ', stop - start)

-------------------------
Time:  27.555776743218303

可以看到使用Pandas對(duì)數(shù)據(jù)進(jìn)行排序,花費(fèi)了大約28s。

import timeit
import polars as pl

start = timeit.default_timer()

df = pl.read_csv('users.csv')
df.sort(by_column='n', reverse=True)
stop = timeit.default_timer()

print('Time: ', stop - start)

-----------------------
Time:  9.924110282212496

Polars只花費(fèi)了約10s,這意味著Polars比Pandas快了2.7倍。

下面,我們來試試數(shù)據(jù)整合的效果,縱向連接。

import timeit
import pandas as pd

start = timeit.default_timer()

df_users = pd.read_csv('users.csv')
df_fake = pd.read_csv('fake_user.csv')
df_users.append(df_fake, ignore_index=True)
stop = timeit.default_timer()

print('Time: ', stop - start)

------------------------
Time:  15.556222308427095

使用Pandas耗時(shí)15s。

import timeit
import polars as pl

start = timeit.default_timer()

df_users = pl.read_csv('users.csv')
df_fake = pl.read_csv('fake_user.csv')
df_users.vstack(df_fake)
stop = timeit.default_timer()

print('Time: ', stop - start)

-----------------------
Time:  3.475433263927698

Polars居然最使用了約3.5s,這里Polars比Pandas快了4.5倍。

通過上面的比較,Polars在處理速度上表現(xiàn)得相當(dāng)不錯(cuò)。

可以是大家在未來處理數(shù)據(jù)時(shí),另一種選擇~

當(dāng)然,Pandas目前歷時(shí)12年,已經(jīng)形成了很成熟的生態(tài),支持很多其它的數(shù)據(jù)分析庫。

Polars則是一個(gè)較新的庫,不足的地方還有很多。

如果你的數(shù)據(jù)集對(duì)于Pandas來說太大,對(duì)于Spark來說太小,那么Polars便是你可以考慮的一個(gè)選擇。

文件地址:

鏈接:https://pan.baidu.com/s/14fFNOPomQe38RLbAUq5W7w  密碼:nfqv

以上就是python Polars庫的使用簡介的詳細(xì)內(nèi)容,更多關(guān)于python Polars庫的使用的資料請(qǐng)關(guān)注腳本之家其它相關(guān)文章!

您可能感興趣的文章:
  • python基于Pandas讀寫MySQL數(shù)據(jù)庫
  • python中pandas.read_csv()函數(shù)的深入講解
  • python pandas合并Sheet,處理列亂序和出現(xiàn)Unnamed列的解決
  • python 使用pandas同時(shí)對(duì)多列進(jìn)行賦值
  • python之 matplotlib和pandas繪圖教程
  • Python3 pandas.concat的用法說明
  • python pandas模糊匹配 讀取Excel后 獲取指定指標(biāo)的操作
  • 聊聊Python pandas 中l(wèi)oc函數(shù)的使用,及跟iloc的區(qū)別說明
  • python 利用panda 實(shí)現(xiàn)列聯(lián)表(交叉表)

標(biāo)簽:山西 安康 海南 喀什 山西 長沙 崇左 濟(jì)南

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《python Polars庫的使用簡介》,本文關(guān)鍵詞  ;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 收縮
    • 微信客服
    • 微信二維碼
    • 電話咨詢

    • 400-1100-266