日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Pandas常用技巧总结

發布時間:2025/3/21 编程问答 15 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Pandas常用技巧总结 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

歸納整理了一些工作中常用到的pandas使用技巧,方便更高效地實現數據分析。

1.計算變量缺失率

df=pd.read_csv('titanic_train.csv') def missing_cal(df):"""df :數據集return:每個變量的缺失率"""missing_series = df.isnull().sum()/df.shape[0]missing_df = pd.DataFrame(missing_series).reset_index()missing_df = missing_df.rename(columns={'index':'col',0:'missing_pct'})missing_df = missing_df.sort_values('missing_pct',ascending=False).reset_index(drop=True)return missing_df missing_cal(df)

如果需要計算樣本的缺失率分布,只要加上參數axis=1.

2.獲取分組里最大值所在的行方法

分為分組中有重復值和無重復值兩種。

  • 無重復值的情況。
  • df = pd.DataFrame({'Sp':['a','b','c','d','e','f'], 'Mt':['s1', 's1', 's2','s2','s2','s3'], 'Value':[1,2,3,4,5,6], 'Count':[3,2,5,10,10,6]}) df

    df.iloc[df.groupby(['Mt']).apply(lambda x: x['Count'].idxmax())]

    先按Mt列進行分組,然后對分組之后的數據框使用idxmax函數取出Count最大值所在的列,再用iloc位置索引將行取出。

  • 有重復值的情況
  • df["rank"] = df.groupby("ID")["score"].rank(method="min", ascending=False).astype(np.int64) df[df["rank"] == 1][["ID", "class"]]

    對ID進行分組之后再對分數應用rank函數,分數相同的情況會賦予相同的排名,然后取出排名為1的數據。

    3.多列合并為一行

    df = pd.DataFrame({'id_part':['a','b','c','d'], 'pred':[0.1,0.2,0.3,0.4], 'pred_class':['women','man','cat','dog'], 'v_id':['d1','d2','d3','d1']})

    df.groupby(['v_id']).agg({'pred_class': [', '.join],'pred': lambda x: list(x), 'id_part': 'first'}).reset_index()

    4.刪除包含特定字符串所在的行

    df = pd.DataFrame({'a':[1,2,3,4], 'b':['s1', 'exp_s2', 's3','exps4'], 'c':[5,6,7,8], 'd':[3,2,5,10]}) df[df['b'].str.contains('exp')]

    5.組內排序

    df = pd.DataFrame([['A',1],['A',3],['A',2],['B',5],['B',9]], columns = ['name','score']) df

    介紹兩種高效地組內排序的方法。

    df.sort_values(['name','score'], ascending = [True,False]) df.groupby('name').apply(lambda x: x.sort_values('score', ascending=False)).reset_index(drop=True)

    6.選擇特定類型的列

    drinks = pd.read_csv('data/drinks.csv') # 選擇所有數值型的列 drinks.select_dtypes(include=['number']).head() # 選擇所有字符型的列 drinks.select_dtypes(include=['object']).head() drinks.select_dtypes(include=['number','object','category','datetime']).head() # 用 exclude 關鍵字排除指定的數據類型 drinks.select_dtypes(exclude=['number']).head()

    7.字符串轉換為數值

    df = pd.DataFrame({'列1':['1.1','2.2','3.3'],'列2':['4.4','5.5','6.6'],'列3':['7.7','8.8','-']}) df df.astype({'列1':'float','列2':'float'}).dtypes

    用這種方式轉換第三列會出錯,因為這列里包含一個代表 0 的下劃線,pandas 無法自動判斷這個下劃線。
    為了解決這個問題,可以使用 to_numeric() 函數來處理第三列,讓 pandas 把任意無效輸入轉為 NaN。

    df = df.apply(pd.to_numeric, errors='coerce').fillna(0) df

    8.優化 DataFrame 對內存的占用

    方法一:只讀取切實所需的列,使用usecols參數

    cols = ['beer_servings','continent'] small_drinks = pd.read_csv('data/drinks.csv', usecols=cols)

    方法二:把包含類別型數據的 object 列轉換為 Category 數據類型,通過指定 dtype 參數實現。

    dtypes ={'continent':'category'} smaller_drinks = pd.read_csv('data/drinks.csv',usecols=cols, dtype=dtypes)

    9.根據最大的類別篩選 DataFrame

    movies = pd.read_csv('data/imdb_1000.csv') counts = movies.genre.value_counts() movies[movies.genre.isin(counts.nlargest(3).index)].head()

    10.把字符串分割為多列

    df = pd.DataFrame({'姓名':['張 三','李 四','王 五'],'所在地':['北京-東城區','上海-黃浦區','廣州-白云區']}) df df.姓名.str.split(' ', expand=True)

    11.把 Series 里的列表轉換為 DataFrame

    df = pd.DataFrame({'列1':['a','b','c'],'列2':[[10,20], [20,30], [30,40]]}) df

    df_new = df.2.apply(pd.Series) pd.concat([df,df_new], axis='columns')

    12.用多個函數聚合

    orders = pd.read_csv('data/chipotle.tsv', sep='\t') orders.groupby('order_id').item_price.agg(['sum','count']).head()

    13.分組聚合

    import pandas as pd df = pd.DataFrame({'key1':['a', 'a', 'b', 'b', 'a'],'key2':['one', 'two', 'one', 'two', 'one'],'data1':np.random.randn(5),'data2':np.random.randn(5)}) df

    for name, group in df.groupby('key1'):print(name)print(group)

    dict(list(df.groupby('key1')))

    通過字典或Series進行分組

    people = pd.DataFrame(np.random.randn(5, 5),columns=['a', 'b', 'c', 'd', 'e'],index=['Joe', 'Steve', 'Wes', 'Jim', 'Travis']) mapping = {'a':'red', 'b':'red', 'c':'blue','d':'blue', 'e':'red', 'f':'orange'} by_column = people.groupby(mapping, axis=1) by_column.sum()

    【作者】:Labryant
    【原創公眾號】:風控獵人
    【簡介】:某創業公司策略分析師,積極上進,努力提升。乾坤未定,你我都是黑馬。
    【轉載說明】:轉載請說明出處,謝謝合作!~

    《新程序員》:云原生和全面數字化實踐50位技術專家共同創作,文字、視頻、音頻交互閱讀

    總結

    以上是生活随笔為你收集整理的Pandas常用技巧总结的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。