91aaa在线国内观看,亚洲AV午夜福利精品一区二区,久久偷拍人视频,久久播这里有免费视播

<strong id="fvuar"></strong>

  • <sub id="fvuar"><dl id="fvuar"><em id="fvuar"></em></dl></sub>

    1. 千鋒教育-做有情懷、有良心、有品質(zhì)的職業(yè)教育機(jī)構(gòu)

      手機(jī)站
      千鋒教育

      千鋒學(xué)習(xí)站 | 隨時(shí)隨地免費(fèi)學(xué)

      千鋒教育

      掃一掃進(jìn)入千鋒手機(jī)站

      領(lǐng)取全套視頻
      千鋒教育

      關(guān)注千鋒學(xué)習(xí)站小程序
      隨時(shí)隨地免費(fèi)學(xué)習(xí)課程

      當(dāng)前位置:首頁(yè)  >  技術(shù)干貨  > 分享在數(shù)據(jù)分析過(guò)程中最常使用的Python函數(shù)和方法

      分享在數(shù)據(jù)分析過(guò)程中最常使用的Python函數(shù)和方法

      來(lái)源:千鋒教育
      發(fā)布人:xqq
      時(shí)間: 2023-11-07 00:11:07 1699287067

      我們知道Pandas是Python中最廣泛使用的數(shù)據(jù)分析和操作庫(kù)。它提供了許多功能和方法,可以快速解決數(shù)據(jù)分析中數(shù)據(jù)處理問(wèn)題。

      為了更好的掌握Python函數(shù)的使用方法,我以客戶流失數(shù)據(jù)集為例,分享在數(shù)據(jù)分析過(guò)程中最常使用的函數(shù)和方法。

      數(shù)據(jù)如下所示:

      importnumpyasnp

      importpandasaspd

      df=pd.read_csv("Churn_Modelling.csv")

      print(df.shape)

      df.columns

      結(jié)果輸出:

      (10000,14)

      Index(['RowNumber','CustomerId','Surname','CreditScore','Geography','Gender','Age','Tenure','Balance','NumOfProducts','HasCrCard','IsActiveMember','EstimatedSalary','Exited'],dtype='object')

      1.刪除列

      df.drop(['RowNumber','CustomerId','Surname','CreditScore'],axis=1,inplace=True)

      print(df[:2])

      print(df.shape)

      結(jié)果輸出:

      說(shuō)明:「axis」參數(shù)設(shè)置為1以放置列,0設(shè)置為行?!竔nplace=True」參數(shù)設(shè)置為True以保存更改。我們減了4列,因此列數(shù)從14個(gè)減少到10列。

      GeographyGenderAgeTenureBalanceNumOfProductsHasCrCard\

      0FranceFemale4220.011

      IsActiveMemberEstimatedSalaryExited

      01101348.881

      (10000,10)

      2.選擇特定列

      我們從csv文件中讀取部分列數(shù)據(jù)。可以使用usecols參數(shù)。

      df_spec=pd.read_csv("Churn_Modelling.csv",usecols=['Gender','Age','Tenure','Balance'])

      df_spec.head()

      3.nrows

      可以使用nrows參數(shù),創(chuàng)建了一個(gè)包含csv文件前5000行的數(shù)據(jù)幀。還可以使用skiprows參數(shù)從文件末尾選擇行。Skiprows=5000表示我們將在讀取csv文件時(shí)跳過(guò)前5000行。

      df_partial=pd.read_csv("Churn_Modelling.csv",nrows=5000)

      print(df_partial.shape)

      4.樣品

      創(chuàng)建數(shù)據(jù)框后,我們可能需要一個(gè)小樣本來(lái)測(cè)試數(shù)據(jù)。我們可以使用n或frac參數(shù)來(lái)確定樣本大小。

      df=pd.read_csv("Churn_Modelling.csv",usecols=['Gender','Age','Tenure','Balance'])

      df_sample=df.sample(n=1000)

      df_sample2=df.sample(frac=0.1)

      5.檢查缺失值

      isna函數(shù)確定數(shù)據(jù)幀中缺失的值。通過(guò)將isna與sum函數(shù)一起使用,我們可以看到每列中缺失值的數(shù)量。

      df.isna().sum()

      6.使用loc和iloc添加缺失值

      使用loc和iloc添加缺失值,兩者區(qū)別如下:

      ·loc:選擇帶標(biāo)簽

      ·iloc:選擇索引

      我們首先創(chuàng)建20個(gè)隨機(jī)索引進(jìn)行選擇:

      missing_index=np.random.randint(10000,size=20)

      我們將使用loc將某些值更改為np.nan(缺失值)。

      df.loc[missing_index,['Balance','Geography']]=np.nan

      "Balance"和"Geography"列中缺少20個(gè)值。讓我們用iloc做另一個(gè)示例。

      df.iloc[missing_index,-1]=np.nan

      7.填充缺失值

      fillna函數(shù)用于填充缺失的值。它提供了許多選項(xiàng)。我們可以使用特定值、聚合函數(shù)(例如均值)或上一個(gè)或下一個(gè)值。

      avg=df['Balance'].mean()

      df['Balance'].fillna(value=avg,inplace=True)

      fillna函數(shù)的方法參數(shù)可用于根據(jù)列中的上一個(gè)或下一個(gè)值(例如方法="ffill")填充缺失值。它可以對(duì)順序數(shù)據(jù)(例如時(shí)間序列)非常有用。

      8.刪除缺失值

      處理缺失值的另一個(gè)方法是刪除它們。以下代碼將刪除具有任何缺失值的行。

      df.dropna(axis=0,how='any',inplace=True)

      9.根據(jù)條件選擇行

      在某些情況下,我們需要適合某些條件的觀測(cè)值(即行)。

      france_churn=df[(df.Geography=='France')&(df.Exited==1)]

      france_churn.Geography.value_counts()

      10.用查詢描述條件

      查詢函數(shù)提供了一種更靈活的傳遞條件的方法。我們可以用字符串來(lái)描述它們。

      df2=df.query('80000

      df2=df.query('80000

      df2=df.query('80000

      11.用isin描述條件

      條件可能有多個(gè)值。在這種情況下,最好使用isin方法,而不是單獨(dú)編寫值。

      df[df['Tenure'].isin([4,6,9,10])][:3]

      12.Groupby函數(shù)

      PandasGroupby函數(shù)是一個(gè)多功能且易于使用的功能,可幫助獲取數(shù)據(jù)概述。它使瀏覽數(shù)據(jù)集和揭示變量之間的基本關(guān)系更加容易。

      我們將做幾個(gè)組比函數(shù)的示例。讓我們從簡(jiǎn)單的開始。以下代碼將基于Geography、Gender組合對(duì)行進(jìn)行分組,然后給出每個(gè)組的平均流。

      df[['Geography','Gender','Exited']].groupby(['Geography','Gender']).mean()

      13.Groupby與聚合函數(shù)結(jié)合

      agg函數(shù)允許在組上應(yīng)用多個(gè)聚合函數(shù),函數(shù)的列表作為參數(shù)傳遞。

      df[['Geography','Gender','Exited']].groupby(['Geography','Gender']).agg(['mean','count'])

      以上內(nèi)容為大家介紹了數(shù)據(jù)分析過(guò)程中最常使用的Python函數(shù)和方法,希望對(duì)大家有所幫助,如果想要了解更多Python相關(guān)知識(shí),請(qǐng)關(guān)注IT培訓(xùn)機(jī)構(gòu):千鋒教育。http://www.jsszjs.cn/

      聲明:本站稿件版權(quán)均屬千鋒教育所有,未經(jīng)許可不得擅自轉(zhuǎn)載。
      10年以上業(yè)內(nèi)強(qiáng)師集結(jié),手把手帶你蛻變精英
      請(qǐng)您保持通訊暢通,專屬學(xué)習(xí)老師24小時(shí)內(nèi)將與您1V1溝通
      免費(fèi)領(lǐng)取
      今日已有369人領(lǐng)取成功
      劉同學(xué) 138****2860 剛剛成功領(lǐng)取
      王同學(xué) 131****2015 剛剛成功領(lǐng)取
      張同學(xué) 133****4652 剛剛成功領(lǐng)取
      李同學(xué) 135****8607 剛剛成功領(lǐng)取
      楊同學(xué) 132****5667 剛剛成功領(lǐng)取
      岳同學(xué) 134****6652 剛剛成功領(lǐng)取
      梁同學(xué) 157****2950 剛剛成功領(lǐng)取
      劉同學(xué) 189****1015 剛剛成功領(lǐng)取
      張同學(xué) 155****4678 剛剛成功領(lǐng)取
      鄒同學(xué) 139****2907 剛剛成功領(lǐng)取
      董同學(xué) 138****2867 剛剛成功領(lǐng)取
      周同學(xué) 136****3602 剛剛成功領(lǐng)取
      相關(guān)推薦HOT
      如何殺死一個(gè)Python線程

      我經(jīng)常被問(wèn)到如何殺死一個(gè)后臺(tái)線程,這個(gè)問(wèn)題的答案讓很多人不開心:線程是殺不死的。在本文中,我將向您展示Python中用于終止線程的兩個(gè)選項(xiàng)。...詳情>>

      2023-11-07 02:56:44
      python的單元測(cè)試框架

      1、AutotestAutotest是Google、Redhat、IBM公司聯(lián)合開發(fā)的分布式自動(dòng)化測(cè)試框架,兼顧軟硬件測(cè)試?;赑ython,用于操作系統(tǒng)內(nèi)核冒煙測(cè)試、服務(wù)...詳情>>

      2023-11-07 02:17:07
      數(shù)據(jù)科學(xué)領(lǐng)域Python比R語(yǔ)言更好

      經(jīng)常有學(xué)員問(wèn)我們,在數(shù)據(jù)科學(xué)領(lǐng)域里,到底是該選Python呢,還是選R更好?誠(chéng)然,對(duì)于數(shù)據(jù)科學(xué)家來(lái)說(shuō),R和Python都很重要。但是對(duì)于一個(gè)新人數(shù)據(jù)...詳情>>

      2023-11-07 01:37:31
      Python中的'==' 和 'is'

      ==和is是Python對(duì)象比較中常用的兩種方式,==比較對(duì)象的值是否相等,is比較對(duì)象的身份標(biāo)識(shí)(ID)是否相等,是否是同一個(gè)對(duì)象,是否指向同一個(gè)內(nèi)存...詳情>>

      2023-11-06 23:38:43
      Python內(nèi)存分配

      一、前言大多數(shù)編譯型語(yǔ)言,變量在使用前必須先聲明,其中C語(yǔ)言更加苛刻:變量聲明必須位于代碼塊最開始,且在任何其他語(yǔ)句之前。其他語(yǔ)言,想C...詳情>>

      2023-11-06 22:33:55