apply、applymap用法 shift()用法 value_counts()和mean():统计每个元素的出现次数和行(列)的平均值 缺失值和空值处理 概念 空值:空值就是没有任何值,"" 缺失值:df中缺失值为nan或者naT(缺失时间),在S型数据中为none或者nan 相关函数 df.dropna()删除缺失值 df.fillna()填充缺失值 df.isnull() df.isna...
tt2 = ss1[ss1.notnull()] # 判断序列的非空值,效果同上 print(tt2) tt3 = ss1.dropna() # 清洗空值 print(tt3) # 序列切片 import pandas as pd import numpy as np s1 = pd.Series([1, -2, 2.3, 'hq']) s2 = pd.Series([1, -2, 2.3, 'hq'], index = ['a', 'b', 'c', '...
apply,既适用于series对象也适用于dataframe对象,但对二者处理的粒度是不一样的:apply应用于series时是逐元素执行函数操作;apply应用于dataframe时是逐行或者逐列执行函数操作(通过axis参数设置对行还是对列,默认是行),仅接收函数作为参数 applymap,仅适用于dataframe对象,且是对dataframe中的每个元素执行函数操作,从这个...
apply(pd.Series.first_valid_index) # Pandas 自己的函数 ser.apply('count') # Pandas 自己的函数 # 多个函数 ser.apply([sum, 'count']) # 相当于 .aggregate, 即.agg ser.apply({'Q1':sum, 'Q2':'count'}) # 同上 此外,apply 还可以传入多个函数,对数据进行聚合,实现 agg 的效果: df = pd...
这个时候applymap()函数就派上用场了,我们可以定义一个去除数值中末尾“.0”的函数,然后借用applymap()将这个自定义函数应用在工业数据的每一个单元格中,就可以快速达到目的,实现代码如下。 import re # 导入正则表达式 def Clean_Number(value): # 先判断是否是空值,如果是空值,则返回空值。不做处理 if pd....
Series有很多属性,如value、size、shape、T等。 可以通过Series_name.Attributes来访问属性。如: s.values (3)访问Series方法 用法类似访问属性的操作。 2.2 DataFrame DataFrame是一个二维的数据结构。 函数原型是:DataFrame([data, index, columns, dtype, copy]) ...
melt:将宽表转换为长表。 注意:重要参数id_vars(对于标识符)和value_vars(其值对值列有贡献的列的列表)。 pivot:将长表转换为宽表。注意:重要参数index(唯一标识符),columns(列成为值列),和values(具有值的列)。 💡 9.合并数据集 我们对多个数据集Dataframe合并的时候,可能用到下列的函数(包括表关联和拼接...
df["value10倍"] = df["value"].apply(lambdax: x*10) df 3.2 map 针对DataFrame某一列数据的map。 比如下面的示例增加一列,其值是设置指标中文的缩写。 df["指标缩写"] = df["指标中文"].map({"年末总人口":"总人口","乡村人口":"乡村"}) ...
df.groupby('name').apply(lambda x: x.sort_values('score', ascending=False)).reset_index(drop=True)6.选择特定类型的列 drinks = pd.read_csv('data/drinks.csv')# 选择所有数值型的列 drinks.select_dtypes(include=['number']).head()# 选择所有字符型的列 drinks.select_dtypes(include=['object...
apply 使用案例 接下来使用titanic数据集来介绍apply的用法 #加载数据,使用info查看该数据集的基本特征titanic = pd.read_csv('data/titanic.csv')titanic.info() 显示结果: <class'pandas.core.frame.DataFrame'>RangeIndex: 891 entries, 0 to 890Data columns (total 15 columns)...