str[0:3] # 查找name列中包含字母'c'的行 df[df[''].str.contains('c')] 14. 数据透视表 在数据分析中,有时需要统计汇总数据,并按照某些列进行分组统计汇总,Pandas中提供了数据透视表功能来实现上述需求。例如: pivot_df = df.pivot_table(values='score', index='gender', columnssubject', aggfunc=...
name) # 输出名称 # 数据操作 idx_new = idx.append(pd.Index([4, 5])) print(idx_new) # 输出追加后的 Index # 索引操作 print(idx.get_loc(2)) # 输出标签 2 的位置 # MultiIndex 操作 arrays = [[1, 1, 2, 2], ['A', 'B', 'A', 'B']] multi_idx = pd.MultiIndex.from_...
'baz', 'baz', 'foo', 'foo', 'qux', 'qux'], dtype='object', name='first') In [24]: index.get_level_values("second") Out[24]: Index(['one', 'two', 'one', 'two', 'one', 'two', 'one', 'two'], dtype='object', name='second') ...
name 返回Series的名称 多个Series组成DataFrame,则每个name即为DataFrame的columns名称(列名) 索引 包括:基础索引、at索引、iloc索引、loc索引及函数get索引。(我们先注意index和axis的区别,axis=0/1表示严格的行和列,index和columns表示标签索引,Series的name相当于DataFrame的columns,Series的index等同于DataFrame的index)...
filename列的值会经常被复制重复。因此,所以通过使用Categorical可以极大的减少内存使用量。 让我们读取目标数据集,看看内存的差异: 代码语言:javascript 代码运行次数:0 运行 AI代码解释 triplets.info(memory_usage="deep")# Column Non-Null Count Dtype #---#0anchor525000non-nullcategory #1positive525000non...
file_path= r"D:\Users\桌面\写入结果后的底稿文件1.xlsx"df= pd.read_excel(file_path,keep_default_na=False,dtype=str,sheet_name="转分预估账单")print(df.columns)print(len(df.columns))print(df.columns.get_loc("数据时点")) index= df.columns.get_loc("AR/AP")print(index)...
s = pd.Series(data, index=index) 在这里,data可以是许多不同的东西: 一个Python 字典 一个ndarray 标量值(比如 5) 传递的索引是一个轴标签列表。因此,这根据data 是的情况分为几种情况: 来自ndarray 如果data是一个 ndarray,则索引必须与data的长度相同。如果没有传递索引,将创建一个具有值[0, ..., ...
df.melt(id_vars="姓名", var_name="科目", value_name="成绩") 输出: pivot()方法可以将长表转宽表,即树形数据转为表格型数据。 df.pivot(index='姓名',columns='科目',values='成绩') 输出: pivot()其实就是用set_index()创建层次化索引,再用unstack()重塑 ...
in Index.get_loc(self, key) 3804 try: -> 3805 return self._engine.get_loc(casted_key) 3806 except KeyError as err: File index.pyx:167, in pandas._libs.index.IndexEngine.get_loc() File index.pyx:196, in pandas._libs.index.IndexEngine.get_loc() File pandas/_libs/hashtable_class_...
pd.read_csv(filename, encoding='gbk')# 2.2 读取前6行,当数据量比较大时,可以只读取前n行 pd.read_csv(filename, encoding='gbk', nrows = 6)# 2.3 第一列作为行索引,忽略列索引 pd.read_csv(filename, encoding='gbk', header=None, index_col=0)# 2.4 读取时忽略第1/3/5行和最后两行...