我想打开一个文件,读取它,在文件的两列中删除重复项,然后进一步使用没有重复项的文件进行一些计算。为此,我使用了 pandas.drop_duplicates,它在删除重复项后也会删除索引值。例如,删除第 1 行后,file1 变...
# 方法一df.drop_duplicates(ignore_index=True)# 方法二df.drop_duplicates().reset_index(drop=True)# 方法三df.index =range(df.shape[0]) 参考链接:drop_duplicates去重详解 参考链接:Pandas之drop_duplicates:去除重复项 参考链接:pandas.DataFrame.drop_duplicates 参考链接:如何使用drop_duplicates进行简单去重...
2.1 利用drop_duplicates(),保留第一个 利用drop_duplicates(),该方法默认对所有值进行重复值判断,且默认保留第一个(行)值 2.2 某列/某几列进行重复值删除 上面的代码是针对所有字段进行的重复值判断,我们同样也可以只针对某一列或某几列进行重复值删除的判断,只需要drop_duplicates()方法中指明要判断的列名即可 ...
df.drop_duplicates('b', 'first', inplace=True) print(df) ''' a b 0 1 a 1 1 b ''' # 多列 df.drop_duplicates(subset=['a', 'b'], keep='first', inplace=False) # 删除所有重复项 不保留 df.drop_duplicates(subset=['a', 'b'], False) 1. 2. 3. 4. 5. 6. 7. 8. 9...
df=df.drop_duplicates(subset=['B'],keep=False) #重置索引,从0重新开始 df.reset_index(drop=True) 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 输出结果: A B C D 0 3 1 5 3 1 3 2 4 3 1. 2. 3. 4) 指定多列同时去重 ...
data_1 = data[['校园卡号','性别']].drop_duplicates().reset_index(drop=True) data_1['性别'] = data_1['性别'].astype(str).replace(({'男': 1, '女': 0})) data_1.set_index(['校园卡号'], inplace=True) data_2 = data.groupby('校园卡号').sum()[['消费金额']] ...
df.set_index(“date”, inplace=True) 如果要保留将要被设置为索引的列,可以设置drop=False。 df.set_index(“date”, drop=False) 3. 一些操作后重置索引 在处理 DataFrame 时,某些操作(例如删除行、索引选择等)将会生成原始索引的子集,这样默认的数字索引排序就乱了。如要重新生成连续索引,可以使用reset_ind...
data3.sort_values(by='A', ignore_index=True) 六、删除重复后重置索引 同排序后重设索引。 data3.drop_duplicates('team', ignore_index=True) 七、索引直接赋值 可通过index直接赋值已有dataframe。 better_index = ['x1','x2','y1','y2','y3'] ...
data[data.duplicated()==False]#打印重复值 5.删除重复记录(drop_duplicates()) drop_duplicates函数功能是:删除数据表中的重复值,判断标准和逻辑与duplicated函数一样 #inplace=True表示直接在源数据上进行操作data.drop_duplicates(inplace=True) 6.重置索引reset_index data.reset_index()...
drop_duplicates() 首先从chipo数据框中分别选取了 “Chicken Bowl” 和“Chicken Soft Tacos” 两种商品的订单号和商品名称,然后使用merge()方法将这两个数据框按订单号进行合并,最后使用drop_duplicates()方法去除重复的行。 7、找出购买商品数量最多的5个订单 代码语言:javascript 复制 chipo.groupby("order_id"...