1.检查缺失数据 检查数据中是否存在缺失值。可以使用isnull()或isna()方法来检查数据中的缺失值,使用...
-> 1690 raise RuntimeError( 1691 "Cannot set name on a level of a MultiIndex. Use " 1692 "'MultiIndex.set_names' instead." 1693 ) 1694 maybe_extract_name(value, None, type(self)) 1695 self._name = value RuntimeError: Cannot set name on a level of a MultiIndex. Use 'MultiIndex.s...
# 运行以下代码# transform Yr_Mo_Dy it to date type datetime64data["Yr_Mo_Dy"] = pd.to_datetime(data["Yr_Mo_Dy"])# set 'Yr_Mo_Dy' as the indexdata = data.set_index('Yr_Mo_Dy')data.head()# data.info()步骤6 对应每一个location,一共有多少数据值缺失在这一步,我们检查每个地...
series和dataframe分别是一维和二维数组,因为是数组,所以numpy中关于数组的用法基本可以直接应用到这两个数据结构,包括数据创建、切片访问、通函数、广播机制等 series是带标签的一维数组,所以还可以看做是类字典结构:标签是key,取值是value;而dataframe则可以看做是嵌套字典结构,其中列名是key,每一列的series是value。所...
series.unique()->Array:返回Series对象中的唯一值数组,类似于sql中 distinct 列名,这样就不需要set(series.values.tolist())操作了。 `df["column_name"].value_counts()->Series:返回Series对象中每个取值的数量,类似于sql中group by(Series.unique())后再count() ...
cookie_jar = requests.cookies.RequestsCookieJar() with open("./course_datas/c32_read_html/cookie.txt") as fin: cookiejson = json.loads(fin.read()) for cookie in cookiejson: cookie_jar.set( name=cookie["name"], value=cookie["value"], domain=cookie["domain"], path=cookie["path"] ...
如果一些单元格属性和单元格值无关,我们可以通过df.style.set_properties()来进行定制化操作,比如:背景色-黑色,字体颜色-草绿色,边框颜色-白色。(css样式)选中放大鼠标选择单元格会有放大效果效果演示导出Excel 就直接to_excel就行了,dfs = df.style.xxx,然后dfs.to_excel()导出...
Pandas的isnull和notnull函数可用于检测缺失数据: importpandasaspd sdata = {'Ohio':35000,'Texas':71000,'Oregon':16000,'Utah':5000} states = ['California','Oregon','Texas','Ohio'] obj4 = pd.Series(sdata, index=states)print(pd.isnull(obj4))print(pd.notnull(obj4)) ...
利用数据框df的name列中的非空值,去填充df的features_1列中对应的NaN。 很容易写出df[df['features_1'].isnull()]['features_1'']=df[df['features_1'].isnull()][‘name’] ,但是会给出以下警告: A value is trying to be set on a copy of a slice from a DataFrame. ...
利用set唯一性去重 # 利用set方法去重 print('去重之前的所有菜品总数为:',len(dishes)) dish_set=set(dishes) print('去重之后的所有菜品总数为:',len(dish_set)) 去重之前的所有菜品总数为:10037 去重之后的所有菜品总数为:145 1. 2. 3. 4.