pandas高频痛点包括:loc+apply比原生方法慢因Python循环vs底层向量化;read_csv数值列变object因隐藏字符,需dtype=str后清洗;groupby.agg列名嵌套需命名聚合展平;inplace=True在链式调用中失效且已弃用。这个标题本身不是技术问题,而是课程宣传用语。真正需要解决的,是具体使用
pandas 时遇到的卡点——比如为什么 df.groupby().apply() 慢得离谱、为什么 inplace=True 有时没效果、为什么 pd.read_csv() 读出来的列类型不对。
下面直奔几个高频实战痛点:
df.loc[:, 'col'].apply() 比 df['col'].str.contai
ns() 慢几十倍本质是 Python 层循环 vs C/Fortran 底层向量化。只要 pandas 提供了原生字符串/数值方法,就别手写 apply。
str.contains()、str.split()、dt.year 等都走底层优化路径,自动跳过 NaN,无需 na=False 显式处理(但要注意默认返回 NaN 而非 False)apply 强制触发 Python 解释器逐行调用,哪怕函数只做 str.upper(),也比 str.upper() 原生方法慢 5–20 倍np.where() 或 pd.cut() + 条件表达式,或者导出为 numpy 数组后用 numba.jit
pd.read_csv() 读取后数值列变成 object 类型,且无法用 astype(float) 转换典型症状是报错 ValueError: could not convert string to float,根源几乎全是隐藏字符或混合类型数据。
df['col'].apply(type).unique() 看真实类型,常会发现 str 和 float 并存dtype={'col': 'string'} 强制读为字符串,再用 str.replace(r'[^0-9.-]', '', regex=True) 清洗,最后 astype(float)
pd.read_csv(..., dtype=str, keep_default_na=False),彻底关闭自动 NA 推断,自己用 replace({'': np.nan}) 控制空值groupby().agg() 返回列名丢失或嵌套混乱这是 pandas 0.25+ 版本后多级列名(MultiIndex)的副作用。不指定 as_index=False 或不重命名,结果列会变成元组形式。
df.groupby('category').agg({'price': 'mean', 'qty': ['sum', 'count']})
输出列名为 ('price', 'mean') 和 ('qty', 'sum') ——这不是 bug,是设计。但后续操作容易报 KeyError。
as_index=False 可保持单层列名,但仅限于聚合结果是标量(如 mean).agg(price_mean=('price', 'mean'), qty_sum=('qty', 'sum')),直接生成扁平列名df.columns = ['_'.join(col).strip() for col in df.columns.values] 快速展平inplace=True 在链式调用中失效,且不报错这是最隐蔽的坑:df.dropna().inplace=True 实际上等于 None.inplace = True,因为 dropna() 返回新对象,左侧赋值前已经丢弃。
inplace=True 只对直接作用于原变量的操作有效,例如 df.dropna(inplace=True)
. 链式调用(df.sort_values().dropna())都不支持 inplace,它只作用于上一步返回的对象,而那个对象没被变量引用inplace 参数为 deprecated,2.0+ 版本逐步移除。现在应统一用赋值:df = df.dropna()
pd.concat([df1, df2], ignore_index=True) 看似重置索引,但如果其中一个 df 的索引是 DatetimeIndex,结果可能变成 object 类型——这种细节,文档不会加粗,只能靠踩过才记得住。