pandas去除重复列 Python的pandas中,drop_duplicates函数怎么根据索引来去重?

Python的pandas中,drop_duplicates函数怎么根据索引来去重?今天,我想去重复熊猫的台词。很长一段时间后,我找到了相关的函数让我们先看一个小例子[Python]查看纯拷贝来自pa

Python的pandas中,drop_duplicates函数怎么根据索引来去重?

今天,我想去重复熊猫的台词。很长一段时间后,我找到了相关的函数

让我们先看一个小例子

[Python]查看纯拷贝

来自pandas import series,dataframe

data=dataframe({“K”:[1,1,2,2] })

打印数据

isduplicated=数据。重复()

打印重复

打印类型(重复)

数据=data.drop复制()

打印数据

执行结果是:

[Python]查看纯拷贝

k

0 1

1 1

2 2

3 2

[Python]查看纯拷贝

0 false

1true

2 false

3 true

[Python]查看纯拷贝

k

0 1

2

dataframe的duplicated方法返回一个布尔序列,指示每行是否重复。

And drop_u2;replications方法,用于返回删除重复行的数据帧

这两个方法将判断所有列,您还可以指定一些列来判断重复项。

例如,您要对名为K2的列进行重复数据消除data.drop我要介绍的第一个任务是添加一些列,然后添加sum列。

首先,我们将Excel数据导入panda数据框架。

importpandasaspd

importnumpyansp

df=pd.readexcel(“excel组件-数据.xlsx")

我用pandas做数据处理,去重后数据怎么引用?

1. 前提:加载numpy、pandas和series、dataframe。生成一个序列并删除索引为“C”的项,如图所示。

2. 如果要连续删除多个指定项,可以在下拉列表中添加这些项的列表。

3. 接下来,让我们看看dataframe如何删除数据,并将其转换为具有四行四列的DF1。

4. 如果你直接使用DF1。Drop([“Beijing”、“Shanghai”]),可以删除索引为“Beijing”、“Shanghai”的数据。这就完成了操作。