我有一个大型数据文件,我需要删除以某些字母结尾的行。
以下是我正在使用的文件示例:
User Name DN
MB212DA CN=MB212DA,CN=Users,DC=prod,DC=trovp,DC=net
MB423DA CN=MB423DA,OU=Generic Mailbox,DC=prod,DC=trovp,DC=net
MB424PL CN=MB424PL,CN=Users,DC=prod,DC=trovp,DC=net
MBDA423 CN=MBDA423,OU=DNA,DC=prod,DC=trovp,DC=net
MB2ADA4 CN=MB2ADA4,OU=DNA,DC=prod,DC=trovp,DC=netenter code here
我正在使用的代码:
from pandas import DataFrame, read_csv
import pandas as pd
f = pd.read_csv('test1.csv', sep=',',encoding='latin1')
df = f.loc[~(~pd.isnull(f['User Name']) & f['UserName'].str.contains("DA|PL",))]
如何使用正则表达式语法删除以“DA”和“PL”结尾的单词,但请确保我不删除其他行,因为它们中包含“DA”或“PL”?
它应该删除行,我最终会得到一个这样的文件:
User Name DN
MBDA423 CN=MBDA423,OU=DNA,DC=prod,DC=trovp,DC=net
MB2ADA4 CN=MB2ADA4,OU=DNA,DC=prod,DC=trovp,DC=net
删除前3行,因为它们以DA和PL结束。
答案 0 :(得分:8)
您可以使用此表达式
df = df[~df['User Name'].str.contains('(?:DA|PL)$')]
它将返回所有不以DA或PL结尾的行。
?:
是括号不会捕获任何内容。否则,您会看到pandas返回以下(无害)警告:
UserWarning: This pattern has match groups. To actually get the groups, use str.extract.
或者,使用endswith()
并且没有正则表达式,可以使用以下表达式实现相同的过滤:
df = df[~df['User Name'].str.endswith(('DA', 'PL'))]
正如所料,没有正则表达式的版本会更快。一个简单的测试,由big_df
组成,由原始df
的10001份副本组成:
# Create a larger DF to get better timing results
big_df = df.copy()
for i in range(10000):
big_df = big_df.append(df)
print(big_df.shape)
>> (50005, 2)
# Without regular expressions
%%timeit
big_df[~big_df['User Name'].str.endswith(('DA', 'PL'))]
>> 10 loops, best of 3: 22.3 ms per loop
# With regular expressions
%%timeit
big_df[~big_df['User Name'].str.contains('(?:DA|PL)$')]
>> 10 loops, best of 3: 61.8 ms per loop
答案 1 :(得分:2)
你可以使用一个布尔掩码来检查User_Name
的最后两个字符是否在一组两个字符结尾中不在~
中:
>>> df[~df.User_Name.str[-2:].isin(['DA', 'PA'])]
User_Name DN
2 MB424PL CN=MB424PL, CN=Users, DC=prod, DC=trovp, DC=net
3 MBDA423 CN=MBDA423, OU=DNA, DC=prod, DC=trovp, DC=net
4 MB2ADA4 CN=MB2ADA4, OU=DNA, DC=prod, DC=trovp, DC=nete...
答案 2 :(得分:0)
您可以使用endswith()
方法检查字符串是否以特定模式结尾,而不是regular expressions
。
即:
for row in rows:
if row.endswith('DA') or row.endswith('PL'):
#doSomething
您应该使用过滤后的数据创建另一个df,然后使用pd.to_csv()
保存文件的干净版本。