我有36个.log文件的数据基础,我需要对其进行预处理,以便将它们加载到pandas数据框中,以便在python框架内进行数据可视化。
提供一个.log文件中单行的示例:
[16:24:42]: Downloaded 0 Z_SYSTEM_FM traces from DEH, clients (282) from 00:00:00,000 to 00:00:00,000
从这里的多个来源和帖子中,我发现以下代码是性能最好的代码:
foreach ($f in $files){
$date = $f.BaseName.Substring(22,8)
((Get-Content $f) -match "^.*\bDownloaded\b.*$") -replace "[[]", "" -replace "]:\s", " "
-replace "Downloaded " -replace "Traces from " -replace ",.*" -replace "$", " $date"
| add-content CleanedLogs.txt
}
变量$date
包含日期,相应的.log文件正在记录。
我无法更改输入文本数据。我尝试使用-raw读取1,55GB,但在处理所有操作后无法拆分得到的单个字符串。 另外,我尝试使用更多的正则表达式,但是并没有减少总的运行时间。也许有一种方法可以使用grep进行此操作?
也许有人进行了巧妙的调整以加快此操作的速度。目前,此操作需要近20分钟的时间进行计算。非常感谢你!
答案 0 :(得分:1)
我过去也有类似的问题。长话短说,直接使用.NET可以在使用大型文件时更快。您可以阅读performance considerations了解更多信息。
最快的方法可能是使用IO.FileStream
。例如:
$File = "C:\Path_To_File\Logs.txt"
$FileToSave = "C:\Path_To_File\result.txt"
$Stream = New-Object -TypeName IO.FileStream -ArgumentList ($File), ([System.IO.FileMode]::Open), ([System.IO.FileAccess]::Read), ([System.IO.FileShare]::ReadWrite)
$Reader = New-Object -TypeName System.IO.StreamReader -ArgumentList ($Stream, [System.Text.Encoding]::ASCII, $true)
$Writer = New-Object -TypeName System.IO.StreamWriter -ArgumentList ($FileToSave)
while (!$Reader.EndOfStream)
{
$Box = $Reader.ReadLine()
if($Box -match "^.*\bDownloaded\b.*$")
{
$ReplaceLine = $Box -replace "1", "1234" -replace "[[]", ""
$Writer.WriteLine($ReplaceLine)
}
}
$Reader.Close()
$Writer.Close()
$Stream.Close()
您应该能够轻松地根据需要编辑以上代码。要获取文件列表,可以使用Get-ChildItem。
我也建议您阅读this stackoverflow帖子。
答案 1 :(得分:1)
提高性能的关键是:
Get-Content
,Add-Content
)
System.IO.File
类型的方法。-match
和-replace
。-replace
调用。将它们放在一起:
# Create precompiled regexes.
# Note: As written, they make the matching that -replace performs
# case-*sensitive* (and culture-sensitive),
# which speeds things up slightly.
# If you need case-*insensitive* matching, use option argument
# 'Compiled, IgnoreCase' instead.
$reMatch = New-Object regex '\bDownloaded\b', 'Compiled'
$reReplace1 = New-Object regex 'Downloaded |Traces from |\[', 'Compiled'
$reReplace2 = New-Object regex '\]:\s', 'Compiled'
$reReplace3 = New-Object regex ',.*', 'Compiled'
# The platform-appropriate newline sequence.
$nl = [Environment]::NewLine
foreach ($f in $files) {
$date = $f.BaseName.Substring(22,8)
# Read all lines into an array, filter and replace, then join the
# resulting lines with newlines and append the resulting single string
# to the log file.
[IO.File]::AppendAllText($PWD.ProviderPath + '/CleanedLogs.txt',
([IO.File]::ReadAllLines($f.FullName) -match
$reMatch -replace
$reReplace1 -replace
$reReplace2, ' ' -replace
$reReplace3, " $date" -join
$nl) + $nl
)
}
请注意,每个文件必须作为一个整体以行数组的形式容纳在内存中,加上一定比例的文件(既作为数组又作为单个多行字符串),其大小取决于要过滤的行数
答案 2 :(得分:0)
也许这会为您加快速度:
$outFile = Join-Path -Path $PSScriptRoot -ChildPath 'CleanedLogs.txt'
$files = Get-ChildItem -Path '<YOUR ROOTFOLDER>' -Filter '*.txt' -File
foreach ($f in $files){
$date = $f.BaseName.Substring(22,8)
[string[]]$lines = ([System.IO.File]::ReadAllLines($f.FullName) | Where-Object {$_ -match '^.*\bDownloaded\b.*$'} | ForEach-Object {
($_ -replace '\[|Downloaded|Traces from|,.*', '' -replace ']:\s', ' ' -replace '\s+', ' ') + " $date"
})
[System.IO.File]::AppendAllLines($outFile, $lines)
}