我在这台服务器上没有合适的文本编辑器,但我需要查看在某个文件的第10行导致错误的原因。我确实有PowerShell ......
答案 0 :(得分:21)
这与使用select一样简单:
Get-Content file.txt | Select -Index (line - 1)
E.g。获得第5行
Get-Content file.txt | Select -Index 4
或者您可以使用:
(Get-Content file.txt)[4]
答案 1 :(得分:14)
这将显示myfile.txt的第10行:
get-content myfile.txt | select -first 1 -skip 9
-first
和-skip
都是可选参数,-context
或-last
在类似情况下可能会有用。
答案 2 :(得分:5)
您可以使用Get-Content
cmdlet的-TotalCount
参数来阅读第一个n
行,然后使用Select-Object
仅返回n
行:
Get-Content file.txt -TotalCount 9 | Select-Object -Last 1;
根据@ C.B的评论。这应该通过仅读取n
行而不是整个文件来提高性能。请注意,您可以使用别名-First
或-Head
代替-TotalCount
。
答案 3 :(得分:5)
这是一个直接使用.NET的System.IO
类的函数:
function GetLineAt([String] $path, [Int32] $index)
{
[System.IO.FileMode] $mode = [System.IO.FileMode]::Open;
[System.IO.FileAccess] $access = [System.IO.FileAccess]::Read;
[System.IO.FileShare] $share = [System.IO.FileShare]::Read;
[Int32] $bufferSize = 16 * 1024;
[System.IO.FileOptions] $options = [System.IO.FileOptions]::SequentialScan;
[System.Text.Encoding] $defaultEncoding = [System.Text.Encoding]::UTF8;
# FileStream(String, FileMode, FileAccess, FileShare, Int32, FileOptions) constructor
# http://msdn.microsoft.com/library/d0y914c5.aspx
[System.IO.FileStream] $input = New-Object `
-TypeName 'System.IO.FileStream' `
-ArgumentList ($path, $mode, $access, $share, $bufferSize, $options);
# StreamReader(Stream, Encoding, Boolean, Int32) constructor
# http://msdn.microsoft.com/library/ms143458.aspx
[System.IO.StreamReader] $reader = New-Object `
-TypeName 'System.IO.StreamReader' `
-ArgumentList ($input, $defaultEncoding, $true, $bufferSize);
[String] $line = $null;
[Int32] $currentIndex = 0;
try
{
while (($line = $reader.ReadLine()) -ne $null)
{
if ($currentIndex++ -eq $index)
{
return $line;
}
}
}
finally
{
# Close $reader and $input
$reader.Close();
}
# There are less than ($index + 1) lines in the file
return $null;
}
GetLineAt 'file.txt' 9;
调整$bufferSize
变量可能会影响性能。使用默认缓冲区大小并且不提供优化提示的更简洁版本可能如下所示:
function GetLineAt([String] $path, [Int32] $index)
{
# StreamReader(String, Boolean) constructor
# http://msdn.microsoft.com/library/9y86s1a9.aspx
[System.IO.StreamReader] $reader = New-Object `
-TypeName 'System.IO.StreamReader' `
-ArgumentList ($path, $true);
[String] $line = $null;
[Int32] $currentIndex = 0;
try
{
while (($line = $reader.ReadLine()) -ne $null)
{
if ($currentIndex++ -eq $index)
{
return $line;
}
}
}
finally
{
$reader.Close();
}
# There are less than ($index + 1) lines in the file
return $null;
}
GetLineAt 'file.txt' 9;
答案 4 :(得分:3)
要减少内存消耗并加快搜索速度,您可以使用Get-Content cmdlet(https://technet.microsoft.com/ru-ru/library/hh849787.aspx)的-ReadCount选项。
使用大文件时,这可能会节省数小时。
以下是一个例子:
$n = 60699010
$src = 'hugefile.csv'
$batch = 100
$timer = [Diagnostics.Stopwatch]::StartNew()
$count = 0
Get-Content $src -ReadCount $batch -TotalCount $n | % {
$count += $_.Length
if ($count -ge $n ) {
$_[($n - $count + $_.Length - 1)]
}
}
$timer.Stop()
$timer.Elapsed
这会打印$ n&#39行和已用时间。
答案 5 :(得分:2)
只是为了好玩,这里有一些测试:
#Added this for @Graimer's request ;) (not same computer, but one with HD little more #performant...)
measure-command {Get-Content ita \ ita.txt -TotalCount 260000 | Select-Object -Last 1}
Days : 0
Hours : 0
Minutes : 0
Seconds : 28
Milliseconds : 893
Ticks : 288932649
TotalDays : 0,000334412788194444
TotalHours : 0,00802590691666667
TotalMinutes : 0,481554415
TotalSeconds : 28,8932649
TotalMilliseconds : 28893,2649
> measure-command { (gc "c:\ps\ita\ita.txt")[260000] }
Days : 0
Hours : 0
Minutes : 0
Seconds : 9
Milliseconds : 257
Ticks : 92572893
TotalDays : 0,000107144552083333
TotalHours : 0,00257146925
TotalMinutes : 0,154288155
TotalSeconds : 9,2572893
TotalMilliseconds : 9257,2893
> measure-command { ([System.IO.File]::ReadAllLines("c:\ps\ita\ita.txt"))[260000] }
Days : 0
Hours : 0
Minutes : 0
Seconds : 0
Milliseconds : 234
Ticks : 2348059
TotalDays : 2,71766087962963E-06
TotalHours : 6,52238611111111E-05
TotalMinutes : 0,00391343166666667
TotalSeconds : 0,2348059
TotalMilliseconds : 234,8059
> measure-command {get-content .\ita\ita.txt | select -index 260000}
Days : 0
Hours : 0
Minutes : 0
Seconds : 36
Milliseconds : 591
Ticks : 365912596
TotalDays : 0,000423509949074074
TotalHours : 0,0101642387777778
TotalMinutes : 0,609854326666667
TotalSeconds : 36,5912596
TotalMilliseconds : 36591,2596
获胜者是:([System.IO.File]::ReadAllLines( path ))[index]
答案 6 :(得分:0)
我知道这是一个老问题,但尽管是该主题中查看次数最多的问题之一,但没有一个答案让我完全满意。 Get-Content
易于使用,但它在处理非常大的文本文件(例如 >5 GB)时显示出其局限性。
我想出了一个解决方案,它不需要将整个文件加载到主内存中,而且比 Get-Content
快得多(在 Linux 上几乎和 sed
一样快,例如 {{3} }):
[Linq.Enumerable]::ElementAt([System.IO.File]::ReadLines("<path_to_file>"), <index>)
在我的机器上找到大约 4.5 GB 文件中间的一行大约需要 4 秒,而 (Get-Content -Path <path_to_file> -TotalCount <index>)[-1]
大约需要 35 秒。