我在这台服务器上没有像样的文本编辑器,但我需要查看导致某个文件第 10 行错误的原因。虽然我确实有 PowerShell...
7 回答
就像使用 select 一样简单:
Get-Content file.txt | Select -Index (line - 1)
例如获取第 5 行
Get-Content file.txt | Select -Index 4
或者您可以使用:
(Get-Content file.txt)[4]
这将显示 myfile.txt 的第 10 行:
get-content myfile.txt | select -first 1 -skip 9
两者-first
和-skip
都是可选参数, and -context
, or-last
可能在类似情况下很有用。
您可以使用cmdlet-TotalCount
的参数读取第一行,然后使用仅返回第 th 行:Get-Content
n
Select-Object
n
Get-Content file.txt -TotalCount 9 | Select-Object -Last 1;
根据@CB 的评论,这应该通过仅读取并包含第n
th 行而不是整个文件来提高性能。请注意,您可以使用别名-First
或-Head
代替-TotalCount
.
System.IO
这是一个直接使用 .NET 类的函数:
function GetLineAt([String] $path, [Int32] $index)
{
[System.IO.FileMode] $mode = [System.IO.FileMode]::Open;
[System.IO.FileAccess] $access = [System.IO.FileAccess]::Read;
[System.IO.FileShare] $share = [System.IO.FileShare]::Read;
[Int32] $bufferSize = 16 * 1024;
[System.IO.FileOptions] $options = [System.IO.FileOptions]::SequentialScan;
[System.Text.Encoding] $defaultEncoding = [System.Text.Encoding]::UTF8;
# FileStream(String, FileMode, FileAccess, FileShare, Int32, FileOptions) constructor
# http://msdn.microsoft.com/library/d0y914c5.aspx
[System.IO.FileStream] $input = New-Object `
-TypeName 'System.IO.FileStream' `
-ArgumentList ($path, $mode, $access, $share, $bufferSize, $options);
# StreamReader(Stream, Encoding, Boolean, Int32) constructor
# http://msdn.microsoft.com/library/ms143458.aspx
[System.IO.StreamReader] $reader = New-Object `
-TypeName 'System.IO.StreamReader' `
-ArgumentList ($input, $defaultEncoding, $true, $bufferSize);
[String] $line = $null;
[Int32] $currentIndex = 0;
try
{
while (($line = $reader.ReadLine()) -ne $null)
{
if ($currentIndex++ -eq $index)
{
return $line;
}
}
}
finally
{
# Close $reader and $input
$reader.Close();
}
# There are less than ($index + 1) lines in the file
return $null;
}
GetLineAt 'file.txt' 9;
调整$bufferSize
变量可能会影响性能。使用默认缓冲区大小且不提供优化提示的更简洁版本可能如下所示:
function GetLineAt([String] $path, [Int32] $index)
{
# StreamReader(String, Boolean) constructor
# http://msdn.microsoft.com/library/9y86s1a9.aspx
[System.IO.StreamReader] $reader = New-Object `
-TypeName 'System.IO.StreamReader' `
-ArgumentList ($path, $true);
[String] $line = $null;
[Int32] $currentIndex = 0;
try
{
while (($line = $reader.ReadLine()) -ne $null)
{
if ($currentIndex++ -eq $index)
{
return $line;
}
}
}
finally
{
$reader.Close();
}
# There are less than ($index + 1) lines in the file
return $null;
}
GetLineAt 'file.txt' 9;
只是为了好玩,这里有一些测试:
# Added this for @Graimer's request ;) (not same computer, but one with HD little more
# performant...)
> measure-command { Get-Content ita\ita.txt -TotalCount 260000 | Select-Object -Last 1 }
Days : 0
Hours : 0
Minutes : 0
Seconds : 28
Milliseconds : 893
Ticks : 288932649
TotalDays : 0,000334412788194444
TotalHours : 0,00802590691666667
TotalMinutes : 0,481554415
TotalSeconds : 28,8932649
TotalMilliseconds : 28893,2649
> measure-command { (gc "c:\ps\ita\ita.txt")[260000] }
Days : 0
Hours : 0
Minutes : 0
Seconds : 9
Milliseconds : 257
Ticks : 92572893
TotalDays : 0,000107144552083333
TotalHours : 0,00257146925
TotalMinutes : 0,154288155
TotalSeconds : 9,2572893
TotalMilliseconds : 9257,2893
> measure-command { ([System.IO.File]::ReadAllLines("c:\ps\ita\ita.txt"))[260000] }
Days : 0
Hours : 0
Minutes : 0
Seconds : 0
Milliseconds : 234
Ticks : 2348059
TotalDays : 2,71766087962963E-06
TotalHours : 6,52238611111111E-05
TotalMinutes : 0,00391343166666667
TotalSeconds : 0,2348059
TotalMilliseconds : 234,8059
> measure-command {get-content .\ita\ita.txt | select -index 260000}
Days : 0
Hours : 0
Minutes : 0
Seconds : 36
Milliseconds : 591
Ticks : 365912596
TotalDays : 0,000423509949074074
TotalHours : 0,0101642387777778
TotalMinutes : 0,609854326666667
TotalSeconds : 36,5912596
TotalMilliseconds : 36591,2596
获胜者是:([System.IO.File]::ReadAllLines( path ))[index]
要减少内存消耗并加快搜索速度,您可以使用 Get-Content cmdlet ( https://technet.microsoft.com/ru-ru/library/hh849787.aspx ) 的 -ReadCount 选项。
当您处理大文件时,这可能会节省数小时。
这是一个例子:
$n = 60699010
$src = 'hugefile.csv'
$batch = 100
$timer = [Diagnostics.Stopwatch]::StartNew()
$count = 0
Get-Content $src -ReadCount $batch -TotalCount $n | % {
$count += $_.Length
if ($count -ge $n ) {
$_[($n - $count + $_.Length - 1)]
}
}
$timer.Stop()
$timer.Elapsed
这将打印第 $n 行和经过的时间。
我知道这是一个老问题,但尽管是该主题中观看次数最多的问题之一,但没有一个答案让我完全满意。Get-Content
易于使用,但它在处理非常大的文本文件(例如 >5 GB)时显示出其局限性。
我想出了一个解决方案,它不需要将整个文件加载到主内存中,并且比Get-Content
(几乎和sed
Linux 上一样快,像这样)要快得多:
[Linq.Enumerable]::ElementAt([System.IO.File]::ReadLines("<path_to_file>"), <index>)
在我的机器上找到大约 4.5 GB 文件中间的一行大约需要 4 秒,而(Get-Content -Path <path_to_file> -TotalCount <index>)[-1]
大约需要 35 秒。