PowerShell перебирает большой файл
Здравствуйте! Я только что запустил powershell и работаю со скриптом powershell, который должен перебирать большой файл, содержащий строки, такие как "ABCD#######";"####";"@@";##;"@@";####;#####;"@";. Что мне нужно сделать в powershell, так это перебрать этот файл, который может содержать более 20000 строк, собирать части информации из каждой строки и выводить ее в другой файл. У меня это работает, проблема в том, что он действительно медленный, и мне было интересно, может ли кто-нибудь помочь, вот мой код.
foreach ($fileName in (ls i.gft1* | %{$_.name})){
$fileNo=1
$STUFFCount=0
cd work
new-item flttemp$fileNo -type file -force
cat $fileName | %{$_.replace('"','')} > temp
foreach ($line in (cat temp)){
echo $containerCount
if ($STUFFCount -eq 999)
{
$fileNo=$fileNo+1
$STUFFCount=0
break;
new-item flttemp$fileNo -type file
}
add-content flttemp$fileNo "STUFF_START" -encoding utf8
add-content flttemp$fileNo "STUFF"-encoding utf8
$no=$line.split(";")[0]
if ($line.substring("3","1") -eq "U")
{
add-content flttemp$fileNo "STUFF_TYPE:STUFF" -encoding utf8
}
else
{
add-content flttemp$fileNo "STUFF_TYPE:STUFF" -encoding utf8
}
add-content flttemp$fileNo "STUFF_NO:$no" -encoding utf8
add-content flttemp$fileNo "STUFF_NOTO:$no" -encoding utf8
$ISO=$line.split(";")[1]
add-content flttemp$fileNo "STUFF_ISO:$ISO" -encoding utf8
$weight=$line.split(";")[5]
if ($weight -gt 0)
{
$weight=2.20462 * $weight
$weight=$weight.tostring("#.##")
add-content flttemp$fileNo "STUFF_WGT:$weight" -encoding utf8
}
else
{
add-content flttemp$fileNo "STUFF_WGT:" -encoding utf8
}
$weight=$line.split(";")[6]
if ($weight -gt 0)
{
$weight=2.20462 * $weight
$weight=$weight.tostring("#.##")
add-content flttemp$fileNo "STUFF_MWGT:$weight" -encoding utf8
}
else
{
add-content flttemp$fileNo "STUFF_MWGT:" -encoding utf8
}
add-content flttemp$fileNo "}STUFF_END" -encoding utf8
$STUFFCount=$STUFFCount+1
}
}
Код работает (если редактирование ничего не пропустило), это всего лишь то, что версия kornshell завершает файлы flttemp$fileNo за 1 минуту, в то время как это занимает PowerShell 4-5 минут, что слишком медленно для количества файлов, необходимых для этого сценария. пройти. Мой вопрос еще раз, есть ли способ, которым я не использую, чтобы оптимизировать PowerShell для более быстрого чтения файлов.
1 ответ
Вы можете попробовать прочитать каждый файл полностью в память и затем поработать над этим. Это, безусловно, ускорит вещи при работе с большими файлами
foreach ($fileName in (ls i.gft1* | %{$_.name}))
{
$fileString = [IO.File]::ReadAllText("$filename") # gives you one string containing whole file
# or
$lines = [IO.File]::ReadAllLines("$filename") # gives a collection of strings (lines)
foreach ($line in $lines)
{
# $line is a line (string)
}
}