如何删除包含所有零的文本文件中的行(行)和列。 例如,我有一个文件:
1 0 1 0 1
0 0 0 0 0
1 1 1 0 1
0 1 1 0 1
1 1 0 0 0
0 0 0 0 0
0 0 1 0 1
我想删除第2行和第4行以及第2列。输出应如下所示:
1 0 1 1
1 1 1 1
0 1 1 1
1 1 0 0
0 0 1 1
我可以使用sed和egrep来做到这一点
sed '/0 0 0 0/d' or egrep -v '^(0 0 0 0 )$'
对于带有零的行,但对于包含数千列的文件来说太不方便了。我不知道怎么能在这里用全零,第二列删除列。
答案 0 :(得分:4)
Perl解决方案。它使内存中的所有非零行保持在最后打印,因为在处理整个文件之前它无法分辨哪些列是非零的。如果获得Out of memory
,则可能只存储要输出的行数,并在打印行时再次处理该文件。
#!/usr/bin/perl
use warnings;
use strict;
my @nonzero; # What columns where not zero.
my @output; # The whole table for output.
while (<>) {
next unless /1/;
my @col = split;
$col[$_] and $nonzero[$_] ||= 1 for 0 .. $#col;
push @output, \@col;
}
my @columns = grep $nonzero[$_], 0 .. $#nonzero; # What columns to output.
for my $line (@output) {
print "@{$line}[@columns]\n";
}
答案 1 :(得分:4)
该版本不是将行存储在内存中,而是扫描文件两次:一次找到“零列”,再次找到“零行”并执行输出:
awk '
NR==1 {for (i=1; i<=NF; i++) if ($i == 0) zerocol[i]=1; next}
NR==FNR {for (idx in zerocol) if ($idx) delete zerocol[idx]; next}
{p=0; for (i=1; i<=NF; i++) if ($i) {p++; break}}
p {for (i=1; i<=NF; i++) if (!(i in zerocol)) printf "%s%s", $i, OFS; print ""}
' file file
1 0 1 1
1 1 1 1
0 1 1 1
1 1 0 0
0 0 1 1
一个ruby程序:ruby有一个很好的数组方法transpose
#!/usr/bin/ruby
def remove_zeros(m)
m.select {|row| row.detect {|elem| elem != 0}}
end
matrix = File.readlines(ARGV[0]).map {|line| line.split.map {|elem| elem.to_i}}
# remove zero rows
matrix = remove_zeros(matrix)
# remove zero rows from the transposed matrix, then re-transpose the result
matrix = remove_zeros(matrix.transpose).transpose
matrix.each {|row| puts row.join(" ")}
答案 2 :(得分:3)
所有在一起:
$ awk '{for (i=1; i<=NF; i++) {if ($i) {print; next}}}' file | awk '{l=NR; c=NF; for (i=1; i<=c; i++) {a[l,i]=$i; if ($i) e[i]++}} END{for (i=1; i<=l; i++) {for (j=1; j<=c; j++) {if (e[j]) printf "%d ",a[i,j] } printf "\n"}}'
这会使行检查:
$ awk '{for (i=1; i<=NF; i++) {if ($i) {print; next}}}' file
1 0 1 1
1 0 1 0
1 0 0 1
它循环遍历该行的所有字段。如果它们中的任何一个是“真”(意思不是0),它会打印行(print
)并中断到下一行(next
)。
这使列检查:
$ awk '{l=NR; c=NF;
for (i=1; i<=c; i++) {
a[l,i]=$i;
if ($i) e[i]++
}}
END{
for (i=1; i<=l; i++){
for (j=1; j<=c; j++)
{if (e[j]) printf "%d ",a[i,j] }
printf "\n"
}
}'
它基本上保存了a
数组,l
行数,c
列数中的所有数据。如果列的任何值与0不同,则e
是一个数组保存。然后它在设置e
数组索引时循环并打印所有字段,这意味着该列是否具有任何非零值。
$ cat a
1 0 1 0 1
0 0 0 0 0
1 1 1 0 1
0 1 1 0 1
1 1 0 0 0
0 0 0 0 0
0 0 1 0 1
$ awk '{for (i=1; i<=NF; i++) {if ($i) {print; next}}}' a | awk '{l=NR; c=NF; for (i=1; i<=c; i++) {a[l,i]=$i; if ($i) e[i]++}} END{for (i=1; i<=l; i++) {for (j=1; j<=c; j++) {if (e[j]) printf "%d ",a[i,j] } printf "\n"}}'
1 0 1 1
1 1 1 1
0 1 1 1
1 1 0 0
0 0 1 1
之前的输入:
$ cat file
1 0 1 1
0 0 0 0
1 0 1 0
0 0 0 0
1 0 0 1
$ awk '{for (i=1; i<=NF; i++) {if ($i) {print; next}}}' file | awk '{l=NR; c=NF; for (i=1; i<=c; i++) {a[l,i]=$i; if ($i) e[i]++}} END{for (i=1; i<=l; i++) {for (j=1; j<=c; j++) {if (e[j]) printf "%d ",a[i,j] } printf "\n"}}'
1 1 1
1 1 0
1 0 1
答案 3 :(得分:3)
试试这个:
perl -n -e '$_ !~ /0 0 0 0/ and print' data.txt
或者简单地说:
perl -n -e '/1/ and print' data.txt
data.txt
包含您的数据。
在Windows中,使用双引号:
perl -n -e "/1/ and print" data.txt
答案 4 :(得分:3)
另一个awk变体:
awk '{show=0; for (i=1; i<=NF; i++) {if ($i!=0) show=1; col[i]+=$i;}} show==1{tr++; for (i=1; i<=NF; i++) vals[tr,i]=$i; tc=NF} END{for(i=1; i<=tr; i++) { for (j=1; j<=tc; j++) { if (col[j]>0) printf("%s%s", vals[i,j], OFS)} print ""; } }' file
扩展表单:
awk '{
show=0;
for (i=1; i<=NF; i++) {
if ($i != 0)
show=1;
col[i]+=$i;
}
}
show==1 {
tr++;
for (i=1; i<=NF; i++)
vals[tr,i]=$i;
tc=NF
}
END {
for(i=1; i<=tr; i++) {
for (j=1; j<=tc; j++) {
if (col[j]>0)
printf("%s%s", vals[i,j], OFS)
}
print ""
}
}' file
答案 5 :(得分:1)
脱离我的头顶......
问题在于列。在读入整个文件之前,如何知道列是否全为零?
我认为你需要一个列数组,每个数组都是列。你可以推进金额。数组数组。
诀窍是在您阅读时跳过包含全零的行:
#! /usr/bin/env perl
#
use strict;
use warnings;
use autodie;
use feature qw(say);
use Data::Dumper;
my @array_of_columns;
for my $row ( <DATA> ) {
chomp $row;
next if $row =~ /^(0\s*)+$/; #Skip zero rows;
my @columns = split /\s+/, $row;
for my $index ( (0..$#columns) ) {
push @{ $array_of_columns[$index] }, $columns[$index];
}
}
# Remove the columns that contain nothing but zeros;
for my $column ( (0..$#array_of_columns) ) {
my $index = $#array_of_columns - $column;
my $values = join "", @{ $array_of_columns[$index] };
if ( $values =~ /^0+$/ ) {
splice ( @array_of_columns, $index, 1 );
}
}
say Dumper \@array_of_columns;
__DATA__
1 0 1 0 1
0 0 0 0 0
1 1 1 0 1
0 1 1 0 1
1 1 0 0 0
0 0 0 0 0
0 0 1 0 1
当然,你可以使用Array::Transpose转换你的数组,这会让事情变得更容易。
答案 6 :(得分:1)
以下脚本也会进行两次传递。在第一次传递期间,它会保存要从输出中省略的行的行号以及应包含在输出中的列索引。在第二遍中,它输出那些行和列。我认为这应该提供接近尽可能小的内存占用,如果你处理大文件可能很重要。
#!/usr/bin/env perl
use strict;
use warnings;
filter_zeros(\*DATA);
sub filter_zeros {
my $fh = shift;
my $pos = tell $fh;
my %nonzero_cols;
my %zero_rows;
while (my $line = <$fh>) {
last unless $line =~ /\S/;
my @row = split ' ', $line;
my @nonzero_idx = grep $row[$_], 0 .. $#row;
unless (@nonzero_idx) {
$zero_rows{$.} = undef;
next;
}
$nonzero_cols{$_} = undef for @nonzero_idx;
}
my @matrix;
{
my @idx = sort {$a <=> $b } keys %nonzero_cols;
seek $fh, $pos, 0;
local $. = 0;
while (my $line = <$fh>) {
last unless $line =~ /\S/;
next if exists $zero_rows{$.};
print join(' ', (split ' ', $line)[@idx]), "\n";
}
}
}
__DATA__
1 0 1 0 1
0 0 0 0 0
1 1 1 0 1
0 1 1 0 1
1 1 0 0 0
0 0 0 0 0
0 0 1 0 1
输出:
1 0 1 1 1 1 1 1 0 1 1 1 1 1 0 0 0 0 1 1
答案 7 :(得分:1)
有点非正统的解决方案,但速度快,因为地狱和小内存消耗:
perl -nE's/\s+//g;$m|=$v=pack("b*",$_);push@v,$v if$v!~/\000/}{$m=unpack("b*",$m);@m=split//,$m;@m=grep{$m[$_]eq"1"}0..$#m;say"@{[(split//,unpack(q(b*),$_))[@m]]}"for@v'
答案 8 :(得分:1)
这是我的awk解决方案。它可以使用可变数量的行和列。
#!/usr/bin/gawk -f
BEGIN {
FS = " "
}
{
for (c = 1; c <= NF; ++c) {
v = $c
map[c, NR] = v
ctotal[c] += v
rtotal[NR] += v
}
fields[NR] = NF
}
END {
for (r = 1; r <= NR; ++r) {
if (rtotal[r]) {
append = 0
f = fields[r]
for (c = 1; c <= f; ++c) {
if (ctotal[c]) {
if (append) {
printf " " map[c, r]
} else {
printf map[c, r]
append = 1
}
}
}
print ""
}
}
}
答案 9 :(得分:1)
这是一个真正棘手且具有挑战性的问题..所以为了解决我们需要变得棘手:)在我的版本中我依靠脚本学习,每次我们读新行时我们检查新的字段可能性是省略,如果检测到新的变化,我们重新开始。
检查和重新开始过程不应该经常重复,因为我们将进行几轮 直到我们得到一个常数的字段来省略或为零,然后我们省略特定位置的每一行零值。
#! /usr/bin/env perl
use strict;
use warnings;
use Data::Dumper;
open my $fh, '<', 'file.txt' or die $!;
##open temp file for output
open my $temp, '>', 'temp.txt' or die $!;
##how many field you have in you data
##you can increase this by one if you have more fields
my @fields_to_remove = (0,1,2,3,4);
my $change = $#fields_to_remove;
while (my $line = <$fh>){
if ($line =~ /1/){
my @new = split /\s+/, $line;
my $i = 0;
for (@new){
unless ($_ == 0){
@fields_to_remove = grep(!/$i/, @fields_to_remove);
}
$i++;
}
foreach my $field (@fields_to_remove){
$new[$field] = 'x';
}
my $new = join ' ', @new;
$new =~ s/(\s+)?x//g;
print $temp $new . "\n";
##if a new change detected start over
## this should repeat for limited time
## as the script keeps learning and eventually stop
if ($#fields_to_remove != $change){
$change = $#fields_to_remove;
seek $fh, 0, 0;
close $temp;
unlink 'temp.txt';
open $temp, '>', 'temp.txt';
}
} else {
##nothing -- removes 0 lines
}
}
### this is just for showing you which fields has been removed
print Dumper \@fields_to_remove;
我已经测试了9个字段的25mb数据文件并且它工作得很好,它不是超快速但它也没有消耗太多内存。
答案 10 :(得分:0)
使用grep和cut的紧凑型和大文件兼容的替代方案。唯一的缺点:由于for循环,大型文件冗长。
# Remove constant lines using grep
$ grep -v "^[0 ]*$\|^[1 ]*$" $fIn > $fTmp
# Remove constant columns using cut and wc
$ nc=`cat $fTmp | head -1 | wc -w`
$ listcol=""
$ for (( i=1 ; i<=$nc ; i++ ))
$ do
$ nitem=`cut -d" " -f$i $fTmp | sort | uniq | wc -l`
$ if [ $nitem -gt 1 ]; then listcol=$listcol","$i ;fi
$ done
$ listcol2=`echo $listcol | sed 's/^,//g'`
$ cut -d" " -f$listcol2 $fTmp | sed 's/ //g' > $fOut
答案 11 :(得分:0)
可以通过以下方式检查行:awk '/[^0[:blank:]]/' file
它只是声明如果一行包含与0
不同的任何字符或
如果您现在要检查列,那么我建议改编Glenn Jackman's answer
awk '
NR==1 {for (i=1; i<=NF; i++) if ($i == 0) zerocol[i]=1; next}
NR==FNR {for (idx in zerocol) if ($idx) delete zerocol[idx]; next}
/[^0[:blank:]]/ {for (i=1; i<=NF; i++) if (i in zerocol) $i=""; print}
' file file