Trouver des fichiers avec le même nom mais un contenu différent?

9

Je souhaite générer une liste de fichiers contenant:

  • Même nom
  • Contenu différent

dans un répertoire (y compris tous les répertoires et contenus enfants).

Comment faire? Bash, perl, tout va bien.

Ainsi, deux fichiers avec le même nom et le même contenu ne devraient pas apparaître.

Nicolas Raoul
la source
Supposons qu'il y ait trois fichiers du même nom et que deux des trois soient identiques?
Kyle Jones
@KyleJones: « trois fichiers avec le même nom et deux des trois sont identiques »> Ensuite , ce nom de fichier doit être ajouté à la liste
Nicolas Raoul

Réponses:

8

Mise à jour: correction d'une faute de frappe dans le script: changé print $NFen print $3; a également rangé les choses et ajouté quelques commentaires.

En supposant que les noms de fichiers ne contiennent pas \n, ce qui suit imprime une liste triée qui se casse (comme dans: coupures de contrôle de section ) à unique file name, unique md5sumet affiche le groupe correspondant de chemins de fichier.

#!/bin/bash

# Choose which script to use for the final awk step 
out_script=out_all

# Print all duplicated file names, even when md5sum is the same 
out_all='{ if( p1 != $1 ) { print nl $1; print I $2 }
      else if( p2 != $2 ) { print I $2 }
      print I I $3; p1=$1; p2=$2; nl="\n" }
   END { printf nl}'

# Print only duplicated file names which have multiple md5sums.
out_only='{ if( p1 != $1 ) { if( multi ) { print pend }
                             multi=0; pend=$1 "\n" I $2 "\n" }
       else if( p2 != $2 ) { multi++; pend=pend I $2 "\n" } 
       pend=pend I I $3 "\n"; p1=$1; p2=$2 } 
   END { if( multi ) print pend }'

# The main pipeline 
find "${1:-.}" -type f -name '*' |  # awk for duplicate names
awk -F/ '{ if( name[$NF] ) { dname[$NF]++ }
           name[$NF]=name[$NF] $0 "\n" } 
     END { for( d in dname ) { printf name[d] } 
   }' |                             # standard md5sum output 
xargs -d'\n' md5sum |               # " "==text, "*"==binary
sed 's/ [ *]/\x00/' |               # prefix with file name  
awk -F/ '{ print $3 "\x00" $0 }' |  # sort by name. md5sum, path 
sort |                              # awk to print result
awk -F"\x00" -v"I=   " "${!out_script}"

Sortie affichant uniquement les noms de fichiers avec plusieurs md5 s

afile.html
   53232474d80cf50b606069a821374a0a
      ./test/afile.html
      ./test/dir.svn/afile.html
   6b1b4b5b7aa12cdbcc72a16215990417
      ./test/dir.svn/dir.show/afile.html

Sortie affichant tous les fichiers du même nom.

afile.html
   53232474d80cf50b606069a821374a0a
      ./test/afile.html
      ./test/dir.svn/afile.html
   6b1b4b5b7aa12cdbcc72a16215990417
      ./test/dir.svn/dir.show/afile.html

fi    le.html
   53232474d80cf50b606069a821374a0a
      ./test/dir.svn/dir.show/fi    le.html
      ./test/dir.svn/dir.svn/fi    le.html

file.html
   53232474d80cf50b606069a821374a0a
      ./test/dir.show/dir.show/file.html
      ./test/dir.show/dir.svn/file.html

file.svn
   53232474d80cf50b606069a821374a0a
      ./test/dir.show/dir.show/file.svn
      ./test/dir.show/dir.svn/file.svn
      ./test/dir.svn/dir.show/file.svn
      ./test/dir.svn/dir.svn/file.svn

file.txt
   53232474d80cf50b606069a821374a0a
      ./test/dir.show/dir.show/file.txt
      ./test/dir.show/dir.svn/file.txt
      ./test/dir.svn/dir.show/file.txt
      ./test/dir.svn/dir.svn/file.txt
Peter.O
la source
1

Voici un script Perl. Exécutez-le dans le répertoire en haut de l'arborescence que vous souhaitez rechercher. Le script dépend de findet md5, mais ce dernier peut être remplacé par sha1, sumou tout autre programme de hachage de fichier qui accepte une entrée sur stdin et génère un hachage sur stdout.

use strict;

my %files;
my %nfiles;
my $HASHER = 'md5';

sub
print_array
{
    for my $x (@_) {
        print "$x\n";
    }
}

open FINDOUTPUT, "find . -type f -print|" or die "find";

while (defined (my $line = <FINDOUTPUT>)) {
    chomp $line;
    my @segments = split /\//, $line;
    my $shortname = pop @segments;
    push @{ $files{$shortname} }, $line;
    $nfiles{$shortname}++;
}

for my $shortname (keys %files) {
    if ($nfiles{$shortname} < 2) {
        print_array @{ $files{$shortname} };
        next;
    }
    my %nhashes;
    my %revhashes;
    for my $file (@{ $files{$shortname} }) {
        my $hash = `$HASHER < $file`;
        $revhashes{$hash} = $file;
        $nhashes{$hash}++;
    }
    for my $hash (keys %nhashes) {
        if ($nhashes{$hash} < 2) {
            my $file = $revhashes{$hash};
            print "$file\n";
        }
    }
}
Kyle Jones
la source
1

finddup cet outil peut également vous aider à répertorier les fichiers portant le même nom ou le même contenu.

user379997
la source
1

Pour ceux qui veulent voir seulement une liste de noms, voici la partie pertinente de Peter.O de réponse :

find "${1:-.}" -type f -name '*' | 
awk -F/ '{ if( name[$NF] ) { dname[$NF]++ }
       name[$NF]=name[$NF] $0 "\n" } 
 END { for( d in dname ) { printf name[d] "\n" } 

} '

Je n'ai pas besoin de md5sums car j'utilise fslint-guiavant le script pour effacer tous les doublons.

int_ua
la source
sur mon mac cela montre les fichiers en double même nom même contenu
nightograph