如何同时找到两个数组中相同的byte [] - 对象?

时间:2012-01-02 12:58:24

标签: java multithreading concurrency hash hash-collision

我正在尝试对哈希实施碰撞攻击(我正在访问课程'密码术')。因此,我有两个哈希数组(=字节序列byte[]),并希望找到两个数组中都存在的哈希值。经过一些研究和大量思考后,我确信单核机器上的最佳解决方案是HashSet(添加第一个数组的所有元素,并通过contains检查第二个元素的元素数组已存在。)

但是,我想实现并发解决方案,因为我可以访问具有8个内核和12 GB RAM的计算机。我能想到的最好的解决方案是ConcurrentHashSet,它可以通过Collections.newSetFromMap(new ConcurrentHashMap<A,B>())创建。使用这个数据结构,我可以并行地添加第一个数组的所有元素,并且 - 在添加了所有元素之后 - 我可以通过contains同时检查相同的哈希值。

所以我的问题是:你知道为这个问题设计的算法吗?如果没有,您是否有使用此类ConcurrentHashSet有关问题和有效运行时复杂性的经验?或者你能推荐另一个可以帮助我的预建数据结构吗?

PS:如果有人对细节感兴趣:我打算使用Skandium来并行化我的程序。

2 个答案:

答案 0 :(得分:5)

我认为使用任何形式的HashMap完全是浪费时间。我猜你正在计算各种数据的多字节哈希,这些已经是hash es,不需要对它们进行任何更多哈希。

虽然你没有陈述,但我猜你的哈希是byte序列。显然,triedawg是理想的存储方式。

因此我建议您实现trie/dawg并使用它来存储第一个数组中的所有哈希值。然后,您可以并行使用所有计算能力来查找此trie中第二个数组中的每个元素。不需要锁。

<强>加

这是一个简单的Dawg实现,我在一起。它似乎有效。

public class Dawg {
  // All my children.
  Dawg[] children = new Dawg[256];
  // Am I a leaf.
  boolean isLeaf = false;

  // Add a new word.
  public void add ( byte[] word ) {
    // Finds its location, growing as necessary.
    Dawg loc = find ( word, 0, true );
    loc.isLeaf = true;
  }

  // String form.
  public void add ( String word ) {
    add(word.getBytes());
  }

  // Returns true if word is in the dawg.
  public boolean contains ( byte [] word ) {
    // Finds its location, no growing allowed.
    Dawg d = find ( word, 0, false );
    return d != null && d.isLeaf; 
  }

  // String form.
  public boolean contains ( String word ) {
    return contains(word.getBytes());
  }

  // Find the Dawg - growing the tree as necessary if requested.
  private Dawg find ( byte [] word, int i, boolean grow ) {
    Dawg child = children[word[i]];
    if ( child == null ) {
      // Not present!
      if ( grow ) {
        // Grow the tree.
        child = new Dawg();
        children[word[i]] = child;
      }
    }
    // Found it?
    if ( child != null ) {
      // More to find?
      if ( i < word.length - 1 ) {
        child = child.find(word, i+1, grow);
      }
    }
    return child;
  }

  public static void main ( String[] args ) {
    Dawg d = new Dawg();
    d.add("H");
    d.add("Hello");
    d.add("World");
    d.add("Hell");
    System.out.println("Hello is "+(d.contains("Hello")?"in":"out"));
    System.out.println("World is "+(d.contains("World")?"in":"out"));
    System.out.println("Hell is "+(d.contains("Hell")?"in":"out"));
    System.out.println("Hal is "+(d.contains("Hal")?"in":"out"));
    System.out.println("Hel is "+(d.contains("Hel")?"in":"out"));
    System.out.println("H is "+(d.contains("H")?"in":"out"));
  }
}

<强>加

这可能是并发无锁版本的良好开端。众所周知这些东西很难测试,所以我不能保证这会起作用,但在我看来它肯定应该。

import java.util.concurrent.atomic.AtomicReferenceArray;


public class LFDawg {
  // All my children.
  AtomicReferenceArray<LFDawg> children = new AtomicReferenceArray<LFDawg> ( 256 );
  // Am I a leaf.
  boolean isLeaf = false;

  // Add a new word.
  public void add ( byte[] word ) {
    // Finds its location, growing as necessary.
    LFDawg loc = find( word, 0, true );
    loc.isLeaf = true;
  }

  // String form.
  public void add ( String word ) {
    add( word.getBytes() );
  }

  // Returns true if word is in the dawg.
  public boolean contains ( byte[] word ) {
    // Finds its location, no growing allowed.
    LFDawg d = find( word, 0, false );
    return d != null && d.isLeaf;
  }

  // String form.
  public boolean contains ( String word ) {
    return contains( word.getBytes() );
  }

  // Find the Dawg - growing the tree as necessary if requested.
  private LFDawg find ( byte[] word, int i, boolean grow ) {
    LFDawg child = children.get( word[i] );
    if ( child == null ) {
      // Not present!
      if ( grow ) {
        // Grow the tree.
        child = new LFDawg();
        if ( !children.compareAndSet( word[i], null, child ) ) {
          // Someone else got there before me. Get the one they set.
          child = children.get( word[i] );
        }
      }
    }
    // Found it?
    if ( child != null ) {
      // More to find?
      if ( i < word.length - 1 ) {
        child = child.find( word, i + 1, grow );
      }
    }
    return child;
  }

  public static void main ( String[] args ) {
    LFDawg d = new LFDawg();
    d.add( "H" );
    d.add( "Hello" );
    d.add( "World" );
    d.add( "Hell" );
    System.out.println( "Hello is " + ( d.contains( "Hello" ) ? "in" : "out" ) );
    System.out.println( "World is " + ( d.contains( "World" ) ? "in" : "out" ) );
    System.out.println( "Hell is " + ( d.contains( "Hell" ) ? "in" : "out" ) );
    System.out.println( "Hal is " + ( d.contains( "Hal" ) ? "in" : "out" ) );
    System.out.println( "Hel is " + ( d.contains( "Hel" ) ? "in" : "out" ) );
    System.out.println( "H is " + ( d.contains( "H" ) ? "in" : "out" ) );
  }
}

答案 1 :(得分:0)

更简单的方法是将第一个数组分成N个相等(或接近相等)的部分(8个核,n = 8似乎合理)。然后解决&#34; normal&#34;中的程序。通过查看第二个数组中的任何哈希值是否存在于N个较小的子第一阵列中。这可以并行完成。

那就是说,我之前从未听说过尝试/破坏,我发现主要讨论引人入胜且信息丰富。 (我主要使用数字,而不是单词)

这假设byte []哈希值具有一定的有限,短的长度,因此您可以将原始文件拆分为并行处理。是这样的吗?

编辑添加

有关此想法的示例,请参阅由Wen-Mei W. Hwu编辑的 GPU Graphics Gems ,第11章,Ligowski,Rudnicki,Liu和Schmidt撰写的文章。他们通过将巨大的单个数据库分成许多较小的片段来并行化大规模蛋白质序列数据库搜索,然后在每个子片上运行普通算法。我喜欢这句话。 &#34;所描述的算法令人尴尬地平行&#34;。在他们的情况下,他们使用CUDA并且必须进行大量的内存优化,但原则仍然适用于多核机器。

半PSEUDOCODE跟随。我将列表用于传入的byte []哈希,希望“o.k。

原创,1核心方法

originalProcess(List<byte[]> list1, List<byte[]> list2) {
   HashSet<byte[]> bigHugeHashOfList1 = new HashSet<byte[]>();
   bigHugeHashOfList1.addAll(list1);
   for (byte[] hash : list2)
      if (bigHugeHashOfList1.contains(hash)
         // do something
}

新方法。使用完全相同的处理方法(稍后)。这里没有DAWGS或TRIES ......

preprocess(List<byte[]> list1, List<byte[]> list2) {
   List<byte[]>[] splitLists = new ArrayList<byte[]>[8];
   for (int i=0; i<8; i++)
      splitLists[i] = new ArrayList<byte[]>();
   for (byte[] hash : list1) {
      int idx = hash[0]&7; // I'm taking the 3 low order bits, YMMV
      splitLists[idx].add(hash);
      // a minor speedup would be to create the HashSet here instead of in originalProcess()
   }

   // now, using your favorite parallel/concurrency technique,
   // do the equivalent of
   for (int i=0; i<8; i++)
      originalProcess(splitLists[i], list2);
}