加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 大数据 > 正文

BloomFilter–大规模数据处理利器(解决空查问题)寻找共同的URL

发布时间:2020-12-14 03:31:22 所属栏目:大数据 来源:网络整理
导读:寻找共同的URL 给定a、b两个文件,各存放50亿个url,每个url各占64字节,内存限制是4G,让你找出a、b文件共同的url? 原文 BloomFilter– 大规模数据处理利器 Bloom Filter 是由 Bloom 在 1970 年提出的一种多哈希函数映射的快速查找算法。通常应用在一些需

寻找共同的URL

给定a、b两个文件,各存放50亿个url,每个url各占64字节,内存限制是4G,让你找出a、b文件共同的url?


原文

BloomFilter–大规模数据处理利器

  Bloom Filter是由Bloom1970年提出的一种多哈希函数映射的快速查找算法。通常应用在一些需要快速判断某个元素是否属于集合,但是并不严格要求100%正确的场合。

.?实例

  为了说明存在的重要意义,举一个实例:

  假设要你写一个网络爬虫程序(web crawler)。由于网络间的链接错综复杂,爬虫在网络间爬行很可能会形成。为了避免形成,就需要知道爬虫程序已经访问过那些URL。给一个,怎样知道爬虫程序是否已经访问过呢?稍微想想,就会有如下几种方案:

1.?将访问过的保存到数据库。

2.?HashSet保存起来。那只需接近O(1)的代价就可以查到一个是否被访问过了。

3. URL经过MD5SHA-1等单向哈希后再保存到或数据库。

4. Bit-Map方法。建立一个BitSet,将每个经过一个哈希函数映射到某一位。

  方法1~3都是将访问过的完整保存,方法4则只标记的一个映射位。

  以上方法在数据量较小的情况下都能完美解决问题,但是当数据量变得非常庞大时问题就来了。

1的缺点:数据量变得非常庞大后关系型数据库查询的效率会变得很低。而且每来一个就启动一次数据库查询是不是太小题大做了?

2的缺点:太消耗内存。随着的增多,占用的内存会越来越多。就算只有亿个URL,每个URL只算50个字符,就需要5GB内存。

3:由于字符串经过处理后的信息摘要长度只有128BitSHA-1处理后也只有160Bit,因此方法比方法节省了好几倍的内存。

消耗内存是相对较少的,但缺点是单一哈希函数发生冲突的概率太高。还记得数据结构课上学过的Hash表冲突的各种解决方法么?若要降低冲突发生的概率到1%,就要将BitSet的长度设置为URL个数的100倍。

. Bloom Filter的算法

???废话说到这里,下面引入本篇的主角–Bloom Filter。其实上面方法的思想已经很接近了。方法四的致命缺点是冲突概率高,为了降低冲突的概念,使用了多个哈希函数,而不是一个。

?? Bloom Filter算法如下:

创建一个m,先将所有位初始化为0,然后选择k个不同的哈希函数。第i个哈希函数对字符串str哈希的结果记为histr),且)的范围是0m-1?

(1)?加入字符串过程

  下面是每个字符串处理的过程,首先是将字符串str“记录中的过程:

  对于字符串,分别计算h1),h2…… hk)。然后将的第)、)位设为1

?

  很简单吧?这样就将字符串str映射到中的个二进制位了。

(2)?检查字符串是否存在的过程

  下面是检查字符串str是否被记录过的过程:

)。然后检查BitSet)位是否为,若其中任何一位不为则可以判定一定没有被记录过。若全部位都是,则认为字符串str存在。

  若一个字符串对应的Bit不全为,则可以肯定该字符串一定没有被记录过。(这是显然的,因为字符串被记录过,其对应的二进制位肯定全部被设为了)

  但是若一个字符串对应的Bit全为,实际上是不能的肯定该字符串被记录过的。(因为有可能该字符串的所有位都刚好是被其他字符串所对应)这种将该字符串划分错的情况,称为false positive?(3)?删除字符串过程

字符串加入了就被不能删除了,因为删除会影响到其他字符串。实在需要删除字符串的可以使用Counting bloomfilter(CBF),这是一种基本的变体,CBF将基本每一个Bit改为一个计数器,这样就可以实现删除字符串的功能了。

跟单哈希函数Bit-Map不同之处在于:使用了个哈希函数,每个字符串跟kbit对应。从而降低了冲突的概率。

参数选择

?(1)哈希函数选择

  哈希函数的选择对性能的影响应该是很大的,一个好的哈希函数要能近似等概率的将字符串映射到各个Bit。选择个不同的哈希函数比较麻烦,一种简单的方法是选择一个哈希函数,然后送入个不同的参数。

(2) m,n,k值,我们如何取值

我们定义:

可能把不属于这个集合的元素误认为属于这个集合(False Positive

不会把属于这个集合的元素误认为不属于这个集合(False Negative)。

?

哈希函数的个数k、位数组大小m、加入的字符串数量n的关系。哈希函数个数k10,位数组大小m设为字符串个数n20倍时,false positive发生的概率是0.0000889?,即10万次的判断中,会存在9次误判,对于一天亿次的查询,误判的次数为9000次。?

算法分析:

我们假设kn<m且各个哈希函数是完全随机的。当集合S={x1,x2,…,0)">n}的所有元素都被k个哈希函数映射到m位的位数组中时,这个位数组中某一位还是0的概率是:

False Positive的概率是:

p’表示的概率,k次方表示8hash都为的概率。

?当?k = ln 2 * m/n 时,右边的等式值最小,此时等式转变成:

?

?实现代码(简易版)

?? 下面给出一个简单的Java实现代码:

package org.magnus.utils;
import java.util.BitSet;
//传统的Bloom filter 不支持从集合中删除成员。
//Counting Bloom filter由于采用了计数,因此支持remove操作。
//基于BitSet来实现,性能上可能存在问题
public class SimpleBloomFilter {
    //DEFAULT_SIZE为2的25次方
    private static final int DEFAULT_SIZE = 2 << 24;
    /* 不同哈希函数的种子,一般应取质数,seeds数据共有7个值,则代表采用7种不同的HASH算法 */
    private static final int[] seeds = new int[] { 5,7,11,13,31,37,61 };
    //BitSet实际是由“二进制位”构成的一个Vector。假如希望高效率地保存大量“开-关”信息,就应使用BitSet.
    //BitSet的最小长度是一个长整数(Long)的长度:64位
    private BitSet bits = new BitSet(DEFAULT_SIZE);
    /* 哈希函数对象 */
    private SimpleHash[] func = new SimpleHash[seeds.length];

    public static void main(String[] args) {
       String value = "stone2083@yahoo.cn";
       //定义一个filter,定义的时候会调用构造函数,即初始化七个hash函数对象所需要的信息。
       SimpleBloomFilter filter = new SimpleBloomFilter();
       //判断是否包含在里面。因为没有调用add方法,所以肯定是返回false
       System.out.println(filter.contains(value));
       filter.add(value);
       System.out.println(filter.contains(value));
    }
    //构造函数
    public SimpleBloomFilter() {
       for (int i = 0; i < seeds.length; i++) {
           //给出所有的hash值,共计seeds.length个hash值。共7位。
           //通过调用SimpleHash.hash(),可以得到根据7种hash函数计算得出的hash值。
           //传入DEFAULT_SIZE(最终字符串的长度),seeds[i](一个指定的质数)即可得到需要的那个hash值的位置。
           func[i] = new SimpleHash(DEFAULT_SIZE,seeds[i]);
       }
    }

    // 将字符串标记到bits中,即设置字符串的7个hash值函数为1
    public void add(String value) {
       for (SimpleHash f : func) {
           bits.set(f.hash(value),true);
       }
    }

    //判断字符串是否已经被bits标记
    public boolean contains(String value) {
       //确保传入的不是空值
       if (value == null) {
           return false;
       }
       boolean ret = true;
       //计算7种hash算法下各自对应的hash值,并判断
       for (SimpleHash f : func) {
           //&&是boolen运算符,只要有一个为0,则为0。即需要所有的位都为1,才代表包含在里面。
           //f.hash(value)返回hash对应的位数值
           //bits.get函数返回bitset中对应position的值。即返回hash值是否为0或1。
           ret = ret && bits.get(f.hash(value));
       }
       return ret;
    }
    /* 哈希函数类 */
    public static class SimpleHash {
       //cap为DEFAULT_SIZE的值,即用于结果的最大的字符串长度。
       //seed为计算hash值的一个给定key,具体对应上面定义的seeds数组
       private int cap;
       private int seed;

       public SimpleHash(int cap,int seed) {
           this.cap = cap;
           this.seed = seed;
       }

       //计算hash值的具体算法,hash函数,采用简单的加权和hash
       public int hash(String value) {
           //int的范围最大是2的31次方减1,或超过值则用负数来表示
           int result = 0;
           int len = value.length();
           for (int i = 0; i < len; i++) {
              //数字和字符串相加,字符串转换成为ASCII码
              result = seed * result + value.charAt(i);
              //System.out.println(result+"--"+seed+"*"+result+"+"+value.charAt(i));
           }
       //  System.out.println("result="+result+";"+((cap - 1) & result));
       //  System.out.println(414356308*61+'h');  执行此运算结果为负数,为什么?
           //&是java中的位逻辑运算,用于过滤负数(负数与进算转换成反码进行)。
           return (cap - 1) & result;
       }
    }
}

五:的优点及应用。

1.2????优缺点分析

1.2.1????????优点:

节约缓存空间(空值的映射),不再需要空值映射。

减少数据库或缓存的请求次数。

提升业务的处理效率以及业务隔离性。

?

1.2.2缺点:

存在误判的概率。

传统的不能作删除操作。

?

1.3????使用场景

?????????? 适用于特定场景,能够有效的解决数据库空查问题。

?????????以公司的某小表查询为例,该表每天查询量20亿次左右,且数据库中存在大量的下面的空查:

???????? 目前表中的记录为8w,n的值为,占用空间大小195KB。以type||CONTENT复合键作为key值,假设HASH次数取值为6,0)">误判率为:0.0303%(10000次中存在次误判)HASH次数的最优解为14,当k=14时,误判率为:0.014%(100001-2)

测试过程及结果如下(源代码见附件):

测试场景1:m=1600000;n=80000;最优解k=14;m/n=20;k的次数为:6;1000w数据进行判定:

?

???

测试结果:

2000w数据误判的记录为:3035,误判率约为0.03035%(和理论值0.0303%相差不大)。判断2000万数据的时间为25秒。平均一次判断时间为:2.5微秒。平均一次时间为0.417微秒。

测试场景2:m=1600000;n=80000;最优解k=14;m/n=20;k的次数为:6;数据进行判定:?

?测试结果:
5839,误判率约为0.029%(理论值为0. 0303%)。判断100051:2.550.425微秒。
测试场景3:m=1600000;n=80000;最优解k=14;m/n=20;k的次数为:14;数据进行判定:

??6050.00605%0. 014%100037:3.70.265微秒。?

?

测试场景4:m=1600000;n=80000;最优解k=14;m/n=20;k的次数为:14;数据进行判定:

?12240.00612%0.014%84:4.2时间为0.3微秒。

?

其它测试略。

结论:

测试 m/n K(括号内为最优解) 数据基数 误判数 误判率 理论值 用时(单位:秒) 一次判定时间(单位:微秒) 一次时间.估参考)
1 20 6(14) 1000W 3035 0.03035% 0.0303% 25 2.5 0.417
2 2000W 5839 0.029% 51 2.55 0.425
3 14(14) 605 0.00605% 0.014% 37 3.7 0.265
4 1224 0.00612% 84 4.2 0.3
5 20(14) 914 0.00914% 不计算 48 4.8 0.24
6 1881 0.00941% 99 4.95 0.2475
7 10 77 1000w 517854 0.786% 0.819% 41 4.1 0.59
8 5 33 901411 9.014% 9.2% 31 3.1 1.033
9 2 1(1) 3910726 39.107% 39.3% 29 2.9 2.9
10 2(1) 3961065 39.61% 40% 30 3.0 3.0
11 5(1) 6436696 64.37% 76 7.6 1.52

一次判断时间计算方式为:总时间/总次数

所需时间计算方式为:一次判定时间每次判断需要的数。

所需时间,当执行次数越少,基数越小,误差越大。当一次判断所需的次数越大时,一次时间越精确。

结论:

m/n的比值越大越好,比较越大,误判率会越代,但同时会使用更多的空间成本。

???????? Hash次数增加带来的收益并不大。需要在条件允许的情况下,尽量的扩大m/n的值。

?

六:实施方案思考

适用于一些黑名单垃圾邮件等的过滤。

当位数组较小时,可以作本地jvm缓存。

当位数组较大时,可以做基于tair的缓存,此时可能需要开辟单独的应用来提供查询支持。

此方案,适用的应用场景需要能够容忍,位数组和的延时。



参考1

wiki

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读