加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 编程开发 > Python > 正文

使用Python将数据写入LMDB非常慢

发布时间:2020-12-16 23:43:20 所属栏目:Python 来源:网络整理
导读:用 Caffe创建训练数据集我都尝试使用HDF5和LMDB.但是,创建LMDB非常慢,甚至比HDF5慢.我想写约20,000张图片. 我做错了什么吗?有什么我不知道的吗? 这是我创建LMDB的代码: DB_KEY_FORMAT = "{:010d}"db = lmdb.open(path,map_size=int(1e12)) curr_idx = 0 c
用 Caffe创建训练数据集我都尝试使用HDF5和LMDB.但是,创建LMDB非常慢,甚至比HDF5慢.我想写约20,000张图片.

我做错了什么吗?有什么我不知道的吗?

这是我创建LMDB的代码:

DB_KEY_FORMAT = "{:0>10d}"
db = lmdb.open(path,map_size=int(1e12))
    curr_idx = 0
    commit_size = 1000
    for curr_commit_idx in range(0,num_data,commit_size):
        with in_db_data.begin(write=True) as in_txn:
            for i in range(curr_commit_idx,min(curr_commit_idx + commit_size,num_data)):
                d,l = data[i],labels[i]
                im_dat = caffe.io.array_to_datum(d.astype(float),label=int(l))
                key = DB_KEY_FORMAT.format(curr_idx)
                in_txn.put(key,im_dat.SerializeToString())
                curr_idx += 1
    db.close()

正如您所看到的,我正在为每1,000个图像创建一个事务,因为我认为为每个图像创建一个事务会产生开销,但似乎这不会对性能产生太大影响.

解决方法

根据我的经验,我已经有50-100毫秒写入LMDB从Python写入在Ubuntu上的ext4硬盘上的Caffe数据.这就是我使用tmpfs(Linux内置的RAM磁盘功能)并在0.07毫秒左右完成这些写入的原因.您可以在ramdisk上创建较小的数据库并将它们复制到硬盘上,然后再对所有数据库进行训练.我正在制作大约20-40GB的内存,因为我有64 GB的内存.

一些代码可以帮助您动态创建,填充和移动LMDB到存储.随意编辑它以适合您的情况.它可以节省你一些时间来了解LMDB和文件操作如何在Python中工作.

import shutil
import lmdb
import random


def move_db():
    global image_db
    image_db.close();
    rnd = ''.join(random.choice(string.ascii_uppercase + string.digits) for _ in range(5))
    shutil.move( fold + 'ram/train_images','/storage/lmdb/'+rnd)
    open_db()


def open_db():
    global image_db
    image_db    = lmdb.open(os.path.join(fold,'ram/train_images'),map_async=True,max_dbs=0)

def write_to_lmdb(db,key,value):
    """
    Write (key,value) to db
    """
    success = False
    while not success:
        txn = db.begin(write=True)
        try:
            txn.put(key,value)
            txn.commit()
            success = True
        except lmdb.MapFullError:
            txn.abort()
            # double the map_size
            curr_limit = db.info()['map_size']
            new_limit = curr_limit*2
            print '>>> Doubling LMDB map size to %sMB ...' % (new_limit>>20,)
            db.set_mapsize(new_limit) # double it

...

image_datum                 = caffe.io.array_to_datum( transformed_image,label )
write_to_lmdb(image_db,str(itr),image_datum.SerializeToString())

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读