加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 百科 > 正文

postgresql – 使用pg_dump和大量的表格?

发布时间:2020-12-13 16:22:48 所属栏目:百科 来源:网络整理
导读:我正在处理一个可以拥有数千个表的数据库系统.问题是,当我尝试使用pg_dump备份它时,我有时会收到以下错误: pg_dump: WARNING: out of shared memorypg_dump: SQL command failedpg_dump: Error message from server: ERROR: out of shared memoryHINT: You
我正在处理一个可以拥有数千个表的数据库系统.问题是,当我尝试使用pg_dump备份它时,我有时会收到以下错误:
pg_dump: WARNING:  out of shared memory
pg_dump: SQL command failed
pg_dump: Error message from server: ERROR:  out of shared memory
HINT:  You might need to increase max_locks_per_transaction.
pg_dump: The command was: LOCK TABLE public.foo IN ACCESS SHARE MODE

我当然可以增加max_locks_per_transaction设置.但问题是表的数量可能会有所不同.每次出现故障时我都不想经常重新访问此设置(假设我们完全注意到故障,因为这是在cron工作中!).

解决这个问题的最佳方法是什么?目前我正在研究一个Perl脚本,它将列出所有表,然后在“chunks”中调用pg_dump以限制表锁的数量,但我敢打赌我可以做得更好.

如果需要一致的备份,则必须增加max_locks_per_transaction.

如果您具有并发访问权限,那么从脚本中执行此操作将使备份不一致,这可能不是您想要的.

您的另一个选择是使用PITR并执行文件系统级备份.这不会在数据库中取出任何锁.

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读