加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 百科 > 正文

postgresql – Amazon Redshift如何从s3复制并设置job_id

发布时间:2020-12-13 16:03:59 所属栏目:百科 来源:网络整理
导读:Amazon Redshift提供了使用“复制”命令从s3对象加载表数据的功能.它们是一种使用复制命令的方法,但也为每个插入的行设置了额外的“col = CONSTANT”. 我想在每个复制的行上设置一个job_id(不在源数据中),我认为必须执行几百万个插入,这样每个行都有一个job
Amazon Redshift提供了使用“复制”命令从s3对象加载表数据的功能.它们是一种使用复制命令的方法,但也为每个插入的行设置了额外的“col = CONSTANT”.

我想在每个复制的行上设置一个job_id(不在源数据中),我认为必须执行几百万个插入,这样每个行都有一个job属性,当“copy”获得时,这将是一种耻辱我99%的方式有更好的表现.

也许有一个更聪明的解决方案?

解决方法

如果希望在单个COPY命令中添加的所有行具有相同的job_id值,则可以将数据复制到临时表中,然后将job_id列添加到该表中,然后将登台表中的所有数据插入到最终表中,如:

CREATE TABLE destination_staging (LIKE destination);
ALTER TABLE destination_staging DROP COLUMN job_id;
COPY destination_staging FROM 's3://data/destination/(...)' (...)
ALTER TABLE destination_staging ADD COLUM job_id INT DEFAULT 42;
INSERT INTO destination SELECT * FROM destination_staging ORDER BY sortkey_column;
DROP TABLE destination_staging;
ANALYZE TABLE destination;
VACUUM destination;

ANALYZE和VACUUM不是必需的,但强烈建议更新查询分析器并将所有新数据放入正确的位置.

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读