[求助]es 数据本地向阿里云 es 迁移问题

2019-10-24 13:14:41 +08:00
 foxyier
RT
现在有需求把本地 elasticsearch 的一个索引(26G 的数据,接近 300W 数据)迁移到阿里云的 elasticsearch 中, 但是使用 logstash 只能迁移 1W 条数据, 请问如何把索引中的所有数据都迁移过去?

logstash 配置文件:
input {
elasticsearch {
hosts => ["1.1.1.1:9200"] #老 ES 集群访问地址
index => "book_2019-10" #需要同步的索引名称
size => 10000
scroll => "1m"
codec => "json"
docinfo => true
}
}

output {
elasticsearch {
hosts => ["2.2.2.2:9200"] #阿里云 ES 访问地址
user => "elastic" #默认为 elastic
password => "123456789" #购买阿里云 ES 界面中指定的密码,或初始化 Kibana 时指定的密码
index => "book_2019-10" #在新 ES 集群中的索引名
document_type => "%{[@metadata][_type]}"
document_id => "%{[@metadata][_id]}"
template => "/logstash/template/book.json"
template_name => "book*"
template_overwrite => true
doc_as_upsert => true
}
stdout { codec => rubydebug { metadata => true } }

}
3592 次点击
所在节点    Elasticsearch
4 条回复
Ehco1996
2019-10-24 13:29:58 +08:00
阿里云版的 es 有个 oss 快照备份还原功能

先在本地把数据存进 oss
aaronchou0
2019-10-24 13:36:56 +08:00
这么点数据 reindex 都可以了。你要嫌慢可以用 elasticdump
foxyier
2019-10-24 14:04:06 +08:00
@aaronchou0 用 elasticdump 试了一下。。特别特别慢..有没有什么办法能快一点呢
aaronchou0
2019-10-25 11:14:58 +08:00
@foxyier 26G esdump 2、30 分钟吧,主要看 es 性能。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/612493

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX