如何将elasticsearch数据从一个服务器移动到另一个服务器

时间:2014-10-24 12:07:36

标签: elasticsearch

如何将Elasticsearch数据从一台服务器移动到另一台服务器?

我在一个有多个索引的本地节点上有服务器正在运行的Elasticsearch 1.1.1 。 我想将该数据复制到服务器 B运行Elasticsearch 1.3.4

到目前为止的程序

  1. 关闭两台服务器上的ES和
  2. 将所有数据scp到新服务器上的正确数据目录。 (数据似乎位于/ var / lib / elasticsearch /在我的debian框中)
  3. 将权限和所有权更改为elasticsearch:elasticsearch
  4. 启动新的ES服务器
  5. 当我使用ES头插件查看群集时,不会显示任何索引。

    似乎没有加载数据。我错过了什么吗?

12 个答案:

答案 0 :(得分:95)

选择的答案听起来比它稍微复杂一点,以下是您所需要的(在您的系统上首先安装npm)。

npm install -g elasticdump
elasticdump --input=http://mysrc.com:9200/my_index --output=http://mydest.com:9200/my_index --type=mapping
elasticdump --input=http://mysrc.com:9200/my_index --output=http://mydest.com:9200/my_index --type=data

如果映射保持不变,则可以跳过第一个elasticdump命令用于后续副本。

我刚刚完成了从AWS到Qbox.io的迁移,没有任何问题。

详情请见:

https://www.npmjs.com/package/elasticdump

包含完整性的帮助页面(截至2016年2月):

elasticdump: Import and export tools for elasticsearch

Usage: elasticdump --input SOURCE --output DESTINATION [OPTIONS]

--input
                    Source location (required)
--input-index
                    Source index and type
                    (default: all, example: index/type)
--output
                    Destination location (required)
--output-index
                    Destination index and type
                    (default: all, example: index/type)
--limit
                    How many objects to move in bulk per operation
                    limit is approximate for file streams
                    (default: 100)
--debug
                    Display the elasticsearch commands being used
                    (default: false)
--type
                    What are we exporting?
                    (default: data, options: [data, mapping])
--delete
                    Delete documents one-by-one from the input as they are
                    moved.  Will not delete the source index
                    (default: false)
--searchBody
                    Preform a partial extract based on search results
                    (when ES is the input,
                    (default: '{"query": { "match_all": {} } }'))
--sourceOnly
                    Output only the json contained within the document _source
                    Normal: {"_index":"","_type":"","_id":"", "_source":{SOURCE}}
                    sourceOnly: {SOURCE}
                    (default: false)
--all
                    Load/store documents from ALL indexes
                    (default: false)
--bulk
                    Leverage elasticsearch Bulk API when writing documents
                    (default: false)
--ignore-errors
                    Will continue the read/write loop on write error
                    (default: false)
--scrollTime
                    Time the nodes will hold the requested search in order.
                    (default: 10m)
--maxSockets
                    How many simultaneous HTTP requests can we process make?
                    (default:
                      5 [node <= v0.10.x] /
                      Infinity [node >= v0.11.x] )
--bulk-mode
                    The mode can be index, delete or update.
                    'index': Add or replace documents on the destination index.
                    'delete': Delete documents on destination index.
                    'update': Use 'doc_as_upsert' option with bulk update API to do partial update.
                    (default: index)
--bulk-use-output-index-name
                    Force use of destination index name (the actual output URL)
                    as destination while bulk writing to ES. Allows
                    leveraging Bulk API copying data inside the same
                    elasticsearch instance.
                    (default: false)
--timeout
                    Integer containing the number of milliseconds to wait for
                    a request to respond before aborting the request. Passed
                    directly to the request library. If used in bulk writing,
                    it will result in the entire batch not being written.
                    Mostly used when you don't care too much if you lose some
                    data when importing but rather have speed.
--skip
                    Integer containing the number of rows you wish to skip
                    ahead from the input transport.  When importing a large
                    index, things can go wrong, be it connectivity, crashes,
                    someone forgetting to `screen`, etc.  This allows you
                    to start the dump again from the last known line written
                    (as logged by the `offset` in the output).  Please be
                    advised that since no sorting is specified when the
                    dump is initially created, there's no real way to
                    guarantee that the skipped rows have already been
                    written/parsed.  This is more of an option for when
                    you want to get most data as possible in the index
                    without concern for losing some rows in the process,
                    similar to the `timeout` option.
--inputTransport
                    Provide a custom js file to us as the input transport
--outputTransport
                    Provide a custom js file to us as the output transport
--toLog
                    When using a custom outputTransport, should log lines
                    be appended to the output stream?
                    (default: true, except for `$`)
--help
                    This page

Examples:

# Copy an index from production to staging with mappings:
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=http://staging.es.com:9200/my_index \
  --type=mapping
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=http://staging.es.com:9200/my_index \
  --type=data

# Backup index data to a file:
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=/data/my_index_mapping.json \
  --type=mapping
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=/data/my_index.json \
  --type=data

# Backup and index to a gzip using stdout:
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=$ \
  | gzip > /data/my_index.json.gz

# Backup ALL indices, then use Bulk API to populate another ES cluster:
elasticdump \
  --all=true \
  --input=http://production-a.es.com:9200/ \
  --output=/data/production.json
elasticdump \
  --bulk=true \
  --input=/data/production.json \
  --output=http://production-b.es.com:9200/

# Backup the results of a query to a file
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=query.json \
  --searchBody '{"query":{"term":{"username": "admin"}}}'

------------------------------------------------------------------------------
Learn more @ https://github.com/taskrabbit/elasticsearch-dump`enter code here`

答案 1 :(得分:39)

使用ElasticDump

1)yum install epel-release

2)yum install nodejs

3)yum install npm

4)npm install elasticdump

5)cd node_modules / elasticdump / bin

6)

./elasticdump \

  --input=http://192.168.1.1:9200/original \

  --output=http://192.168.1.2:9200/newCopy \

  --type=data

答案 2 :(得分:21)

您可以使用Elasticsearch中提供的snapshot/restore功能。一旦设置了基于文件系统的快照存储,就可以在群集之间移动它并在不同的群集上进行恢复

答案 3 :(得分:6)

我尝试使用ubuntu将数据从ELK 2.4.3移动到ELK 5.1.1

以下是步骤

$ sudo apt-get update

$ sudo apt-get install -y python-software-properties python g++ make

$ sudo add-apt-repository ppa:chris-lea/node.js

$ sudo apt-get update

$ sudo apt-get install npm

$ sudo apt-get install nodejs

$ npm install colors

$ npm install nomnom

$ npm install elasticdump

在主目录goto中 $ cd node_modules/elasticdump/

执行命令

如果您需要基本的http auth,可以像这样使用它:

--input=http://name:password@localhost:9200/my_index

从生产中复制索引:

$ ./bin/elasticdump --input="http://Source:9200/Sourceindex" --output="http://username:password@Destination:9200/Destination_index" --type=data

答案 4 :(得分:3)

如果您可以将第二台服务器添加到群集,您可以这样做:

  1. 将服务器B添加到具有服务器A的群集
  2. 增加索引副本的数量
  3. ES会自动将索引复制到服务器B
  4. 关闭服务器A
  5. 减少指数的副本数量
  6. 仅当替换次数等于节点数时才会起作用。

答案 5 :(得分:1)

我一直很成功,只需将索引目录/文件夹复制到新服务器并重新启动它即可。您将通过执行GET /_cat/indices找到索引ID,并且与此ID匹配的文件夹位于data\nodes\0\indices中(除非将其移动,否则通常在您的elasticsearch文件夹中)。

答案 6 :(得分:1)

我们可以使用elasticdumpmultielasticdump进行备份并还原,我们可以将数据从一个服务器/群集移动到另一服务器/群集。

请找到我提供的详细答案 here

答案 7 :(得分:0)

如果有人遇到同样的问题,那么当您尝试从elasticsearch&lt; 2.0转储到&gt; 2.0时,您需要执行以下操作:

beanshell

答案 8 :(得分:0)

如果仅需要将数据从一台Elasticsearch服务器传输到另一台,则也可以使用elasticsearch-document-transfer

步骤:

  1. 在终端中打开目录并运行
    $ npm install elasticsearch-document-transfer.
  2. 创建文件config.js
  3. config.js中添加两个Elasticsearch服务器的连接详细信息
  4. options.js
  5. 中设置适当的值
  6. 在终端中运行
    $ node index.js

答案 9 :(得分:0)

还有_reindex选项

摘自文档:

  

通过5.x及更高版本中提供的Elasticsearch重新索引API,您可以将新的Elasticsearch Service部署远程连接到旧的Elasticsearch集群。这将从旧群集中提取数据,并将其索引到新群集中。重新索引本质上是从头开始重建索引,运行起来可能会占用更多资源。

POST _reindex
{
  "source": {
    "remote": {
      "host": "https://REMOTE_ELASTICSEARCH_ENDPOINT:PORT",
      "username": "USER",
      "password": "PASSWORD"
    },
    "index": "INDEX_NAME",
    "query": {
      "match_all": {}
    }
  },
  "dest": {
    "index": "INDEX_NAME"
  }
}

答案 10 :(得分:0)

您可以快照化群集的完整状态(包括所有数据索引),并在新的群集或服务器中还原它们(使用还原API)。

答案 11 :(得分:-1)

如果您不想像控制台工具那样使用elasticdump。您可以使用下一个node.js script