comment déplacer les données elasticsearch d'un serveur à un autre

94

Comment déplacer des données Elasticsearch d'un serveur à un autre?

J'ai le serveur A en cours d'exécution Elasticsearch 1.1.1 sur un nœud local avec plusieurs index. Je souhaite copier ces données sur le serveur B exécutant Elasticsearch 1.3.4

Procédure jusqu'à présent

  1. Arrêtez ES sur les deux serveurs et
  2. scp toutes les données dans le répertoire de données correct sur le nouveau serveur. (les données semblent se trouver dans / var / lib / elasticsearch / sur mes boîtes Debian)
  3. modifier les autorisations et la propriété en elasticsearch: elasticsearch
  4. démarrer le nouveau serveur ES

Quand je regarde le cluster avec le plugin ES head, aucun index n'apparaît.

Il semble que les données ne soient pas chargées. Est-ce que je manque quelque chose?

Jabb
la source
2
Par données, si vous voulez dire des index, vous pouvez simplement déplacer le dossier index dans le dossier elasticsearch / data / <clustername> / nodes / <node id> vers le nouvel emplacement correspondant. Il s'agit de la structure de répertoires elasticsearch sous Windows. Je ne sais pas si c'est la même chose sur Debian. Mais l'idée est que vous pouvez déplacer directement les répertoires d'index d'un cluster à un autre en supposant que la compatibilité n'est pas rompue.
bittusarkar
1
Êtes-vous sûr que ES 1.1.1 et ES 1.3.4 utilisent la même version de lucene? Cela peut provoquer un problème de compatibilité. De plus, il n'y a aucune garantie que les métadonnées ES seront les mêmes. Je suggérerais de faire la copie par programmation. Copiez d'abord les schémas d'index, puis importez les données.
Zouzias

Réponses:

125

La réponse sélectionnée la rend légèrement plus complexe qu'elle ne l'est, ce dont vous avez besoin (installez d'abord npm sur votre système).

npm install -g elasticdump
elasticdump --input=http://mysrc.com:9200/my_index --output=http://mydest.com:9200/my_index --type=mapping
elasticdump --input=http://mysrc.com:9200/my_index --output=http://mydest.com:9200/my_index --type=data

Vous pouvez ignorer la première commande Elasticdump pour les copies suivantes si les mappages restent constants.

Je viens de faire une migration d'AWS vers Qbox.io avec ce qui précède sans aucun problème.

Plus de détails sur:

https://www.npmjs.com/package/elasticdump

Page d'aide (à partir de février 2016) incluse par souci d'exhaustivité:

elasticdump: Import and export tools for elasticsearch

Usage: elasticdump --input SOURCE --output DESTINATION [OPTIONS]

--input
                    Source location (required)
--input-index
                    Source index and type
                    (default: all, example: index/type)
--output
                    Destination location (required)
--output-index
                    Destination index and type
                    (default: all, example: index/type)
--limit
                    How many objects to move in bulk per operation
                    limit is approximate for file streams
                    (default: 100)
--debug
                    Display the elasticsearch commands being used
                    (default: false)
--type
                    What are we exporting?
                    (default: data, options: [data, mapping])
--delete
                    Delete documents one-by-one from the input as they are
                    moved.  Will not delete the source index
                    (default: false)
--searchBody
                    Preform a partial extract based on search results
                    (when ES is the input,
                    (default: '{"query": { "match_all": {} } }'))
--sourceOnly
                    Output only the json contained within the document _source
                    Normal: {"_index":"","_type":"","_id":"", "_source":{SOURCE}}
                    sourceOnly: {SOURCE}
                    (default: false)
--all
                    Load/store documents from ALL indexes
                    (default: false)
--bulk
                    Leverage elasticsearch Bulk API when writing documents
                    (default: false)
--ignore-errors
                    Will continue the read/write loop on write error
                    (default: false)
--scrollTime
                    Time the nodes will hold the requested search in order.
                    (default: 10m)
--maxSockets
                    How many simultaneous HTTP requests can we process make?
                    (default:
                      5 [node <= v0.10.x] /
                      Infinity [node >= v0.11.x] )
--bulk-mode
                    The mode can be index, delete or update.
                    'index': Add or replace documents on the destination index.
                    'delete': Delete documents on destination index.
                    'update': Use 'doc_as_upsert' option with bulk update API to do partial update.
                    (default: index)
--bulk-use-output-index-name
                    Force use of destination index name (the actual output URL)
                    as destination while bulk writing to ES. Allows
                    leveraging Bulk API copying data inside the same
                    elasticsearch instance.
                    (default: false)
--timeout
                    Integer containing the number of milliseconds to wait for
                    a request to respond before aborting the request. Passed
                    directly to the request library. If used in bulk writing,
                    it will result in the entire batch not being written.
                    Mostly used when you don't care too much if you lose some
                    data when importing but rather have speed.
--skip
                    Integer containing the number of rows you wish to skip
                    ahead from the input transport.  When importing a large
                    index, things can go wrong, be it connectivity, crashes,
                    someone forgetting to `screen`, etc.  This allows you
                    to start the dump again from the last known line written
                    (as logged by the `offset` in the output).  Please be
                    advised that since no sorting is specified when the
                    dump is initially created, there's no real way to
                    guarantee that the skipped rows have already been
                    written/parsed.  This is more of an option for when
                    you want to get most data as possible in the index
                    without concern for losing some rows in the process,
                    similar to the `timeout` option.
--inputTransport
                    Provide a custom js file to us as the input transport
--outputTransport
                    Provide a custom js file to us as the output transport
--toLog
                    When using a custom outputTransport, should log lines
                    be appended to the output stream?
                    (default: true, except for `$`)
--help
                    This page

Examples:

# Copy an index from production to staging with mappings:
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=http://staging.es.com:9200/my_index \
  --type=mapping
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=http://staging.es.com:9200/my_index \
  --type=data

# Backup index data to a file:
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=/data/my_index_mapping.json \
  --type=mapping
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=/data/my_index.json \
  --type=data

# Backup and index to a gzip using stdout:
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=$ \
  | gzip > /data/my_index.json.gz

# Backup ALL indices, then use Bulk API to populate another ES cluster:
elasticdump \
  --all=true \
  --input=http://production-a.es.com:9200/ \
  --output=/data/production.json
elasticdump \
  --bulk=true \
  --input=/data/production.json \
  --output=http://production-b.es.com:9200/

# Backup the results of a query to a file
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=query.json \
  --searchBody '{"query":{"term":{"username": "admin"}}}'

------------------------------------------------------------------------------
Learn more @ https://github.com/taskrabbit/elasticsearch-dump`enter code here`
cazcade_neil
la source
J'ai essayé ceci mais j'obtiens un "Error Emitted => connect ECONNREFUSED" à chaque fois.
Vagabond
4
comment appliquer l'authentification de base?
Mohd Shahid
Attention, il ne prend pas encore en charge Elasticsearch 5: github.com/taskrabbit/elasticsearch-dump/issues/259
Ortomala Lokni
@OrtomalaLokni semble que la prise en charge de 5.x soit maintenant disponible: github.com/taskrabbit/elasticsearch-dump/pull/268
Beau
J'ai défini l'authentification pour elasticsearch, pouvez-vous me dire comment passer le nom d'utilisateur et le mot de passe dans la commande avec l'emplacement d'entrée et de sortie?
The Gr8 Adakron le
42

Utiliser ElasticDump

1) yum installer epel-release

2) yum install nodejs

3) miam installer npm

4) npm installe Elasticdump

5) cd node_modules / élastiquedump / bin

6)

./elasticdump \

  --input=http://192.168.1.1:9200/original \

  --output=http://192.168.1.2:9200/newCopy \

  --type=data
Chris
la source
C'est à ce moment que les données doivent être transférées d'un emplacement à l'autre mais sur le même serveur. Que faire si les données doivent être transférées vers deux emplacements de serveur différents avec deux adresses IP différentes?
Vagabond
2
@tramp c'est 2 adresses IP différentes
de Raad
1
Attention, il ne prend pas encore en charge Elasticsearch 5: github.com/taskrabbit/elasticsearch-dump/issues/259
Ortomala Lokni
2
On dirait qu'Elasticsearch 5 est maintenant pris en charge github.com/taskrabbit/elasticsearch-dump/pull/268
hayduke
6

J'ai essayé sur ubuntu de déplacer les données d'ELK 2.4.3 vers ELK 5.1.1

Voici les étapes

$ sudo apt-get update

$ sudo apt-get install -y python-software-properties python g++ make

$ sudo add-apt-repository ppa:chris-lea/node.js

$ sudo apt-get update

$ sudo apt-get install npm

$ sudo apt-get install nodejs

$ npm install colors

$ npm install nomnom

$ npm install elasticdump

dans le répertoire personnel aller

$ cd node_modules/elasticdump/

exécuter la commande

Si vous avez besoin d'une authentification http basique, vous pouvez l'utiliser comme ceci:

--input=http://name:password@localhost:9200/my_index

Copiez un index de la production:

$ ./bin/elasticdump --input="http://Source:9200/Sourceindex" --output="http://username:password@Destination:9200/Destination_index"  --type=data
Akshay Patil
la source
C'est bon. Assurez-vous simplement de l'exécuter sudo apt-get install -y software-properties-commonavant add-apt-repository
Sahas le
j'espère qu'il mérite +1
Akshay Patil
5

Il y a aussi l' _reindexoption

De la documentation:

Grâce à l'API de réindexation Elasticsearch, disponible dans les versions 5.x et ultérieures, vous pouvez connecter à distance votre nouveau déploiement Elasticsearch Service à votre ancien cluster Elasticsearch. Cela extrait les données de votre ancien cluster et les indexe dans votre nouveau. La réindexation reconstruit essentiellement l'index à partir de zéro et son exécution peut être plus gourmande en ressources.

POST _reindex
{
  "source": {
    "remote": {
      "host": "https://REMOTE_ELASTICSEARCH_ENDPOINT:PORT",
      "username": "USER",
      "password": "PASSWORD"
    },
    "index": "INDEX_NAME",
    "query": {
      "match_all": {}
    }
  },
  "dest": {
    "index": "INDEX_NAME"
  }
}
mido
la source
4

Si vous pouvez ajouter le deuxième serveur au cluster, vous pouvez le faire:

  1. Ajouter le serveur B au cluster avec le serveur A
  2. Incrémenter le nombre de répliques pour les indices
  3. ES copiera automatiquement les index sur le serveur B
  4. Fermer le serveur A
  5. Décrémenter le nombre de répliques pour les indices

Cela ne fonctionnera que si le nombre de remplacements est égal au nombre de nœuds.

AndreyP
la source
3
Je pense que cela ne fonctionnera pas lorsque les versions sont différentes (comme c'est le cas dans la question d'OP)
WoJ
Sûr. Je travaille maintenant sur la migration de mes données vers ESv5 depuis ESv1.7. Mon option ne fonctionnera pas pour cela, car beaucoup de choses ont changé dans les mappages.
AndreyP
3

Si quelqu'un rencontre le même problème, lorsque vous essayez de vider d'elasticsearch <2.0 vers> 2.0, vous devez faire:

elasticdump --input=http://localhost:9200/$SRC_IND --output=http://$TARGET_IP:9200/$TGT_IND --type=analyzer
elasticdump --input=http://localhost:9200/$SRC_IND --output=http://$TARGET_IP:9200/$TGT_IND --type=mapping
elasticdump --input=http://localhost:9200/$SRC_IND --output=http://$TARGET_IP:9200/$TGT_IND --type=data --transform "delete doc.__source['_id']"
Regnoult
la source
1

J'ai toujours réussi à copier simplement le répertoire / dossier d'index sur le nouveau serveur et à le redémarrer. Vous trouverez l'identifiant d'index en faisant GET /_cat/indiceset le dossier correspondant à cet identifiant se trouve data\nodes\0\indices(généralement dans votre dossier elasticsearch, sauf si vous l'avez déplacé).

Marc
la source
1

Nous pouvons utiliser elasticdumpou multielasticdumpprendre la sauvegarde et la restaurer, nous pouvons déplacer des données d'un serveur / cluster vers un autre serveur / cluster.

Veuillez trouver une réponse détaillée que j'ai fournie ici .

Keshav Lodhi
la source
0

Si vous avez simplement besoin de transférer des données d'un serveur elasticsearch à un autre, vous pouvez également utiliser elasticsearch-document-transfer .

Pas:

  1. Ouvrez un répertoire dans votre terminal et exécutez
    $ npm install elasticsearch-document-transfer.
  2. Créer un fichier config.js
  3. Ajoutez les détails de connexion des deux serveurs elasticsearch dans config.js
  4. Définissez les valeurs appropriées dans options.js
  5. Courir dans le terminal
    $ node index.js
mascarade817
la source
0

Vous pouvez prendre un instantané de l'état complet de votre cluster (y compris tous les index de données) et les restaurer (à l'aide de l'API de restauration) dans le nouveau cluster ou serveur.

sgalinma
la source