
Orchestrierung
States, Targets und Module in Abhängigkeit bringen
Mit der Orchestrierung können Sie wiederkehrende Aufgaben bündeln und das Zusammenspiel von States und Minions definieren. In einer Orchestrierungsdatei bestimmen Sie, welcher Minion was machen, und in welcher Reihenfolge dies geschieht.
https://docs.saltproject.io/en/latest/topics/orchestrate/index.html
# Super simple orchestration exmaple
# /srv/salt/orch/ping.sls
ping:
salt.function:
- name: test.ping
- tgt: '*'
# salt-run state.orchestrate orch.ping
Beispiel Webcluster
#
# Install caddy on all backends in paralell
#
install-backends:
salt.state:
- tgt: backends
- tgt_type: nodegroup
- sls:
- caddy.backend
#
# Install the loadbalancer after the backends
#
install-loadbalancer:
salt.state:
- tgt: loadbalancers
- tgt_type: nodegroup
- sls:
- caddy.loadbalancer
- require:
- salt: install-backends
salt-run state.orchestrate orch.webcluster
Trageting Minions
Ein Targeting per Pillar ist ebenfalls möglich.
install-backends:
salt.state:
- tgt: 'roles:php-backend'
- tgt_type: pillar
- sls:
- caddy.php
Targeting über eine Liste mit Minions-IDs
install-backends:
salt.state:
- tgt:
- minion1
- minion2
- tgt_type: list
- sls:
- caddy.backend
Beispiel Targeting per Minion-ID und Regex.
#
# Install caddy on all backends in paralell
#
install-backends:
salt.state:
- tgt: webserver[2,3]
- sls:
- caddy.backend
#
# Install caddy on all backends
# but one after another
#
{% for minion in pillar['master']['nodegroups']['backends'] %}
install-backend-{{ minion }}:
salt.state:
- tgt: {{ minion }}
- sls:
- caddy.backend
- require_in:
- salt: install-loadbalancer
{% endfor %}
#
# Install the loadbalancer after the backends
#
install-loadbalancer:
salt.state:
- tgt: loadbalancers
- tgt_type: nodegroup
- sls:
- caddy.loadbalancer
Master local execute
per Orchestrierung gibt es die Möglichkeit, Kommandos und Module direkt auf dem Master auszuführen. Diese werden nicht über den ggf. auf dem Master installieren Minion ausgeführt.
date>/tmp/master.txt:
cmd.run: []
Beispiel Rsync Backup
Vorbereitungen auf dem Master
mkdir /srv/salt/backup
useradd -s /bin/sh -r -m -b /var/lib/ rsync
mkdir /var/lib/rsync/.ssh
chown -R rsync:rsync /var/lib/rsync/
chmod 0700 /var/lib/rsync/.ssh/
chsh -s /bin/bash salt
echo 'salt ALL=(ALL) NOPASSWD:ALL' > /etc/sudoers.d/salt
... snip
Port 22
Port 2000
#AddressFamily any
#ListenAddress 0.0.0.0
#ListenAddress ::
... snap
Ablauf der Orchestrierung
Auf einer Gruppe Minions wird per State ein Rsync Backup angestoßen
Die Minions bekommen temporär einen privaten SSH Key zur Verfügung gestellt
Mit dem Key "schieben" die Minions das Backup per Rsync+SSH zum Master
Der Private Key wird gelöscht
Der Master schließt nachdem alle Minions das Backup beendet haben den Port 2000 wieder.
#
# Create new ssh keys for each run of the backup
#
gen-tmp-keys:
cmd.run:
- name: |
test -e id_ed25519 && rm -f id_ed25519
test -e id_ed25519.pub && rm -f id_ed25519.pub
ssh-keygen -q -t ed25519 -N "" -f ./id_ed25519
sudo cp id_ed25519.pub /var/lib/rsync/.ssh/authorized_keys
sudo chown rsync:rsync /var/lib/rsync/.ssh/authorized_keys
sudo chmod 0600 /var/lib/rsync/.ssh/authorized_keys
- cwd: /srv/salt/backup
#
# Open the firewall
#
open-ufw:
cmd.run:
- name: ufw allow 2000
- require:
- cmd: gen-tmp-keys
#
# Perform the backup via a state
#
backup:
salt.state:
- tgt: minion*
- sls:
- backup
- require:
- cmd: open-ufw
#
# Close the firewall again
#
close-ufw:
cmd.run:
- name: ufw deny 2000
#
# Copy the private key
#
/root/.backup.key:
file.managed:
- source: salt://backup/id_ed25519
- mode: 0600
#
# Execute the backup
#
backup:
cmd.run:
- name: >
rsync -aq --numeric-ids
-e "ssh -i .backup.key -o StrictHostKeyChecking=no -p 2000"
/etc /root
rsync@192.168.122.1:~/{{ grains['id'] }}/
- cwd: /root
#
# Destroy the key
#
destroy:
cmd.run:
- name: |
shred -n1 /root/.backup.key
rm -f /root/.backup.key
Last updated