Docker Swarm
În continuare, vom face tranziția de la Docker Compose la Docker Swarm, orchestratorul de servicii oferit de Docker. Acesta are rolul de a gestiona servicii de Docker pe una sau mai multe mașini într-o rețea (într-un cluster) de mașini fizice și/sau virtuale. Spre deosebire de Docker Compose, care rulează containere pe o singură gazdă, Docker Swarm rulează servicii între mai multe gazde. La fel ca și Compose, Docker Swarm folosește fișiere de configurare YAML.
Arhitectura Docker Swarm
Docker Swarm se bazează pe algoritmul distribuit Raft, cu ajutorul căruia se menține consistentă starea internă a întregului cluster. În plus, traficul dintre nodurile din Swarm este criptat de către Raft. În imaginea de mai jos (preluată din documentația oficială), se poate observa arhitectura unui cluster Docker Swarm.
 
Mașinile gazdă care fac parte dintr-un Swarm se numesc noduri și pot avea două roluri:
- manager - rol administrativ și funcțional; menține consistența clusterului, lansează în execuție servicii, expune endpoint-uri de rețea
- worker - rol funcțional; execută serviciile.
Dintre toate nodurile manager, un singur nod este leader, care are rolul de a crea task-uri și de a face logging. Task-urile sunt distribuite apoi nodurilor manager.
Întotdeauna trebuie să existe un nod leader.
Deoarece toleranța este de (N-1)/2 noduri manager picate, este indicat să avem un număr impar de noduri și un număr impar de manageri. Docker recomanda 3, 5 sau 7 manageri.
Crearea unui Docker Swarm
Odată ce avem un cluster de mașini pe care rulează Docker, ne putem inițializa un Docker Swarm. Astfel, putem rula următoarea comandă pe nodul care va fi leader (opțiunea --advertise-addr este necesară atunci când nodul are mai multe interfețe de rețea și trebuie specificat pe care din ele se face advertising):
$ docker swarm init --advertise-addr 192.168.99.100
 
Swarm initialized: current node (qtyx0t5z275wp46wibcznx8g5) is now a manager.
To add a worker to this swarm, run the following command:
    docker swarm join --token SWMTKN-1-4hd41nyin8kn1wx4bscnnt3e98xtlvyxw578qwxijw65jp1a3q-32rl6525xriofd5xmv0c1k5vj 192.168.99.100:2377
To add a manager to this swarm, run 'docker swarm join-token manager' and follow the instructions.
Așa cum se poate observa, comanda de mai sus generează alte două comenzi pe care le putem folosi pentru a introduce alte noduri în cluster, atât ca worker, cât și ca manager.
Putem verifica dacă swarm-ul a fost creat cu succes dând comanda de mai jos pe mașina leader (unde avem două noduri numite node1 și node2, primul din ele fiind leader, iar al doilea worker):
$ docker node ls
 
ID                            HOSTNAME     STATUS       AVAILABILITY      MANAGER STATUS
qtyx0t5z275wp46wibcznx8g5 *   node1        Ready        Active            Leader
0xbb9al1kuvn0jcapxiqni29z     node2        Ready        Active
Servicii și stive de servicii Docker Swarm
Atunci când vorbim de deployment-ul unei aplicații în Docker Swarm, trecem de la noțiunea de container la noțiunea de serviciu. Un serviciu Docker reprezintă o colecție de task-uri (unul sau mai multe), iar un task reprezintă un container. Așadar, un serviciu este format din unul sau mai multe containere identice. Serviciul controlează ciclul de viață al containerelor, încercând întotdeauna să mențină starea containerelor oferite în configurație. Cu alte cuvinte, un serviciu reprezintă un set de containere cu orchestrare.
Mai departe, o stivă de servicii reprezintă mai multe astfel de servicii grupate în același spațiu de nume. Putem vizualiza o stivă de servicii ca fiind o aplicație Docker formată din mai multe servicii. Cel mai facil mod de a defini o stivă de servicii este prin intermediul unui fișier Docker Compose, așa cum am văzut mai devreme. Comportamentul serviciilor dintr-o stivă este similar cu cel al containerelor din Docker Compose, doar că politica de denumire este diferită.
Orice entitate creată într-o stivă (serviciu, volum, rețea, secret) va fi prefixată de NUME-STIVA_.
Docker Swarm are acces la o colecție nouă de opțiuni în cadrul fișierului YAML de Compose, ce vor fi trecute în proprietatea deploy a unui serviciu. Snippet-ul de mai jos prezintă un fragment de fișier Docker Compose unde se exemplifică o parte din aceste opțiuni noi:
[...]
services:
  web:
    image: myimage
    deploy:
      replicas: 4
      resources:
        limits:
          cpus: "0.2"
          memory: 50M
      restart_policy:
        condition: on-failure
[...]
În fragmentul de fișier YAML de mai sus, se rulează un serviciu numit web care are patru copii. Astfel, vor exista patru containere diferite care rulează imaginea myimage, oricare din ele putând răspunde la cereri pentru serviciul web, în funcție de încărcare. De asemenea, fiecare instanță este limitată la 20% CPU (pe toate core-urile) și 50 MB de RAM. Nu în ultimul rând, un container al serviciului web se restartează imediat ce întâlnește o eroare (scopul final fiind ca, la orice moment de timp, să existe 4 copii ale containerului în rețea).
Rețele Swarm
Spre deosebire de Docker clasic și Compose, rețelele create în Swarm nu mai sunt de tip bridge, ci de tip overlay. O rețea de tip overlay este o rețea care se întinde peste toate nodurile dintr-un swarm. Din acest motiv, porturile publice expuse vor fi unice per rețea. Așadar, nu pot fi expuse două porturi 3000 din două servicii diferite care se conectează la aceeași rețea overlay.
Docker Swarm realizează balansare a încărcării la nivelul rețelei.
Un serviciu la care s-a făcut deploy pe un anumit port totdeauna va avea acel port rezervat, indiferent pe ce nod rulează de fapt containerul sau containerele sale. Diagrama de mai jos (preluată din documentația oficială) prezintă o situație în care avem un serviciu numit my-web publicat pe portul 8080 într-un cluster cu trei noduri. Se poate observa că, dacă ne conectăm pe portul 8080 de pe oricare adresă IP de nod din cluster, vom fi redirecționați către un container care rulează serviciul specific portului extern 8080, indiferent de nodul pe care rulează.
 
Secrete Swarm
Secretele din Swarm trebuie create înainte de a fi rulată configurația. Putem folosi următoarea comandă:
$ docker secret create mysecret file.txt
 
fm49ig0i8x9pdq0xxa8wdchoy
Putem lista secretele existente astfel:
$ docker secret ls
 
ID                          NAME       DRIVER    CREATED         UPDATED
fm49ig0i8x9pdq0xxa8wdchoy   mysecret             3 seconds ago   3 seconds ago
Secretele din Swarm sunt criptate în Raft și deci este recomandat să fie folosite în producție.
Diferențe între Docker Swarm și Docker Compose
Exista câteva diferențe între Swarm și Compose la nivelul fișierelor declarative YAML:
- deoarece Swarm rulează servicii în rețea, nu poate exista cuvântul-cheie build; serviciile trebuie obligatoriu să fie rulate pe baza unor imagini deja existente într-un registru
- stivele de servicii nu accepta fișiere .env (spre deosebire de Docker Compose)
- Docker Compose rulează containere în mod single-host, pe când Docker Swarm orchestrează servicii în mod multi-host.
Pornirea unei stive de servicii în Docker Swarm
Odată ce swarm-ul Docker a fost creat și inițializat, comanda prin care se face deployment la o stivă de servicii este următoarea (unde configurația se găsește în fișierul my_stack.yml, iar numele stivei va fi lab2):
$ docker stack deploy -c my_stack.yml lab2
Dacă folosim un registru diferit de Docker (precum GitLab Container Registry), este nevoie să fim autentificați și să adăugăm opțiunea -–with-registry-auth atunci când lansăm o stivă de servicii.
Odată ce o stivă de servicii a fost pornită, putem să îi vedem statusul prin următoarea comandă:
$ docker stack ps lab2
ID             NAME                   IMAGE                                   NODE      DESIRED STATE    CURRENT STATE           ERROR               PORTS
cuktma92gm62   lab2_adminer.1         adminer:latest                          myvm2     Running          Running 9 minutes ago                       
njak2qzaobtt   lab2_db.1              postgres:12                             myvm1     Running          Running 8 minutes ago                       
m811buil7e63   lab2_io-service.1      mobylab/idp-laborator2-io:latest        myvm1     Running          Running 9 minutes ago                       
jnfw37e34kz3   lab2_books-service.1   mobylab/idp-laborator2-books:latest     myvm1     Running          Running 9 minutes ago                       
pzlzkgsxxc00   lab2_gateway.1         mobylab/idp-laborator2-gateway:latest   myvm2     Running          Running 9 minutes ago                       
kpaahb931rbq   lab2_io-service.2      mobylab/idp-laborator2-io:latest        myvm1     Running          Running 9 minutes ago                       
num87yijgxrg   lab2_books-service.2   mobylab/idp-laborator2-books:latest     myvm2     Running          Running 9 minutes ago                       
d9m63k9h7ium   lab2_gateway.2         mobylab/idp-laborator2-gateway:latest   myvm1     Running          Running 9 minutes ago                       
lkmy60wpy0gv   lab2_io-service.3      mobylab/idp-laborator2-io:latest        myvm2     Running          Running 9 minutes ago                       
fy21iizn0reb   lab2_gateway.3         mobylab/idp-laborator2-gateway:latest   myvm2     Running          Running 9 minutes ago
De asemenea, putem vedea lista de stive pornite astfel:
$ docker stack ls
NAME      SERVICES      ORCHESTRATOR
lab2      5             Swarm
Putem vedea lista de servicii (din toate stivele pornite) astfel:
$ docker service ls
ID               NAME                 MODE           REPLICAS               IMAGE                                  PORTS
dekzzyais8g7     lab2_adminer         replicated     1/1                    adminer:latest                         *:8080->8080/tcp
74y84hvq4irn     lab2_books-service   replicated     2/2 (max 1 per node)   mobylab/idp-laborator2-books:latest     
ns9mxet1rkx5     lab2_db              replicated     1/1                    postgres:12                             
dh3sv3q74fy6     lab2_gateway         replicated     3/3 (max 2 per node)   mobylab/idp-laborator2-gateway:latest  *:3000->80/tcp
ru0rd7g2ypu8     lab2_io-service      replicated     3/3 (max 2 per node)   mobylab/idp-laborator2-io:latest
Deployment-ul unui cluster Docker
În cadrul laboratoarelor de IDP, avem două variante principale cu ajutorul cărora putem să ne creăm un cluster Docker format din mai multe mașini: Docker Machine sau Play with Docker.
Docker Machine
Recent, Docker Machine a devenit deprecated, deci cei de la Docker nu mai mențin acest proiect. Puteți totuși testa un deployment multi-nod folosind Docker Machine, dar vă recomandăm varianta Play with Docker sau un cluster propriu (fizic sau virtual).
Docker Machine este un utilitar care permite rularea Docker Engine pe gazde virtuale (atât local, cât și în cloud, la provideri ca AWS, Azure sau DigitalOcean), precum și gestiunea facilă a acestora din terminal. Docker Machine trebuie instalat separat de Docker, conform documentației oficiale.
În Docker Machine, putem folosi drivere pentru a crea noduri virtuale configurate pentru a rula Docker. Exista drivere pentru a crea noduri direct în cloud, dar și drivere pentru a crea mașini virtuale pe gazda locală. În exemplul de mai jos, se creează un nod virtual local folosind driverul pentru VirtualBox:
$ docker-machine create --driver virtualbox myvm1
Running pre-create checks...
Creating machine...
(myvm1) Copying /home/radu/.docker/machine/cache/boot2docker.iso to /home/radu/.docker/machine/machines/myvm1/boot2docker.iso...
(myvm1) Creating VirtualBox VM...
(myvm1) Creating SSH key...
(myvm1) Starting the VM...
(myvm1) Check network to re-create if needed...
(myvm1) Waiting for an IP...
Waiting for machine to be running, this may take a few minutes...
Detecting operating system of created instance...
Waiting for SSH to be available...
Detecting the provisioner...
Provisioning with boot2docker...
Copying certs to the local machine directory...
Copying certs to the remote machine...
Setting Docker configuration on the remote daemon...
Checking connection to Docker...
Docker is up and running!
To see how to connect your Docker Client to the Docker Engine running on this virtual machine, run: docker-machine env myvm1
Putem verifica rularea corectă a comenzilor și alte informații utile despre starea nodurilor virtuale astfel:
$ docker-machine ls
NAME    ACTIVE   DRIVER       STATE     URL                         SWARM   DOCKER        ERRORS
myvm1   -        virtualbox   Running   tcp://192.168.99.100:2376           v17.09.0-ce
Prin comanda docker-machine ssh, putem trimite comenzi prin SSH către un nod virtual Docker pe care îl specificăm prin nume, așa cum se poate observa mai jos.
$ docker-machine ssh myvm1 "ls -la"
În mod similar, există și comanda docker-machine scp:
$ docker-machine scp file.txt myvm1:.
De asemenea, există și comenzi pentru oprirea, respectiv ștergerea, nodurilor virtuale create.
$ docker-machine stop myvm1
$ docker-machine rm myvm1
Play with Docker
Play with Docker este un mediu online de învățare Docker ce oferă mașini virtuale pe o durată de 4 ore.
 
Comenzi utile
Interacțiune servicii
Aceste comenzi pot fi rulate doar de pe noduri manager.
$ docker service create --name <NUME_SERVICIU> <IMAGINE_DOCKER> # creează un serviciu pornind de la o imagine
$ docker service ls                                             # afișează toate serviciile din sistem
$ docker service inspect <NUME_SERVICIU>                        # afișează informații despre un serviciu
$ docker service logs –f <NUME_SERVICIU>                        # afișează log-urile unui serviciu
$ docker service ps <NUME_SERVICIU>                             # afișează task-urile (și statusurile lor) pentru un serviciu
$ docker service update --replicas <N> <NUME_SERVICIU>          # actualizează serviciul, replicând containerele de N ori
$ docker service rm <NUME_SERVICIU>                             # șterge un serviciu
Interacțiune cluster
Aceste comenzi pot fi rulate doar de pe noduri manager.
$ docker node ls                            # afișează nodurile din cluster
$ docker node promote <NUME_NOD>            # promovează nodul din worker în manager
$ docker node demote <NUME_NOD>             # retrogradează nodul din manager în worker
$ docker swarm init [--advertise-addr <IP>] # creează un cluster Docker
$ docker swarm join --token <TOKEN> <IP>    # se alătură unui cluster Docker
Docker Machine
$ docker-machine create [--driver <DRIVER>] <NUME> # creează o mașină virtuală Docker
$ docker-machine start <NUME>                      # pornește o mașină virtuală Docker
$ docker-machine stop <NUME>                       # oprește o mașină virtuală Docker
$ docker-machine rm <NUME>                         # șterge o mașină virtuală Docker
$ docker-machine ls                                # listează toate mașinile virtuale Docker
$ docker-machine ssh <NUME>                        # se conectează prin SSH la o mașină virtuală Docker
$ docker-machine scp <FISIER> <NUME>:<DESTINATIE>  # copiază un fișier pe o mașină virtuală Docker