Loadbalancers: Difference between revisions

From Hobbynet Admin Wiki
Jump to navigation Jump to search
No edit summary
 
(134 intermediate revisions by 7 users not shown)
Line 1: Line 1:
=doel=
=doel=
De loadbalancer zorgt er voor dat bij voorbeeld een webdienst redundant uitgevoerd kan worden. De loadbalancer zelf is ook redundant uitgevoerd.
De loadbalancer zorgt er voor dat onze webdiensten redundant uitgevoerd worden.
=otap=
Van de loadbalancers zijn er 2 omgevingen
 
# de productie
# de test op deze omgeving draaien alle website die joomla-test en joomla-dev draaien
 
= OPGELET =
''' heel belangrijk ''' de loadbalancer mag je nooit migreren als ze aan staan, hierdoor krijg je een 'split brain' situatie
 
In tegen stelling tot alle andere vm's staan deze vm's op lokale storage, zo dat er bij onderhoud van iscsi er geen splitbrain en timing issues ontstaan
 
Dit is dan ook geblokkeerd in vmware zoals omschreven hier https://frankdenneman.nl/2014/08/18/disable-vmotion-single-vm/  met 1 aanpassing query mag wel en vmotion als uit staat mag wel
 
=opzet=
=opzet=
We hebben 2 loadbalancers, ieder draait op een andere ESXi server voor redundantie. Als de ene loadbalancer faalt neemt de andere het over. Daarnaast zorgt de actieve loadbalancer dat verkeer over de webservers wordt verspreid. Als er webserver uitvalt wordt deze uit de pool gehaald waar door de webdienst gewoon bereikbaar blijft, zij het op maar één server.
We hebben 2 virtuele loadbalancers: loadbalancer1 en loadbalancer2. Elk draait op een andere hypervisor te weten vmware4 en vmware5
 
== normale situatie ==
== normale situatie ==
Dit geeft weer hoe in normale situatie het verkeer loopt.<br>
Dit geeft weer hoe in normale situaties het verkeer loopt.<br>
[[File:normaal.png]]
[[File:normaal.png|600px]]


[[File:normaal.dia]]
[[File:normaal.dia]]


== webserver faalt ==
== webserver faalt ==
Dit geeft weer hoe het verkeer loopt wanneer webserver faalt<br>
Dit geeft weer hoe het verkeer loopt wanneer een webserver faalt.<br>
[[File:webserverfaalt.png]]
[[File:webserverfaalt.png|600px]]


[[File:webserverfaalt.dia]]
[[File:webserverfaalt.dia]]


== loadbalancer faalt ==
== loadbalancer faalt ==
Dit geeft weer hoe het verkeer loopt wanneer loadbalencer faalt<br>
Dit geeft weer hoe het verkeer loopt wanneer een loadbalancer faalt.<br>
[[File:lbfaalt.png]]
[[File:lbfaalt.png|600px]]


[[File:lbfaalt.dia]]
[[File:lbfaalt.dia]]


=ip plan=
=IP plan=
212.72.227.80 t/m 212.72.227.90 vip01 t/m vip11 (virtuele IP adressen voor diensten die gebalanced worden)<br>
== 212.72.224 IP reeks (eth1)==
212.72.227.91  lb1-bip.hobby.nl (IP adres voor loadbalancer zelf)<br>
212.72.227.92  lb2-bip.hobby.nl (IP adres voor loadbalancer zelf)<br>
212.72.227.93  lb1.hobby.nl (IP adres voor het OS van de loadbalancer)<br>
212.72.227.94  lb2.hobby.nl (IP adres voor het OS van de loadbalancer)<br>
<br>
Voor alle genoemde IPv4 addressen, is er ook een IPv6 adres in de stijl die we bij Hobbynet hanteren: 212.72.227.80 wordt 2a02:968:1:7:212:72:227:80.
 
=configuratie=
== termen ==
Hier onder een overzicht van termen die in de configuratie worden gebruikt en mogelijk verwarrend zijn.
* server (Dit is kant waar, via virtuele IP adressen, de webserver draait en waar de client mee communiceert.)
* target (Dit zijn bijvoorbeeld de webservers die in één balanced pool zitten)
* vrrp (Dit is het protocol dat zorgt voor de master slave setup, ook wel hartbeat protocol genoemd)
* network (Hier staat gedefinieerd met welk IP adres (en subnet) de loadbalancer in een bepaald subnet hangt. Let op: de loadbalancer heeft zijn eigen IP adressen die los staan van het OS)  
== config files ==
De configuratie bestanden mogen '''nooit met de hand ge-edit worden'''. Dit dient '''altijd''' te gebeuren door middel van de loadbalancer command prompt. Deze kan je benaderen door met ssh in te loggen op een loadbalancer en als root het commando te geven '''bng control'''<br>
<br>
Elke configuratiewijziging moet op '''beide''' loadbalancers doorgevoerd worden. Dit wordt helaas niet vanzelf gerepliceerd.<br>
Ook moet je elke wijziging, net als bij Cisco, opslaan door het commando '''save all''' te gebruiken.
 
== nieuwe server aanmaken/editen/bekijken ==
=== aanmaken ===
In dit voorbeeld gaan we de server configureren voor een webserver. Dit doen we als volgt via de loadbalancer command prompt:
<pre>
<pre>
LB1# server 2 name vip2
212.72.224.240 2a02:968:1:2:212:72:224:240  loadbalancer1-vlan100.hobby.nl    (IP adressen voor loadbalancer zelf)
LB1# server 2 ipaddr 212.72.227.81
212.72.224.241 2a02:968:1:2:212:72:224:241  loadbalancer2-vlan100.hobby.nl    (IP adressen voor loadbalancer zelf)
LB1# server 2 ipaddr6 2a02:968:1:7:212:72:227:81
LB1# server 2 port 80
LB1# server 2 protocol tcp
LB1# server 2 sessionid src+port
LB1# server 2 method session
LB1# server 2 targets 2,3
</pre>
</pre>
Hierna willen we deze configuratie doorvoeren en activeren. Dit doen we door het commando:
 
commit server 2
==== 212.72.227 IP reeks (eth3)====
=== bekijken ===
Nu willen we kijken of de configuratie goed is.
dit kan je door het '''sh server''' commando te geven.
<pre>
<pre>
LB1#show server (of sh server 2 als je alleen server 2 wil zien)
212.72.227.88 en 2a02:968:1:7:212:72:227:88  loadbalancer1-vlan107.hobby.nl    (IP adressen voor loadbalancer zelf)
  no ipaddr        ipaddr6                    port prt net net6 sessions S targets backups
212.72.227.89 en 2a02:968:1:7:212:72:227:89  loadbalancer2-vlan107.hobby.nl    (IP adressen voor loadbalancer zelf)
  -- ------------- -------------------------- ---- --- --- ---- -------- - ------- -------
  1 212.72.227.80 2a02:968:1:7:212:72:227:80  80 tcp  1    0        0 e 1,2
  2 212.72.227.81 2a02:968:1:7:212:72:227:81  80 tcp  1    0        0 e 2,[3]
 
LB1# sh server 2
  no ipaddr        ipaddr6                    port prt net net6 sessions S targets backups
  -- ------------- -------------------------- ---- --- --- ---- -------- - ------- -------
  2 212.72.227.81 2a02:968:1:7:212:72:227:81  80 tcp  1    0        0 e 2,[3]
</pre>
</pre>


=== editen ===
==== 212.72.229 IP reeks (eth2)====
In het vorige voorbeeld hebben we 2 foutjes gemaakt die willen we herstellen. Voordat we dat doen moet we eerst de server disablen en de-registeren: dat doe je als volgt:
<pre>
<pre>
LB1# dis server 2
212.72.229.240 2a02:968:1:1:212:72:229:240  loadbalancer1-vlan102.hobby.nl    (IP adressen voor loadbalancer zelf)
LB1# unreg server 2  
212.72.229.241 2a02:968:1:1:212:72:229:241 loadbalancer2-vlan102.hobby.nl    (IP adressen voor loadbalancer zelf)
</pre>
</pre>
Wat we willen aanpassen is de naam van de server. Die is nu vip2 die moet zijn vip02. Ga als volgt te werk:
 
==== 172.31.1 IP reeks (eth0) ====
<pre>
<pre>
LB1# server 2 name vip02
172.31.1.240 2a02:968:ffff:999:172:31:1:240  loadbalancer1-vlan999.hobby.nl    (IP adressen voor loadbalancer zelf)
172.31.1.241 2a02:968:ffff:999:172:31:1:241  loadbalancer2-vlan999.hobby.nl    (IP adressen voor loadbalancer zelf)
</pre>
</pre>
Daarna willen we de target nog aanpassen naar 3 en 4 in plaats van 2 en 3:
==== 172.31.254 IP reeks (eth5) ====
<pre>
<pre>
LB1# server 2 target 3,4
172.31.254.240 2a02:968:ffff:997:172:31:254:240  loadbalancer1-vlan997.hobby.nl    (IP adressen voor loadbalancer zelf)
172.31.254.241 2a02:968:ffff:997:172:31:254:241  loadbalancer2-vlan997.hobby.nl    (IP adressen voor loadbalancer zelf)
</pre>
</pre>
Ook hier na moeten we weer een commit doen echter krijgen we nu wel een foutmelding:
===== dns aliassen =====
Via interne netwerk zijn de dns aliassen aangemaakt loadbalancer1-int.hobby.nl en loadbalancer2-int.hobby.nl op die manier konden gebruik blijven maken van hobbynet wildcard certificaat.
 
=configuratie=
== termen ==
* Virtual service : De dienst die geloadbalanced wordt (dit kan layer 4 of layer 7 zijn)
 
Configuratie gebeurt altijd via de webinterface. Enkel bij hele uitzonderlijke gevallen moet je wat via SSH doen.
 
De loadbalancers zijn te bereiken via:
* https://loadbalancer1-int.hobby.nl:9443/
* https://loadbalancer2-int.hobby.nl:9443/
 
== ssh toegang ==
SSH keys kunnen toegevoegd worden, dit vereist echter strak formaat namelijk
  ssh-rsa <snip> je key </snip> bas@een.domein.nl
Het is heel belangrijk dat je key in dit formaat is, ook ben je verplicht een hostnaam in te geven, gebruik daarvoor gewoon je naam dit moet namelijk uniek zijn.<br>
'''Key's mogen niet met de hand worden toegevoegd via SSH !'''<br>
Je kan in de loadbalancer onder Local Configuration -> SSH Keys en dan het tab SSH Authentication
 
'''Configuratie van dit onderdeel moet je op beide loadbalancers doen want dit wordt niet gerepliceerd!'''
 
= Proxy (layer 7) =
Alle website gaan via proxy op de loadbalancer naar de webservers toe.
== ssl ==
SSL wordt getermineerd op loadbalancer, maar het verkeer tussen de loadbalancer en de webserver is versleuteld met ssl, dit gebeurd echter met certificaat gesignend door onze windows CA
=== cerificaat uploaden ===
Het heeft mijn voorkeur om een pfx certificaat te gebruiken, dit leverde mijn veel minder gedoe op.
* ga naar Cluster configuration -> ssl certificate
* klik op add a new SSL Certificaat
[[File:Upload certificaat loadbalancer.png|600px]]
 
* 1) kies upload prepared pem/pfx file
* 2) geeft het certificaat een naam .
* 3) kies bestand kiezen en kies op je pc het certificaat dat je wil uploaden
* indien je cert een wachtwoord heeft vul die dan in wanneer er om gevraagd wordt.
* klik op upload certificaat
 
note soms gaat uploaden fout doe het dan in privacy window, browser vult namelijk soms verborgen velden in dat geeft problemen
 
=== let's encrypt certificaat ===
Zorg er voor dat layer 7 service is voorbereid zoals hier beschreven [[Loadbalancers#voor_bereiden_voor_lets_encrypt| Let's encrypt voorbereiden]] <br>
log in met ssh op de loadbalancer 1 en voor dit commando uit
  /usr/local/sbin/lb-letsencrypt-bas.sh -i -p 443 -h 8888 -d '''domein naam''' -f loadbalancer@hobby.nl -t beheer@hobby.nl -r smtp.bit.nl -U loadbalancer -P '''********'''
dit zorgt er voor dat een lets's encrypt certificaat wordt aangevraagd voor dit domein en wordt ge upload, ook maak dit script automatisch een cron entry aan om het certificaat te verlengen
 
== standaard setup ==
Standaard gebruiken wij een setup waarbij altijd de load over meerdere servers verspreid wordt
 
=== instellen van Virtual service layer 7 ===
==== van scratch ====
Ga naar cluster configuration -> layer 7 - virtual services en klik daar op 'Add a new Virtual Service'
 
* 1) Vul hier de naam van virtual service in. Standaard is dat VIP(nr) naam.url.nl-v4 (of v6 bij IPv6) ('''let op: geen spatie tussen vip en het nummer van de vip''')
* 2) Het IP-adres wat aan de buitenkant wordt gebruikt
* 3) De poort nummers voor web standaard 80 je mag meer poort nummers opgeven door te scheiden met een (altijd alleen 80 ook bij een https site).
Klik op update
 
[[File:Add Virtual service layer 7 stap1.png|600px]]
 
Herhaal de bovenstaande stappen voor het IPv6 adres
 
Nu moeten we nog bestemming toevoegen : waar moet het verkeer naar toe worden gerouteerd.
 
Ga naar cluster configuration -> layer 7 - Real Servers
Zoek daar je Virtual service op en klik op modify
 
Tip je standaard staat de Virtual service die je net hebt gemaakt onderaan
Klik op 'Add a new Real Server" bij de Virtual service die we net hebben aangemaakt
 
* 1) Zet naam van de bestemming neer dit geval users-lb1-v4 (of v6 bij IPv6)
* 2) Vul het IP-adres van de bestemming in
* 3) vul hier 443 in (ja 443 en geen 80, het verkeer tussen loadbalancer en webserver is ssl versleuteld)
* 4) vink re-encrypt to backend aan, dit zorgt dat verkeer tussen loadbalancer en webserver wordt versleuteld
* 5) Klik op update
[[File:Add Virtual service layer 7 stap2.png|600px]]
 
* Herhaal dit voor alle 2 resterende loadbalanced webservers
* Uiteraard moet je dit ook voor ipv6 versie doen, alleen gebruik je dan IPv6 adressen!
==== voor bereiden voor lets encrypt ====
Indien voor het domein een let's encrypt certificaat aangevraagd moet worden moet er een een extra setting gedaan worden.
* ga naar Cluster Configuration -> layer 7 - Virtual Services .
* zoek de vip op waar bij certificaat word aangevraagd.
* klik op modify
* zoek ACL rules op en klik op edit ACL Rules
[[File:edit acl rules layer 7.png|600px]]
 
* 1) kies rule type '''path_beg'''
* 2) Boolean '''Equals'''
* 3) URL text/ip '''/.well-known/acme-challenge/'''
* 4) Rule action type '''backend'''
* 5) Redirect Location '''letsencrypt'''
[[File:add acl rules layer 7.png|600px]]
 
Als je dit alles hebt gedaan moet de ha proxy config op nieuw ingeladen worden.
kilk op reload haproxy
 
 
[[File:reload haproxy.png|600px]]
 
Vraag nu het certificaat aan zoals beschreven hier [[Loadbalancers#let.27s_encrypt_certificaat|let's encrypt certificaat]]
==== SSL configuren (stunnel) ====
Om te zorgen dat we ssl certificaat kopelen aan onze layer 7 servive moet dat als volgt doen :
* ga naar Cluster Configuration -> ssl terminiation
* klik op add new virtual service
* 1) kies uit de pull down de VIP waar ssl aangekopeld moet worden
* 2) kies bij ssl operaation mode voor High Security
* 3) kies het juist ssl certificaat
* 4) kies update
[[File:add ssl termination.png|600px]]
 
Hier na moet stunnel en haproxy herladen worden
* klik eerst op system overview zodat je ziet dat beide herladen moet worden
* klik eerst op reload stunnel
* Klik reload haproxy
[[File:reload stunnel haproxy.png|600px]]
.
 
= Direct routing (layer 4) =
Op dit moment maken we nog gebruik van direct routing voor alle niet website gerelateerde zaken. Behalve<br>
* redirect server<br>
* xml server<br>
* mail server<br>
 
== standaard setup ==
Standaard gebruiken wij een setup waarbij altijd de load over meerdere servers verspreid wordt
 
=== instellen van Virtual service layer 4 ===
 
==== van scratch ====
Ga naar cluster configuration -> layer 4 - virtual services en klik daar op 'Add a new Virtual Service'
 
* 1) Vul hier de naam van virtual service in. Standaard is dat VIP(nr)-v4_naam.url.nl (of v6 bij IPv6) ('''let op: geen spatie tussen vip en het nummer van de vip''')
* 2) Het IP-adres wat aan de buitenkant wordt gebruikt
* 3) De poort nummers voor web standaard 80,443 je mag meer poort nummers opgeven door te scheiden met een ,
Klik op update
 
[[File:Add Virtual service layer 4 stap1.png|600px]]
 
Herhaal de bovenstaande stappen voor het IPv6 adres
 
Nu moeten we nog bestemming toevoegen : waar moet het verkeer naar toe worden gerouteerd.
 
Ga naar cluster configuration -> layer 4 - Real Servers<br>
Zoek daar je Virtual service op en klik op modify
 
Tip je standaard staat de Virtual service die je net hebt gemaakt onderaan<br>
Klik op 'Add a new Real Server" bij de Virtual service die we net hebben aangemaakt
 
* 1) Zet naam van de bestemming neer dit geval Joomla-lb1-v4 (of v6 bij IPv6)
* 2) Vul het IP-adres van de bestemming in
* 3) Klik op update
 
[[File:Add a new Real server.png|600px]]
 
Indien het hier geen fallback scenario betreft herhaal de bovenstaande stap voor de 2e bestemming
 
Herhaal deze stappen voor IPv6 virtual service
 
===== Persistence mode =====
Om te zorgen dat verkeer van 1 gebruiker bij de zelfde server uit komt moet de persistence op source ip ingesteld worden. We hebben het in verleden geprobeerd met applicatie cookie of een http cookie, maar dit gaf sessie problemen daarom gebruiken we nu voor alle sites source ip
 
Ga terug naar cluster configuration -> layer 4 - virtual services, zoek je virtual service op en klik op modify
onder Kopje Persistence zet je mode op Source IP<br>
[[File:persistance.png|600px]]
 
===== fallback scenario =====
Bij fallback senario wil je dat verkeer standaard op 1e server uitkomt, behalve wanneer deze er niet is. Bijvoorbeeld bij mail en de xml-rpc server, in dit geval voeg je '''geen''' 2e realserver toe.
 
Ga terug naar cluster configuration -> layer 4 - virtual services, zoek je virtual service op en klik op modify<br>
TIP boven in zit zoek veld
 
* Zoek de sectie 'Fallback Server' op
* Vul het IP-adres in van de fallback server in, laat de overige velden leeg
* klik op update
Herhaal deze stappen voor IPv6 virtual service
 
[[File:Fallback server.png|600px]]
 
==== bestaande virtual service kopiëren ====
Maar dit alles kan ook veel makkelijker, als er alleen vip is die de zelfde bestemming heeft etc etc
 
Ga terug naar cluster configuration -> layer 4 - virtual services, zoek je virtual service op die je kopiëren en klik op modify <br>
Zie afbeelding 5 rechts<br>
Klik op Duplicate service
 
[[File:Duplicate service.png|600px]]
 
Negeer de waarschuwing is melding dat toevoeging heeft gedaan zodat er geen dubbele namen zijn
* 1) Vervang hier de naam van virtual service. Standaard is dat VIP(nr) naam.url.nl-v4 (of v6 bij IPv6) ('''let op : geen spatie tussen vip en het nummer van de vip''')
* 2) Vervang het IP-adres wat aan de buitenkant wordt gebruikt
* 3) Controleer de poortnummers voor web standaard 80,443 je mag meer poortnummers opgeven door te scheiden met een ,<br>
Klik op update<br>
Herhaal deze stappen voor IPv6 virtual service
 
[[File:Duplicate service2.png|600px]]
 
= firewall lock down script =
Het standaard lockdownscript (de term die in de loadbalancer wordt gebruikt) is aangepast met de volgende de aanpassingen:
* Onze VPN IP-reeksen toegevoegd als admin reeksen
* Voor SNMP is aparte chain aangemaakt
* Al het SNMP verkeer dat niet het IP-adres (eth0) van de loadbalancer is wordt gereject
Hier vindt je kopie van het huidige lockdown script van 28-09-2020 10:00
[[File:Lockdownscript.txt]]
Dit script kan je bewerken via Maintenance -> Firewall Lock Down Wizzard<br>
Met 'Modify the firewall lock down wizard script' pas je het script aan. <br>
Met 'Update Firewall lockdown' wordt het de firewall herladen <br>
Standaard wordt het IP-adres waarmee je bent ingelogd ingevuld bij 'Administration subnet'. Dit is om te zorgen dat je er altijd weer in kan als je een foutje hebt gemaakt.
 
'''Configuratie van dit onderdeel moet je op beide loadbalancers doen want dit wordt niet gerepliceerd!'''
 
= backup =
Elke dag backuppen we om 22:00
 
== ssh_config aanpassing ==
Omdat de loadbalancer heel veel IP-adressen heeft zou het script ad random een IP-adres uitzoeken en dat gaat natuurlijk fout. Daarom hebben we een source IP-adres gespecificeerd. In /etc/ssh/ssh_config zijn daarom volgende regels toegevoegd:
<pre>
<pre>
LB1# commit server 2
host backup2bit-int.hobby.nl
  ERROR: WARNING: server 2 references unregistered target 3
        BindAddress=2a02:968:ffff:999:172:31:1:240
  ERROR: WARNING: server 2 references unregistered target 4
</pre>
</pre>
dit komt om dat target 3 en 4 nog niet bestaan.
Verder wordt standaard script dat ook logging draait gebruikt voor de backup /usr/local/hobbynet/bin/backup_etc
== nieuwe target aanmaken/editen/bekijken ==
 
=== aanmaken ===
= Vmware image backup maken=
==== configuratie op de loadbalancer ====
Dit gaat vrijwel identiek aan het configureren van de server:
<pre>
target 2 name www-test-lb2
target 2 ipaddr 212.72.227.69
target 2 ipaddr6 2a02:968:1:7:212:72:227:69
target 2 port 80
target 2 protocol tcp
target 2 ping 3,10
target 2 ping6 3,10
target 2 agent6 10000,3,10
target 2 sessionid dst+port
target 2 dsr enable
</pre>
Hierna moet ook weer een commit gedaan worden:
commit target 2
==== configuratie op de target ====
Op de target in kwestie moeten een aantal wijzigen worden doorgevoerd om alles goed te laten werken
===== sysctl.conf =====
de volgende regels moet aan sysctl.conf worden toegevoegd:
<pre>
net.ipv4.conf.all.arp_ignore=1
net.ipv4.conf.all.arp_announce=2
</pre>
Deze hierna activeren door middel van het commando '''sysctl -p'''
===== loopback interface =====
Om te zorgen dat target naar het IP adres (vip) van de loadbalancer luistert, moet er een loopback interface worden aan gemaakt met het vip van de loadbalancer:
<pre>
iface lo inet6 static
        address        2a02:968:1:7:212:72:227:80
        netmask        128


auto lo:0
# zet de slave loadbalancer uit om splitbrain te voorkomen
iface lo:0 inet static
# Clone de master '''naar vmware3 storage''' zet de datum in naam virtuele machine in omgekeerde volgorde dus bij voorbeeld 2021-09-23
        address 212.72.227.80
# Clone de slave '''naar vmware3 storage''' zet de datum in naam virtuele machine in omgekeerde volgorde dus bij voorbeeld 2021-09-23
        netmask 255.255.255.255
# Start slave loadbalancer
</pre>
# gooi oude backup images weg
Interface lo heeft geen auto erbij staan om dat die al default boven aan de interfaces config staat.<br>
# converteer machines naar template in rechter muis knop menu template  -> convert to template
===== BNG agent =====
#Wil je ook nog locale kopie Liever niet convert to ovf template
De bng agent wordt gebruikt om diverse controles uit te voeren en bij te houden hoe zwaar de server wordt belast. Dit wordt vervolgens uit gelezen door de loadbalancer. Deze agent kan je voor zowel 32 bit als 64 bit vinden in de /sbin directory op LB1 en natuurlijk LB2<br>
De vuist regel is we bewaren de vorige versie van voor de actie en na de actie. tenzij de vorige backup jonger is dan 1 maand
* /sbin/bngagent-Linux-i386 is de 32 bit
* /sbin/bngagent-Linux-amd64 is de 64 bit
Eén van deze twee moet je naar de target kopiëren. Hierna moet je de volgende regel toevoegen onderaan de lo:0 interface:
<pre>
        up /sbin/bngagent-Linux-amd64 -6 10000
</pre>
Dit zorgt er voor dat wanneer de interface up gaat, de agent wordt gestart en dat deze luistert op ipv6 op port 10000/udp. Dit verkeer moet dus ook door gelaten worden door de firewall.


=== bekijken ===
= Certificaat vervangen =
door middel van het show commando kan je zien hoe een target erbij staat:
<pre>
LB1# sh target
  no ipaddr        ipaddr6                    port prt net net6 srv sessions status      info                                    name
  -- ------------- -------------------------- ---- --- --- ---- --- -------- ----------- --------------------------------------- ------------
  1 212.72.227.68 2a02:968:1:7:212:72:227:68  80 tcp  1    1  1        0 operational arp:up,nd6:up,ping:up,ping6:up,agent6:1 www-test-lb1
  2 212.72.227.69 2a02:968:1:7:212:72:227:69  80 tcp  1    1  1        0 operational arp:up,nd6:up,ping:up,ping6:up,agent6:1 www-test-lb2
</pre>
Zoals je hier kan zien is de gehele (alle targets) pool up en operationeel.


=== editen ===
# Op de webinterface ga naar cluster configuration -> SSL Certificaten Upload het certificaat via gui onder een tijdelijke naam bv. ster_hcc_nl.
Het editen gaat het zelfde als bij de server.
# Login met ssh op loadbalancer
We gaan nu nog een extra monitoring script voor http toevoegen zodat we zeker weten dat webserver draait.
# ga naar directory /etc/loadbalancer.org/certs/
<pre>
# hier staan directory's van alle certificaten, in elke directory staat 1 pem bestand met de zelfde naam als directory (en dus ook certnaam)
LB1# dis target 1
# Dit bestand kopieer naar de directory van cert dat je wil vervangen en gebruikt dan ook de bestaande naam.
LB1# unreg target 1
# hier na kopieer je dit bestand ook naar de lbslave.
LB1# target 1 script "/usr/lib/mon/mon.d/http.monitor -p $port$ -u /index.html $ipaddr$",2,7
# daarna ga je weer na de gui
LB1# commit target 1
# dan ga je naar maintenance -> restart services
LB1# dis tar 2
# je kies voor reload Stunnel en daarna voor reload haproxy
LB1# unreg tar 2
# Vergeet niet het TSLA record in dns te update (https://ssl-tools.net/tlsa-generator)
LB1# tar 2 script "/usr/lib/mon/mon.d/http.monitor -p $port$ -u /index.html $ipaddr$",2,7
LB1# com tar 2
</pre>
Als we nu controle doen met '''show target''' zul je zien dat er een extra controle bij staat (onder script):
<pre>
LB1# sh target
  no ipaddr        ipaddr6                    port prt net net6 srv sessions status      info                                              name
  -- ------------- -------------------------- ---- --- --- ---- --- -------- ----------- -------------------------------------------------- ------------
  1 212.72.227.68 2a02:968:1:7:212:72:227:68  80 tcp  1    1  1        0 operational arp:up,nd6:up,ping:up,ping6:up,agent6:14,script:up www-test-lb1
  2 212.72.227.69 2a02:968:1:7:212:72:227:69  80 tcp  1    1  1        0 operational arp:up,nd6:up,ping:up,ping6:up,agent6:8,script:up  www-test-lb2
</pre>




==VRRP==
Vrrp is het protocol waarmee wordt geregeld welke loadbalancer de master is en welke de slave.<br>
Met '''show vrrp''' kan je zien of de loadbalancer waar je op bent ingelogd master of slave is.<br>
Door commando '''stop''' te geven zet je de loadbalancer uit en wordt de master taak overgedragen aan de andere loadbalancer.<br>
Vanaf de ssh command prompt kan je weer starten met '''bng start''' of '''service bng start'''.


<pre>
LB2# sh vrrp
  state    BACKUP
  vrid      9 (0x09)
  priority  200
  ipaddr0  ::ffff:212.72.227.80
  ipaddr1  2a02:968:1:7:212:72:227:80
</pre>


=handige links=
= handleidingen=
[http://www.inlab.de/balanceng De site van de maker van BalanceNG]
Deze vind je in de loadbalancer onder support -> Useful Links


=handleiding=
= LET OP : update instructies =
[[Media:handleiding-ng.pdf]]
1. schakel master uit
2. maak snapshot in vmware van master
3. zet master weer aan
4. wacht tot master weer helemaal op is
5. zet slave uit
6. maak snapshot slave
7. zet slave weer aan.
8. maak via web interface backup van alle bestanden en download die op master
9. maak via web interface backup van alle bestanden en download die op slave (zodra slave weer volledig operationeel is)
10. maak slave master (login op slave, vouw groene vlak open en klik op take over)
11. update master via Maintenance -> software update en kies voor online update
12. maak master weer  master (login op slave, vouw groene vlak open en klik op take over) als dat niet al vanzelf is gebeurd
11. update slave via Maintenance -> software update en kies voor online update
12. Zet reminder in OTRS om snap shots te verwijderen na 4 dagen (dit kan terwijl machines online zijn)


=licentie=
== aandachts punten ==  
== lb1 ==
  1. altijd dienen master en slave direct na elkaar te worden geupdate
<pre>
  2. het maken van het snapshot moet gebeuren als de VM uit staat ! dit komt om dat de VM vertraagd wordt tijdens het maken van het snapshot waardoor hij meerdere keren gaat overschakelen naar slave en weer terug.
      Serial Number: HCC1108311
  3. Mocht de update mislukken kan met paar klikken terug naar het snapshot wat je voor de update hebt gemaakt.
      Node-Id: 34:28:7b:55:d1:e0
      License Key:  6dae39cb4cb4011378423870d571e675
      Password: 3421773
</pre>
== lb2 ==
<pre>
      Serial Number: HCC1108312
      Node-Id: df:5f:93:c8:c9:43
      License Key: 7cb771613679c5d634822c9b06068fe3
      Password: 3421773
</pre>

Latest revision as of 10:59, 26 April 2022

doel

De loadbalancer zorgt er voor dat onze webdiensten redundant uitgevoerd worden.

otap

Van de loadbalancers zijn er 2 omgevingen

  1. de productie
  2. de test op deze omgeving draaien alle website die joomla-test en joomla-dev draaien

OPGELET

heel belangrijk de loadbalancer mag je nooit migreren als ze aan staan, hierdoor krijg je een 'split brain' situatie

In tegen stelling tot alle andere vm's staan deze vm's op lokale storage, zo dat er bij onderhoud van iscsi er geen splitbrain en timing issues ontstaan

Dit is dan ook geblokkeerd in vmware zoals omschreven hier https://frankdenneman.nl/2014/08/18/disable-vmotion-single-vm/ met 1 aanpassing query mag wel en vmotion als uit staat mag wel

opzet

We hebben 2 virtuele loadbalancers: loadbalancer1 en loadbalancer2. Elk draait op een andere hypervisor te weten vmware4 en vmware5

normale situatie

Dit geeft weer hoe in normale situaties het verkeer loopt.

File:Normaal.dia

webserver faalt

Dit geeft weer hoe het verkeer loopt wanneer een webserver faalt.

File:Webserverfaalt.dia

loadbalancer faalt

Dit geeft weer hoe het verkeer loopt wanneer een loadbalancer faalt.

File:Lbfaalt.dia

IP plan

212.72.224 IP reeks (eth1)

212.72.224.240 2a02:968:1:2:212:72:224:240  loadbalancer1-vlan100.hobby.nl     (IP adressen voor loadbalancer zelf)
212.72.224.241 2a02:968:1:2:212:72:224:241  loadbalancer2-vlan100.hobby.nl     (IP adressen voor loadbalancer zelf)

212.72.227 IP reeks (eth3)

212.72.227.88 en 2a02:968:1:7:212:72:227:88  loadbalancer1-vlan107.hobby.nl     (IP adressen voor loadbalancer zelf)
212.72.227.89 en 2a02:968:1:7:212:72:227:89  loadbalancer2-vlan107.hobby.nl     (IP adressen voor loadbalancer zelf)

212.72.229 IP reeks (eth2)

212.72.229.240 2a02:968:1:1:212:72:229:240  loadbalancer1-vlan102.hobby.nl     (IP adressen voor loadbalancer zelf)
212.72.229.241 2a02:968:1:1:212:72:229:241  loadbalancer2-vlan102.hobby.nl     (IP adressen voor loadbalancer zelf)

172.31.1 IP reeks (eth0)

172.31.1.240 2a02:968:ffff:999:172:31:1:240  loadbalancer1-vlan999.hobby.nl     (IP adressen voor loadbalancer zelf)
172.31.1.241 2a02:968:ffff:999:172:31:1:241  loadbalancer2-vlan999.hobby.nl     (IP adressen voor loadbalancer zelf)

172.31.254 IP reeks (eth5)

172.31.254.240 2a02:968:ffff:997:172:31:254:240  loadbalancer1-vlan997.hobby.nl     (IP adressen voor loadbalancer zelf)
172.31.254.241 2a02:968:ffff:997:172:31:254:241  loadbalancer2-vlan997.hobby.nl     (IP adressen voor loadbalancer zelf)
dns aliassen

Via interne netwerk zijn de dns aliassen aangemaakt loadbalancer1-int.hobby.nl en loadbalancer2-int.hobby.nl op die manier konden gebruik blijven maken van hobbynet wildcard certificaat.

configuratie

termen

  • Virtual service : De dienst die geloadbalanced wordt (dit kan layer 4 of layer 7 zijn)

Configuratie gebeurt altijd via de webinterface. Enkel bij hele uitzonderlijke gevallen moet je wat via SSH doen.

De loadbalancers zijn te bereiken via:

ssh toegang

SSH keys kunnen toegevoegd worden, dit vereist echter strak formaat namelijk

  ssh-rsa <snip> je key </snip> bas@een.domein.nl

Het is heel belangrijk dat je key in dit formaat is, ook ben je verplicht een hostnaam in te geven, gebruik daarvoor gewoon je naam dit moet namelijk uniek zijn.
Key's mogen niet met de hand worden toegevoegd via SSH !
Je kan in de loadbalancer onder Local Configuration -> SSH Keys en dan het tab SSH Authentication

Configuratie van dit onderdeel moet je op beide loadbalancers doen want dit wordt niet gerepliceerd!

Proxy (layer 7)

Alle website gaan via proxy op de loadbalancer naar de webservers toe.

ssl

SSL wordt getermineerd op loadbalancer, maar het verkeer tussen de loadbalancer en de webserver is versleuteld met ssl, dit gebeurd echter met certificaat gesignend door onze windows CA

cerificaat uploaden

Het heeft mijn voorkeur om een pfx certificaat te gebruiken, dit leverde mijn veel minder gedoe op.

  • ga naar Cluster configuration -> ssl certificate
  • klik op add a new SSL Certificaat

  • 1) kies upload prepared pem/pfx file
  • 2) geeft het certificaat een naam .
  • 3) kies bestand kiezen en kies op je pc het certificaat dat je wil uploaden
  • indien je cert een wachtwoord heeft vul die dan in wanneer er om gevraagd wordt.
  • klik op upload certificaat

note soms gaat uploaden fout doe het dan in privacy window, browser vult namelijk soms verborgen velden in dat geeft problemen

let's encrypt certificaat

Zorg er voor dat layer 7 service is voorbereid zoals hier beschreven Let's encrypt voorbereiden
log in met ssh op de loadbalancer 1 en voor dit commando uit

  /usr/local/sbin/lb-letsencrypt-bas.sh -i -p 443 -h 8888 -d domein naam -f loadbalancer@hobby.nl -t beheer@hobby.nl -r smtp.bit.nl -U loadbalancer -P ********

dit zorgt er voor dat een lets's encrypt certificaat wordt aangevraagd voor dit domein en wordt ge upload, ook maak dit script automatisch een cron entry aan om het certificaat te verlengen

standaard setup

Standaard gebruiken wij een setup waarbij altijd de load over meerdere servers verspreid wordt

instellen van Virtual service layer 7

van scratch

Ga naar cluster configuration -> layer 7 - virtual services en klik daar op 'Add a new Virtual Service'

  • 1) Vul hier de naam van virtual service in. Standaard is dat VIP(nr) naam.url.nl-v4 (of v6 bij IPv6) (let op: geen spatie tussen vip en het nummer van de vip)
  • 2) Het IP-adres wat aan de buitenkant wordt gebruikt
  • 3) De poort nummers voor web standaard 80 je mag meer poort nummers opgeven door te scheiden met een (altijd alleen 80 ook bij een https site).

Klik op update

Herhaal de bovenstaande stappen voor het IPv6 adres

Nu moeten we nog bestemming toevoegen : waar moet het verkeer naar toe worden gerouteerd.

Ga naar cluster configuration -> layer 7 - Real Servers Zoek daar je Virtual service op en klik op modify

Tip je standaard staat de Virtual service die je net hebt gemaakt onderaan Klik op 'Add a new Real Server" bij de Virtual service die we net hebben aangemaakt

  • 1) Zet naam van de bestemming neer dit geval users-lb1-v4 (of v6 bij IPv6)
  • 2) Vul het IP-adres van de bestemming in
  • 3) vul hier 443 in (ja 443 en geen 80, het verkeer tussen loadbalancer en webserver is ssl versleuteld)
  • 4) vink re-encrypt to backend aan, dit zorgt dat verkeer tussen loadbalancer en webserver wordt versleuteld
  • 5) Klik op update

  • Herhaal dit voor alle 2 resterende loadbalanced webservers
  • Uiteraard moet je dit ook voor ipv6 versie doen, alleen gebruik je dan IPv6 adressen!

voor bereiden voor lets encrypt

Indien voor het domein een let's encrypt certificaat aangevraagd moet worden moet er een een extra setting gedaan worden.

  • ga naar Cluster Configuration -> layer 7 - Virtual Services .
  • zoek de vip op waar bij certificaat word aangevraagd.
  • klik op modify
  • zoek ACL rules op en klik op edit ACL Rules

  • 1) kies rule type path_beg
  • 2) Boolean Equals
  • 3) URL text/ip /.well-known/acme-challenge/
  • 4) Rule action type backend
  • 5) Redirect Location letsencrypt

Als je dit alles hebt gedaan moet de ha proxy config op nieuw ingeladen worden. kilk op reload haproxy


Vraag nu het certificaat aan zoals beschreven hier let's encrypt certificaat

SSL configuren (stunnel)

Om te zorgen dat we ssl certificaat kopelen aan onze layer 7 servive moet dat als volgt doen :

  • ga naar Cluster Configuration -> ssl terminiation
  • klik op add new virtual service
  • 1) kies uit de pull down de VIP waar ssl aangekopeld moet worden
  • 2) kies bij ssl operaation mode voor High Security
  • 3) kies het juist ssl certificaat
  • 4) kies update

Hier na moet stunnel en haproxy herladen worden

  • klik eerst op system overview zodat je ziet dat beide herladen moet worden
  • klik eerst op reload stunnel
  • Klik reload haproxy

.

Direct routing (layer 4)

Op dit moment maken we nog gebruik van direct routing voor alle niet website gerelateerde zaken. Behalve

  • redirect server
  • xml server
  • mail server

standaard setup

Standaard gebruiken wij een setup waarbij altijd de load over meerdere servers verspreid wordt

instellen van Virtual service layer 4

van scratch

Ga naar cluster configuration -> layer 4 - virtual services en klik daar op 'Add a new Virtual Service'

  • 1) Vul hier de naam van virtual service in. Standaard is dat VIP(nr)-v4_naam.url.nl (of v6 bij IPv6) (let op: geen spatie tussen vip en het nummer van de vip)
  • 2) Het IP-adres wat aan de buitenkant wordt gebruikt
  • 3) De poort nummers voor web standaard 80,443 je mag meer poort nummers opgeven door te scheiden met een ,

Klik op update

Herhaal de bovenstaande stappen voor het IPv6 adres

Nu moeten we nog bestemming toevoegen : waar moet het verkeer naar toe worden gerouteerd.

Ga naar cluster configuration -> layer 4 - Real Servers
Zoek daar je Virtual service op en klik op modify

Tip je standaard staat de Virtual service die je net hebt gemaakt onderaan
Klik op 'Add a new Real Server" bij de Virtual service die we net hebben aangemaakt

  • 1) Zet naam van de bestemming neer dit geval Joomla-lb1-v4 (of v6 bij IPv6)
  • 2) Vul het IP-adres van de bestemming in
  • 3) Klik op update

Indien het hier geen fallback scenario betreft herhaal de bovenstaande stap voor de 2e bestemming

Herhaal deze stappen voor IPv6 virtual service

Persistence mode

Om te zorgen dat verkeer van 1 gebruiker bij de zelfde server uit komt moet de persistence op source ip ingesteld worden. We hebben het in verleden geprobeerd met applicatie cookie of een http cookie, maar dit gaf sessie problemen daarom gebruiken we nu voor alle sites source ip

Ga terug naar cluster configuration -> layer 4 - virtual services, zoek je virtual service op en klik op modify onder Kopje Persistence zet je mode op Source IP

fallback scenario

Bij fallback senario wil je dat verkeer standaard op 1e server uitkomt, behalve wanneer deze er niet is. Bijvoorbeeld bij mail en de xml-rpc server, in dit geval voeg je geen 2e realserver toe.

Ga terug naar cluster configuration -> layer 4 - virtual services, zoek je virtual service op en klik op modify
TIP boven in zit zoek veld

  • Zoek de sectie 'Fallback Server' op
  • Vul het IP-adres in van de fallback server in, laat de overige velden leeg
  • klik op update

Herhaal deze stappen voor IPv6 virtual service

bestaande virtual service kopiëren

Maar dit alles kan ook veel makkelijker, als er alleen vip is die de zelfde bestemming heeft etc etc

Ga terug naar cluster configuration -> layer 4 - virtual services, zoek je virtual service op die je kopiëren en klik op modify
Zie afbeelding 5 rechts
Klik op Duplicate service

Negeer de waarschuwing is melding dat toevoeging heeft gedaan zodat er geen dubbele namen zijn

  • 1) Vervang hier de naam van virtual service. Standaard is dat VIP(nr) naam.url.nl-v4 (of v6 bij IPv6) (let op : geen spatie tussen vip en het nummer van de vip)
  • 2) Vervang het IP-adres wat aan de buitenkant wordt gebruikt
  • 3) Controleer de poortnummers voor web standaard 80,443 je mag meer poortnummers opgeven door te scheiden met een ,

Klik op update
Herhaal deze stappen voor IPv6 virtual service

firewall lock down script

Het standaard lockdownscript (de term die in de loadbalancer wordt gebruikt) is aangepast met de volgende de aanpassingen:

  • Onze VPN IP-reeksen toegevoegd als admin reeksen
  • Voor SNMP is aparte chain aangemaakt
  • Al het SNMP verkeer dat niet het IP-adres (eth0) van de loadbalancer is wordt gereject

Hier vindt je kopie van het huidige lockdown script van 28-09-2020 10:00 File:Lockdownscript.txt Dit script kan je bewerken via Maintenance -> Firewall Lock Down Wizzard
Met 'Modify the firewall lock down wizard script' pas je het script aan.
Met 'Update Firewall lockdown' wordt het de firewall herladen
Standaard wordt het IP-adres waarmee je bent ingelogd ingevuld bij 'Administration subnet'. Dit is om te zorgen dat je er altijd weer in kan als je een foutje hebt gemaakt.

Configuratie van dit onderdeel moet je op beide loadbalancers doen want dit wordt niet gerepliceerd!

backup

Elke dag backuppen we om 22:00

ssh_config aanpassing

Omdat de loadbalancer heel veel IP-adressen heeft zou het script ad random een IP-adres uitzoeken en dat gaat natuurlijk fout. Daarom hebben we een source IP-adres gespecificeerd. In /etc/ssh/ssh_config zijn daarom volgende regels toegevoegd:

host backup2bit-int.hobby.nl
        BindAddress=2a02:968:ffff:999:172:31:1:240

Verder wordt standaard script dat ook logging draait gebruikt voor de backup /usr/local/hobbynet/bin/backup_etc

Vmware image backup maken

  1. zet de slave loadbalancer uit om splitbrain te voorkomen
  2. Clone de master naar vmware3 storage zet de datum in naam virtuele machine in omgekeerde volgorde dus bij voorbeeld 2021-09-23
  3. Clone de slave naar vmware3 storage zet de datum in naam virtuele machine in omgekeerde volgorde dus bij voorbeeld 2021-09-23
  4. Start slave loadbalancer
  5. gooi oude backup images weg
  6. converteer machines naar template in rechter muis knop menu template -> convert to template
  7. Wil je ook nog locale kopie Liever niet convert to ovf template

De vuist regel is we bewaren de vorige versie van voor de actie en na de actie. tenzij de vorige backup jonger is dan 1 maand

Certificaat vervangen

  1. Op de webinterface ga naar cluster configuration -> SSL Certificaten Upload het certificaat via gui onder een tijdelijke naam bv. ster_hcc_nl.
  2. Login met ssh op loadbalancer
  3. ga naar directory /etc/loadbalancer.org/certs/
  4. hier staan directory's van alle certificaten, in elke directory staat 1 pem bestand met de zelfde naam als directory (en dus ook certnaam)
  5. Dit bestand kopieer naar de directory van cert dat je wil vervangen en gebruikt dan ook de bestaande naam.
  6. hier na kopieer je dit bestand ook naar de lbslave.
  7. daarna ga je weer na de gui
  8. dan ga je naar maintenance -> restart services
  9. je kies voor reload Stunnel en daarna voor reload haproxy
  10. Vergeet niet het TSLA record in dns te update (https://ssl-tools.net/tlsa-generator)



handleidingen

Deze vind je in de loadbalancer onder support -> Useful Links

LET OP : update instructies

1. schakel master uit 
2. maak snapshot in vmware van master
3. zet master weer aan 
4. wacht tot master weer helemaal op is
5. zet slave uit 
6. maak snapshot slave
7. zet slave weer aan. 
8. maak via web interface backup van alle bestanden en download die op master
9. maak via web interface backup van alle bestanden en download die op slave (zodra slave weer volledig operationeel is)
10. maak slave master (login op slave, vouw groene vlak open en klik op take over)
11. update master via Maintenance -> software update en kies voor online update
12. maak master weer  master (login op slave, vouw groene vlak open en klik op take over) als dat niet al vanzelf is gebeurd
11. update slave via Maintenance -> software update en kies voor online update
12. Zet reminder in OTRS om snap shots te verwijderen na 4 dagen (dit kan terwijl machines online zijn)

aandachts punten

1. altijd dienen master en slave direct na elkaar te worden geupdate
2. het maken van het snapshot moet gebeuren als de VM uit staat ! dit komt om dat de VM vertraagd wordt tijdens het maken van het snapshot waardoor hij meerdere keren gaat overschakelen naar slave en weer terug.
3. Mocht de update mislukken kan met paar klikken terug naar het snapshot wat je voor de update hebt gemaakt.