Kompetens – HTTP, server- och webboptimering

Adminor erbjuder redan idag expertis inom cache- och reverseproxy lösningar så som nginx, Varnish och Squid. Därför är det inte mer än rätt att vi snart kommer publicera våra första blogg-artiklar om olika cache- och reverseproxies.

Först ut kommer vi vara med att gå igenom varnish, dess funktion, hur vcl:erna fungerar och hur exempel på vart det används. Vi kommer steg för steg gå igenom hur man kan förbättra prestanda på webbsidor och på så vis minska belastningen på servrar, förbättra upplevelsen för besökare samt göra bakomliggande infrastrukturer mer kostnadseffektiva.

Senare kommer vi även beröra hur nginx och mindre kända lösningar som POUND – REVERSE-PROXY AND LOAD-BALANCER kan användas för att utöka funktionaliteten av de olika programmen.
T.ex. kommer vi gå igenom hur man får Varnish att fungera bakom SSL-siter (https) genom att använda antingen nginx eller Pound , för och nackdelar med endera lösning.

I en senare bloggartikel kommer vi även belysa på vilket sätt proxylösningar kan förbättra säkerheten för webbsidan och dess besökare.

Kort om Linux- och MySQL-användarhantering.

Jag fick en fråga på en kund om skillnaden mellan linux-användare (system users) och de användare som finns i MySQL.
Vissa gånger kan det vara lätt att blanda ihop om man sköter sitt eget linux system.
T.ex. en vanlig webbserver med databas där man har MySQL som databasmotor.

Det lättaste att komma ihåg är att MySQL och systemanvändarna är helt skiljda. Det är helt enkelt olika användartabeller.

Lite förenklat så är alla systemanvändare i linux (som nås via t.ex. ssh) är definerade i olika filer (med hjälp av olika verktyg för lösenordsändring, typ passwd):

/etc/passwd – användarnamn, userid, gruppid (primär grupp som användare tillhör), hemkatalog, shell som ska köras vid inloggning typ /bin/bash

/etc/shadow – krypterade lösenorden som tillhör användare

/etc/group – gruppdefinationer, gruppid och medlemmar av sekundära grupper
Mer matnyttig information finns längst ned i denna post.

Det finns undantag, t.ex. om man använder LDAP eller andra centrala användardatabaser – men i detta inlägg förenklar jag och tar inte upp central användarhantering.

MySQL är ett program likt alla andra på ett system men körs ofta som en ”daemon” under linux och exekvieras av en vanlig systemanvändare, ofta som administratörs-användare ”root”.
När MySQL körs så tillhandahållet MySQL en egen miljö för att hantera databaser. Det finns logik , datalagring och användarhantering med mera.
I MySQL lagras användarna i en speciell reserverad tabell ”user” under databas med namnet ”mysql”. Det är mest ett sammanträffande att man använder samma namnkonvention som unix-system där superusern kallas ”root”.

mysql> show tables;
+—————————+
| Tables_in_mysql           |
+—————————+
| columns_priv              |
| db                        |
| func                      |
| help_category             |
| help_keyword              |
| help_relation             |
| help_topic                |
| host                      |
| proc                      |
| procs_priv                |
| tables_priv               |
| time_zone                 |
| time_zone_leap_second     |
| time_zone_name            |
| time_zone_transition      |
| time_zone_transition_type |
| user |
+—————————+
17 rows in set (0.01 sec)
17 rows in set (0.01 sec)

I MySQL är användare lagrade på formen permissions och privileges.  Permissions sätts upp med access per databas och även på tabellnivå för läs/skriv samt vilken ”host” som användare får ansluta från % (wildcard, alla hosts) eller per IP/subnät. En bra introduktionsguide till hur man hanterar och administrerar användare i MySQL finns länkade i slutet av denna post.

En likhet mellan systemanvändare och MySQL användare är säkerhetsaspekten. Man bör t.ex. aldrig tillåta ”root” på ett system eller ha en superuser på Mysql som kan logga in från vilket IP/domän som helst.
Man ska alltid försöka begränsa access och ge ut de privilegier som beövs till de databaser som behöver nås – per IP.
Rekommenderar att läsa följande dokumentation för användaradministration i Linux (även andra unix system är liknande): http://www.comptechdoc.org/os/linux/usersguide/linux_ugusers.html
Mer ingående information om MySQL permissions kan finnas här: http://www.databasejournal.com/features/mysql/article.php/3311731/An-introduction-to-MySQL-permissions.htm

Layer2 stabilitet (BPDU guard)

Att skydda kunder från andra kunder är en fråga som varit på tapeten många gånger.
Enkla åtgärder som att partitionera nätet med egna VLAN och subnät är bara några av de saker vi gör för att förbättra prestanda i nätet genom att minska ”skräp”-trafik. Ibland behövs ytterligare lite nätverks-magi.

I denna post kommer jag beskriva en av de metoder vi använder för att skydda våra nätverk på länklagret (layer 2).

Här om dagen fick jag en historia berättad för mig där en kille had stoppat in en kabel i fel nätverksport på sin skola.
Tydligen hade det sänkt hela kommunens nätverk när en switch-loop uppstått.

Här har vi ett solklart exempel på när nätverks-ansvarig inte gjort sin läxa.
Vad som hände här var att switchar får multipla vägar som trafiken kan gå. Ethernet är inte alltid så smart så att det kan förstå när nån gör fel. Den försöker bara matcha vad som händer på det fysiska lagret.

Ett värre exempel var nyligen då ett sjukhus datornätverk gick ned helt och hållet.
Detta berodde på att någon sjuksköterska hade kopplat in en nätverkskabel  i fel nätverksuttag. Felet upptäcktes inte förrens  man gått igenom varje avdelning där det fanns nätverk.

Vad som skapar detta fel om man inte vidtagit åtgärder mot detta är att när en port aktiveras och en ny väg till samma switchar märks så uppstår en loop. Paketen skickas runt runt, arp requests skickas fel och eventuell broadcast storm .

En lösning är att sätta upp korrekta spanning tree protocol (STP) konfigurationer. Beroende på switch-tillverkare och modell så aktiverar man STP per VLAN och port. Anger vilken port som kommer vara primär, och vilken som kommer vara sekundär vid eventuellt bortfall för att få redundans.

För cisco så finns det en superb beskrivning på Ciscos portal här .
Själv föredrar jag att lösa redundans i core och distribution på andra vis – men problemet med loopar kan fortfarande uppstå. Detta löser jag på ett smidigare sätt än STP.
Svaret på detta problem (och som kommunens it-tekniker borde kunnat) är BPDU guard.
Det är så enkelt och går snabbt att implemetera på ciscoutrustning och annan utrustning som stödjer det.

I cisco-miljö görs det på följande vis:

CatOS Command

Console> (enable) set spantree portfast bpdu-guard enable 

Spantree portfast bpdu-guard enabled on this switch. 

Console> (enable)

Cisco IOS Software Command

CatSwitch-IOS(config)# spanning-tree portfast bpduguard 
CatSwitch-IOS(config)

Vad detta gör är att när en switch loop upptäcks försätts ena anslutningen i inaktiverat (disable) läge.
Om man vill att switchen ska försöka återansluta efter ett tag kan man konfigurera automatiskt retry. Annars kommer den felande länken vara inaktiverad tills man löser det manuellt.

CatOS Commands

Console> (enable) set errdisable-timeout interval 400 

Console> (enable) set errdisable-timeout enable bpdu-guard

Cisco IOS Software Commands

CatSwitch-IOS(config)# errdisable recovery cause bpduguard

CatSwitch-IOS(config)# errdisable recovery interval 400

Note: The default timeout interval is 300 seconds and, by default, the timeout feature is disabled.

BPDU Guard bör man konfigurera på alla kritiska switchar där loopar kan uppstå. Det räcker med något så enkelt som att koppla en kabel från en port till en annan på samma switch ibland för att skapa en loop.
Källa: http://www.cisco.com/en/US/tech/tk389/tk621/technologies_tech_note09186a008009482f.shtml

Uppdatering av VMWare ESXi 4.0 till 4.1

För de av oss som använder VMWare ESXi så kommer uppdateringar med jämna mellanrum. Ibland små buggfixar men ibland större revisioner som ger bättre prestanda och mer funktioner.

Nu har en sådan uppdatering kommit i sommar. Vi brukar avvakta med större uppgraderingar tills dess att alla barnsjukdomar är åtgärdade.

Inatt utförde Adminor uppgradering av våra interna VMWare ESXi miljöer från av VMWare ESXi 4.0 till 4.1 .

Innan 4.1 kunde man använda VMWare host update utility för att göra uppdateringar , denna har nu fasats ur för att förbereda avveckling av produkten ”ESX” till förmån för ”ESXi”.
Nu får man istället använda host update manager i vCenter om man har den ”licensen” , ”esxupdate” eller min favorit ”vihostupdate” .

Förutsätter att du redan har ett konto på vmware.com och en separat ESXi server du kan köra vMA (vmware Management Assistant) appliance. Har du inte det kan du ladda ned konsol-verktygen till valfritt operativsystem här.

För att följa vår guide helt och hållet behöver du även en webbserver du kan ladda upp uppgraderingsfilen (.zip) som används med vihostupdate.

Lättast är att använda vihostupdate från vMA och kan göras med ett par enkla steg.
Förberedelse:
– En webbserver dit du kan lägga filer.
T.ex. apache eller IIS.

– vMA appliance

Kör appliance .ovf filen för vMA (från länken ovan) och kör igång på din ESXi server, alternativt klientmjukvarupaketet för ditt operativsystem.

– Uppgraderingsfilen (.zip)
Gå till www.vmware.com , logga in till ditt konto och gå till ESXi portalen (beroende på din license-nivå). För fria ESXi gå till ”Evaluation and Free products – VMWare ESXi”.
Ladda ned rätt upgrade zip , t.ex. ”ESXi 4.1 (upgrade ZIP from ESXi 4.0)” för VMWare ESXi 4.0 . Välj en annan för andra versioner.
Lägg denna .zip fil på din webbserver som kan nås via http.

Enkla uppgraderingssteg:

1. Migrera bort eller stäng ned dina virtuella maskiner på den ESXi host som ska uppgraderas.

2. Sätt din ESXi host i ”maintenance mode”.

3. Har du SSH access till ditt ESX/ESXi system kan du använda metod B annars använd metod A.

Metod A: Gå in i vMA appliance konsolen eller en kommandopromt om du laddat ned vmware console verktygen.

Skriv  ”vihostupdate –server ”ip eller hostname till din esxi server” -i -b http://adresstilldinwebbserver/uppgraderingsfilensnamn.zip -B ESXi410-GA”

Kör du ESX istället för ESXi använder du ”ESXi410-GA-esxupdate” istället för bara ESXi410-GA ovan.

Metod B:
SSH:a till din ESXi/ESXi box och skriv i konsolen:
”esxupdate –bundle http://adresstilldinwebbserver/uppgraderingsfilensnamn.zip update”

Funkar allt ska din output vara:
”Enter username: din användare
Password:
The update completed successfully, but the system need to be rebooted for the changes to be effective.”

4. Starta om ditt ESX/ESXi och gå ur mainteinance mode.
OBS! Om du kör vCenter ska den uppdateras före vSPhere client. vSphere client måste uppgraderas oavsett.

Klart!

Källa:

kb.vmware.com/kb/1022140VMware KB: Upgrading ESX 4.0 to ESX 4.1

iSCSI och multipathIO

I detta blogginlägg kommer jag använda en hel del begrepp.
Storage area network” förkortat till ”SAN”. ”Hosts” är de servrar eller maskiner även kallade ”iSCSI initiator” som ansluter mot de virtuella diskar som görs tillgänglig för hosts över nätverket. Dessa virtuella diskar över iSCSI kan även benämnas ”iSCSI target”.

Jag fick nyligen möjlighet att börja göra drifttester med Dells nya SAN i samband med att Adminor inhandlade nytt för vår driftmiljö.

MD32x0(i) är den nya generationen som ersätter den äldre Powervault MD3000i. Den nya modellen finns liksom föregångaren med med ”i” version (iSCSI) och SAS storage array ”utan i”. Modellen MD32x0 kan direktanslutas mot 8st serverhosts (upp till 8st direktanslutna, eller 4st i redundant) medan iSCSI varianten drar nytta av gigabit ethernet för upp till 32 hosts.

Det finns alltså följande varianter av ”MD32x0″/”MD32X0i”
iSCSI variant:
MD3220i – plats för 24st 2.5″ diskar
MD3200i – plats för 12st 3.5″ diskar

SAS storage array variant för direktanslutning:
MD322o- samma antal diskar som motsvarande ”i” variant
MD3200 – samma antal diskar som motsvarande ”i” variant

MD32x0(i) kan köras i simplex eller duplex läge. Det som skiljer är att i simplex läge har man bara en controller utan redundans. Med duplex körs controller i mirror-läge med en annan controller. Även prestanda kan förbättras genom duplex läge. En till controller kan alltid köpas till senare, jag vet dock inte ännu ifall man kan blanda SAS storage array RAID controller med SAN iscsi RAID controller.

—–

Att sätta upp ett SAN kräver en hel del planering. Vi hade givetvis en drös egna frågor inför driftsättningen.

Illustration ovan – enkelt utkast över planen för driftsättning.

Hur bör man då koppla upp ett SAN för att erbjuda både redundans och prestanda?
Jo, man väljer så klart multipath I/O.
Följer man best practise papers så bör ett SAN va uppkopplat på dedicerad iSCSI VLAN och dedicerad switchar för iSCSI trafik med flera ”paths” (vägar). Det var precis den lösningen vi själva valde.
Redundanta gigabit switchar, dedicerade iSCSI VLAN och iSCSI paths fördelade jämnt över de två switcharna.

För att få bästa prestanda bör den host som ansluts mot SAN ha minst 2 nätverkskort uppkopplad mot respektive dedicerad switch på iSCSI VLAN. (se bilden ovan) På så vis kan datatrafik fördelas över olika paths och lastbalanseras beroende på multipath policy. I VMWare används ”most recently used” (MRU), ”round robin” (RR) eller ”fixed”.

Har man gjort rätt med adresseringar, subnät och multipath policy så har man ett riktigt kraftpaket i ett iSCSI SAN.

Den slutgiltiga konfigurationen för driftmiljö virtualiseringscluster är:
1x MD3220i (2 controllers i duplex-läge för redundans)
2x redundanta gigabit switchar med multipla vägar för multipath I/O.
4x subnät (ett per iscsi host port grupp) och motsvarande IP-inställningar på hosts
1x Dell M1000 bladchassi med expansionsmöjlighet med fler bladservrar.

Det enda kluriga med MD3220i har egentligen varit managerings-GUI:t som förvisso är mycket bra men har några barnsjukdomar. Vi fick rapportera några  några ”kosmetiska” GUI buggar till Dell 🙂

Ytterligare resurser och källhänvisning:
Att sätta upp multipath I/O och iSCSI med vsphere:
A multivendor post on using iscsi with vmware vsphere