Proxmox: ISCSI aus dem System werfen (auch mit Multipath)

ProxMox macht es einem einfach, neue ISCSI Targets ins System aufzunehmen. Ein Klick im Admincenter und schon kann man los legen. Will man das Target allerdings wieder loswerden, wird es schon nicht mehr so trivial. Wurden sämtliche ISCSI Geräte von VMs befreit, sodass die Targets ungenutzt sind, lassen die sich zwar aus dem Webinterface entfernen (Storage …), aber dann sind sie nur aus dem Blick, nicht jedoch aus dem Sinn. Die ISCSI Targets sind nach wie vor verfügbar, was spätestens ein Blick mit „iscsiadm node“ bzw. statt „node“ auch „session“ zeigt. Hat man es nicht nur mit einer einzelnen Node zu tun, sondern hat einen ProxMox Cluster, wird es 1*n mal so hässlich.
Kommt man auf die böse Idee das ISCSI Target auf der ISCSI Serverseite zu entfernen, friert die Node unter Umständen ein, bzw. wirft Haufen Fehler, weil die Geräte nicht mehr verfügbar sind, besonders „multipath“ fängt kräftig an zu jammern.

Hier also mein Notizzettel (ungefiltert) , wie die „Geräte“ sauber aus dem System entfernt werden können – ohne Reboot der Node.

ISCSI Target aus Proxmox entfernen

1. Alle VMs auf anderes Gerät migrieren / local / anderes ISCSI Target
2. Alte LVs in Proxmox löschen (meist unused disk in jeweiliger VM)
3. Prüfen auf Konsole mit lvscan, ob wirklich keine VM mehr die VG verwendet
3. Wenn keine Referenz mehr in Proxmox genutzt, dann in Proxmox Webseite unter Storage
erst VG entfernen, dann ISCSI Target
4. Auf Konsole VG vollständig auf beliebiger Node löschen (vgremove)
5. Gerät aus dem LVM entfernen (pvremove)
6. Name aus Multipath -ll entnehmen:

26f35644f35736a70 dm-5 SCST_BIO,o5dO5sjpPn4ZxszR
size=3.9T features='1 queue_if_no_path' hwhandler='0' wp=rw
`-+- policy='round-robin 0' prio=0 status=active
|- 13:0:0:0 sdh 8:112 active ready running
|- 15:0:0:0 sdi 8:128 active ready running
|- 16:0:0:0 sdj 8:144 active ready running
`- 17:0:0:0 sdk 8:160 active ready running

"o5dO5sjpPn4ZxszR" ist Name vom ISCSI Target -> verifizieren über den ISCSI Server, ob das
wirklich das zu löschende ist

"26f35644f35736a70" ist der Name des Multipath Gerätes

7. Gerät aus Multipath entfernen -> multipath -f 26f35644f35736a70
7.1 Wenn "map in use" -> dmsetup --tree prüfen
7.2 Dann entfernen: dmsetup remove jbod2--testvg-vm--121--disk--1
7.3 Bei Erfolg, nochmals multipath -f 26f35644f35736a70

8. ISCSI Sessions auflisten: iscsiadm -m session
9. Bei aktiver session, ausloggen: iscsiadm -m node -T jbod-vmdata-02-test --portal 192.168.1.100 --logout
10. Dann passendes Portal löschen: iscsiadm -m node -o delete -T jbod-vmdata-02-test --portal 192.168.1.100
11. Prüfen mittels: iscsiadm -m node | grep jbod-vmdata-02-test ob keins mehr vorhanden ist
12. Gegebenenfalls für alle weiteren Portale wiederholen

Wer es mit mehr als einer Node zu tun hat, sollte zu einem Cluster SSH greifen, um alle Kommandos parallel an allen n-Nodes auszuführen.

Notiz: vmware-player als Console für vSphere / ESX Gäste nutzen

Wer unter Linux / OSX arbeitet, kennt das Problem, immer Windows für den vShpere Client starten zu müssen, um auf eine Gast Konsole zugreifen zu können. Wer nicht den Gast selbst konfigurieren will, sondern nur die Konsole benötigt, kann auf den Vmware Player zurück greifen. Mit dem Parameter „

vmware-player -h [ip des ESX / Vsphere Host] 

“ öffnet sich ein Fenster, bei dem ich dann den gewünschten Gast auswählen kann.

Notiz: Xen + Hetzner + IPv6 + Routing

Hat man das IPV6 Netz von Hetzner, kann man das natürlich gleich mit Xen verwursten. Dazu habe ich mit Hilfe diverser Anleitungen und Foren mal eine kleine Anleitung geschrieben, wie man ein geroutetes Netz mittels IPv6 und Xen hinbekommt.

http://www.pug.org/mediawiki/index.php/IPV6/xen-route

Bei Missverständnissen oder Fehlern einfach melden od. selbst korrigieren.

Windows 7 – Unter Ubuntu 9.10 (Vmware Wks 6.5) unbenutzbar(?!)

Also, am Freitag bekam ich die Windows7 DVD und habe am Abend gleich mal probiert, ob ich es installiert bekomme. Unter Vmware sollte das ja kein Problem sein. CD eingelegt, VMware erkennt ein Vista (einige meinen ja, 7 sei ein Vista mit SP) und wollte nur noch die S/N von mir haben. Leider erwies sich das als nicht so glücklich, denn der Installer brach an die 4 Mal ab. Immer mit anderen Meldungen. Man möge doch die Installation erneut starten …. Vor allem hat es ewig gedauert. Über eine Stunde bis zum 1. Reboot. Die Platte ist richtig heiß gelaufen, sodass sie nach dem 4. Versuch erst einmal den Dienst quittierte. Zwischenzeitlich habe ich beim vierten Versuch einfach mal händisch eine VM erstellt, mit Windows 2008 als Ausgangsbasis und siehe da, nach zwei Stunden sah ich dann mal den Desktop. Nur leider ist die Installation faktisch nicht brauchbar. 1.) ist auch nach der Installation der VMware Tools das System sehr langsam (trotz 2x3Ghz + 2,5GB Ram), zum anderen ist die Maus einfach nicht zu gebrauchen. Der Linksklick zeigt so gut wie keine Wirkung und der Focus ist überall, nur nicht unter dem Zeiger. Ich glaube einfach, VMware Wks 6.5 unter Ubuntu 9.10 ist einfach kaputt. Da hilft auch kein Export der eigenen GTK Bibliotheken, die VMware mitbringt. Das Problem tritt allerdings nur unter Windows auf. XP und 7. Unter SLES10/11/Debian …. etc. habe ich dieses Mausproblem nicht, sodass mir unter Windows nur RDP bleibt.

So ganz nebenbei, habe ich auch gleich mein PC Gehäuse gewechselt. Denn die heißgelaufene Platte lag nur auf einer Schalldämmmatte, da sie viele Vibrationen erzeugt. Jetzt habe ich ein Standard Midi Tower von Chiftec und ein anderes über. Als nächstes werde ich mal kräftig aufräumen und die Platten neu strukturieren und Platz für ein natives Windows7 schaffen. Denn unter VMware ist es echt nicht zu gebrauchen …

LVM unter Etch, irgendwie kaputt

Ich werde den Verdacht nicht los, dass das Konstrukt LVM, Device-Mapper und Udev unter Echt kaputt ist. Schon seit einiger Zeit bin ich nicht mehr in der Lage, LVM Snapshots sicher zu erstellen. Mal klappt es, mal nicht. Schuld ist angeblich eine Udev Regel. Ändert man wie beschrieben den ACTION von „add“ nach „change“ um, klappt es wieder. Dafür hat dann meine Xen DomU ein Problem. Sie kann dann nicht mehr auf das Volume zugreifen. Ein Input/Output Fehler meldet sich dazu. … ich schätze, ich muss dochmal ein Upgrade auf Lenny testen …

Xen 3.x in Vmware Workstation/Server mit Xen Bridge

Manchmal dauert es einfach länger, bis man auf die Lösung kommt. Wer zu Testzwecken sein Xen mit auf Reisen nehmen möchte und dazu Vmware Workstation/Server verwendet, hat sich sicher schon gefragt, warum eine Bridge Konfiguration innerhalb von Vmware einfach nicht funktioniert. Es ist so logisch und die Lösung noch einfacher: Xen versetzt die Netzwerkkarte bekannterweise in den Promiscuous Mode, wenn nun aber Vmware als Benutzer gestartet wird, ist es ihm nicht gestattet das Gerät /dev/vmnet0 (meist die Bridge Netzwerkkarte von Vmware) in den entsprechenden Zustand zu versetzen. Also sollte man einfach eine Gruppe anlegen – z.B. vmware – den od. die entsprechenden User dazu setzen und die Berechtigungen auf 660 und Gruppe Vmware ändern. Nach einem erneuten Einloggen funktioniert dann auch die Xen Bridge innerhalb von Vmware wie gewünscht. Und somit bleibt die Freundin davor verschont, den Windows PC mit Vmware mitten in der Nacht einzuschalten.

Und sobald meine udev Regel funktioniert, liefere ich sie natürlich nach.

Kennt ihr das nicht auch?

Seit ich meine letzte Xen Anleitung veröffentlicht habe, erschien gerade Xen 3.1, wobei ich persönlich 3.0.4 bevorzugt habe. Nun, Monate später schaue ich erneut nach, und wir haben Xen 3.3 – wobei mir das Erscheinen selbst natürlich nicht entgangen ist, dank Heise, Golem und Co. Doch, wenn ich mir die Liste der Funktionen anschaue, komme ich aus dem Staunen kaum heraus. Vor allem soll ja nun die Live Migration von Windows sauber funktionieren, nicht dass es mir keine Freude bereitet hätte, Windows einfach verschwinden zu sehen, aber Kunden mögen zuweilen dieses Verhalten nicht.
In der Mailingliste habe ich dann auch noch eine Mail entdeckt, in der ISCSI Geräte direkt angesprochen worden sind. Leider habe ich dazu nichts offiziellen gefunden. Was mich jedoch nicht weiter verwundert, ist doch die Xen Dokumentation so beschissen wie eh und je.
Wie ich aus zuverlässiger Quelle erfahren habe, ist aber auch schon die zweite Auflage meines Lieblings- Buches auf dem Weg. Es wird dann sicher nächstes Jahr erscheinen.

Richtig spannend wird es aber, seit DRDB 8.0.6 nativen Xen Support beherrscht. Das bedeutet, ich muss die DRBD Geräte nicht mehr als /dev/drbd0 etc. eintragen und mich dann selbst um das Primary und Secondary Geraffel kümmern (besonders wichtig bei HA), sondern die DRBD Scripte nehmen mir diese Arbeit ab. Damit kann man nun auf ein Clusterdateisystem verzichten, welches nötig war um ein HA System aufbauen zu können. Und natürlich ist es kein Problem LVM darunter zu klatschen, man will ja flexibel bleiben.
Oh man, mich kribbelt es wieder an den unmöglichsten Stellen. Wird zeit, dass endlich Weihnachten vor der Tür steht um dann meiner Anleitung einen neuen Anstrich zu verpassen.

Neue Themen sind dann definitiv HA Cluster, mit Heartbeat, Überwachung seitens Nagios und Co. Wie viel Urlaub habe ich eigentlich noch? 😉

Vmware Server2 RC1

Durch ein anstehendes Projekt habe ich mir mal Vmware Server in der Verison 2 angeschaut. Release Candidate 1. Um den höheren Speicherbereich jenseits der magischen 4GB Grenze nutzen zu können, wollte ich nicht über die Klimmzüge PAE und Co gehen. Daher musste ein Debian Etch in der X64 Fassung her. Die Installation verlief selbst sowohl mit dem Debian eigenen Kernel (2.6.18.irgendwas), als auch mit einem 2.6.25.9 (nötig wegen bestimmter Hardware) ohne den any-any Patch problemlos möglich.

Vmware Server2 RC1

Der erste Eindruck ist zwiespältig. Vmware setzt hier wohl komplett auf das Webinterface, wohinter ein Tomcat werkelt. Die ersten Sekunden sind auch positiver Natur, doch man sieht der Software ihren Status an. Vor allem für mich, als MAC Hardware (PPC) User und Linux steht man ein wenig hilflos da. Zwar kann man eine VM erzeugen, doch Dank fehlender (gescheiter) Java Untersützung läuft mein Mini auf 100% (besser gesagt, der FF2) und der Server schließt sich dem entweder brüderlich an, od. langweilt sich. Wie gut, dass ich noch den Laptop habe, da konnte ich nach ein paar Neustarts (weil sich irgendwas aufgehangen hat) die ersten zwei Maschinen erzeugen. Zum einen Ubuntu 8.10, als auch ein XP pro (je 32Bit). Später gesellte sich noch ein Win2k3 hinzu (bis zur Eingabe der S/N, mangels eben dieser nicht weiter beachtet). Die SLES9 Installation gestaltet sich schwieriger, da das Java Fenster, welches die Vmware Konsole ist, leider außer einem schwarzen Fenster nichts zeigt. Es soll da noch die Option geben, einen klassischen VNC zu nutzen, aber bisher zeigt sich noch nichts. Auch kann ich nichts über die Performance sagen, das wird später folgen, denke ich.

Also ob sich die RC1 Version schon für den Produktiv Einsatz eignen wird, zeigt sich in den nächsten Tagen und Wochen.

Eine Menge Xen ..

In zwei Tagen haben wir beim Kunden mal ein paar Xen Versionen durch evaluiert. Angetreten sind:

  • Xen Source Xen 4.x
  • SuSE Linux Enterprise mit Xen 3.0.4 + Patches
  • Oracle VM mit Xen 3.1

Wir haben dort mal angesprochen, wie es mit Xen so aussieht, was geht und was nicht, ob es denn für die Ansprüche des Kunden ausreichen würde. Denn im Raum stand ja auch noch Vmware mit seinem Paket aus ESX und VC.
Der Erste Tag war ein wenig Theorielastig und es wurden ein paar Basics erläutert. Gegen Abend haben wir dann mal ein zwei SLES Server mit Win2k3 installiert. Hier macht sich die niedrige Version von Xen besonders bemerkbar, da dort die HVM Gäste weniger können als bei 3.1. Da wären zb. die Live Migration zu nennen od. auch Suspend etc. .
Allerdings hat man unter SLES den Vorteil, dass es dort paravirtualiserte Treiber gibt. Dafür gibt es eine ISO zum Download, die dann über Yast in die Quellen eingebunden wird. Danach stehen neue RPM Pakete zu Installation bereit, die ISO Dateien mit Treibern für Windows 2000, XP und 2003 bereitstellen. Die ISO wird dann einfach in die Xen DomU Konfig eingetragen und dann kann es schon los gehen. Allerdings hat bei uns der W2k3 Treiber möglicherweise nicht ganz funktioniert, denn wenn nach der Installation der Desktop erschien, legte die VM einen Reset hin …. entweder da muss Lizenztechnisch noch was geschehen, od. der hat schlicht einen Bug.

Xensource liefert ja eine nette GUI mit, für Windows .NET, die Dank weniger Optionen und Möglichkeiten (noch) sehr übersichtlich ist. Aber die Jungs müssen da noch einiges hinzufügen, um eine wirkliche Konkurrenz zu Virtual Center darzustellen. Aber fairerweise muss man sagen, dass Vmware ja auch ein paar Jahre Vorsprung hat.
Die Nodes selbst ließen sich leicht installieren, allerdings dulden sie nichts und niemanden neben sich, denn die plätten die gesamte Festplatte und nisten sich darauf ein. Xensource Xen, Oracle und SLES auf eine Platte zu bekommen, war eine ganz schöne Kopier- und Partitionier- Orgie 😉
Vor allem gibt es unter diesem Xen das bekannte xm nicht mehr, sondern xe was ich mir aber noch nicht näher angeschaut habe.
Als Storage für die Gäste ließen NFS, ISCSI auswählen, sowie lokale LVM Volumes (ziemlich tricky, da neue LVM Container bereitzustellen, wenn man den von der Installation gelöscht hat). Für ISOs lies sich noch zusätzlich CIFS verwenden.
Maschinen zu migrieren war nur einen Knopfdruck entfernt und lief ausgesprochen zügig, auch HVM Gäste.

Oracle VM war so das große Fragezeichen. Ich hatte vor einiger Zeit probiert mal den Manager unter RHE4 zu installieren, aber die Installation brach dann irgendwann mit obskuren Meldungen ab. Der Verdacht lag bei zu wenig Ram, da als Minimum 2GB angegeben wurde. Aber auch auf der DL380G5 tat sich nicht viel mehr.

Doch es gibt ein paar Kommandotools (virt-install) ließen uns zumindest Gäste erstellen. Allerdings weiß ich immer noch nicht, wo der das hinterlegt, denn bricht er beim ersten Start der VM ab, wegen einem Fehler, weiß er, dass es diesen Namen schon gibt, aber die Konfig war auf die schnelle nicht zu finden.
Wir haben dann einfach einen Windows HVM Gast vom SLES genommen, Konfig angepasst, und es lief.
Da der Kunde einen Oracle Support im Haus hat, wird die Entscheidung wohl für Oracle fallen, da auch das Cluster Dateisystem OCFS, von Oracle kommt, passt das alles recht gut.

Also alles in allem, waren das sehr aufschlußreiche zwei Tage 🙂

ESX 3.x in Vmware Workstation 6.x

Unter meinem Ubuntu habe ich ein nigelnagel neues Vmware Workstation 6.x installiert, um darin ein Vmware ESX zu installieren. Zu Testzwecken sollte die Performance ausreichen, hoffte ich. Das dies möglich ist, verdanken wir der neuen 6’er Version der Workstation sowie den Virtualisierungs- Prozessoren.
Die Installation vom ESX Server lief auch glatt durch und ohne Probleme, allerdings ging lief der Ablauf des Bootvorgang jenseits von Gut und Böse ab, wenn der Vmkernel die Kontrolle übernommen hat. Ein Start dauerte so über 15 Minuten(!). Ein Herunterfahren, ohne irgend etwas getan zu haben, schlug mit fast 40 Minuten zu buche. Da die Konsole nicht schneller war (ein simples cat /proc/cpuinfo benötigte ~5 Sekunden), verzichtete ich darum einen Gast zu installieren. Warum, keine Ahnung. Das muss ich noch erörtern.

Eine Hilfe dabei stellt die Webseite Sanbarrow, welche unglaublich viele Parameter im Detail erklärt. Unter anderem gibt es dort Beispiel VMX Dateien, für Pacifica und Vanderpool.

Derzeit kämpfe ich aber mit WS6 um andere Details. Statt „Virtual disks“ möchte ich lieber RAW verwenden und habe als Ziel für die Platten des Gastes LVMs angegeben, über z.B.

/dev/mapper/daten-vmware

. Aber am Ende des Wizards versucht er die Config aufzurufen, was fehlschlägt. Denn, es gibt schlicht keine. Soll heißen, WS6 Wizard erzeugt erst gar keine Config.

Sehr nervig … Die neue ESX Server Variante soll ja angeblich SATA können, allerdings heißt es im Heise Forum, dass wohl SATA nur über SaS (Serial attached SCSI) unterstützt wird. Soll heißen, wieder nichts, um mal eben eine Testumgebung bequem aufzubauen. … Naja, ich habe erstmal mehr RAM bestellt. mit den zwei Gibibyte Ram werde ich nicht weit kommen, da müssen schon vier her.

Na mal schauen, ob ich das Problem in den Griff bekomme.