Discussion:
Neue Installation mit Xen?
(zu alt für eine Antwort)
Peter Mairhofer
2017-08-31 06:05:01 UTC
Permalink
Hallo,

Ich moechte mein aktuelles 24x7, nicht-VT Debian System mit 5 OpenVZ
containern upgraden.

Einerseits wurde ich gerne Richtung Xen (da dies bare-metal ist und ich
auch einen Windows Server daneben laufen haben kann mit VT), auf der
anderen Seite moechte ich nicht nochmal aufs falsche Pferd setzen.

Das habe ich naemlich damals bei OpenVZ gemacht, dann wurde es aus
Debian entfernt und seitdem ist alles ein ziemlicher Krampf.

Ist Xen zukunftssicher genug oder sollte man eine neue Installation
besser gleich mit KVM machen?

Welche Loesung ist stabiler und wird besser von Debian unterstuetzt?

Mit welcher Loesung laeuft eine Live-Migration zu einem anderen System
besser ab (ohne SAN)?

Mit welcher Loesung laesst sich Storage des Hostsystems besser
exportieren bzw. teilen?

Am Hostsystem befinden sich alle Daten auf ZFS die ich gerne den
Containern zu Verfuegung stellen wurde. Das mag ich bei OpenVZ gerne
dass das einfach geht.

Notfalls kann ich damit leben fuer das System jeweils eine zVol zu
verwenden, aber die Daten muessen definitiv in einem dataset des hosts
sein und teilweise von verschiedenen Maschinen parallel verwendet werden.


LG,
Peter
Kay Martinen
2017-08-31 19:59:38 UTC
Permalink
Post by Peter Mairhofer
Ich moechte mein aktuelles 24x7, nicht-VT Debian System mit 5 OpenVZ
containern upgraden.
Einerseits wurde ich gerne Richtung Xen (da dies bare-metal ist und ich
auch einen Windows Server daneben laufen haben kann mit VT), auf der
anderen Seite moechte ich nicht nochmal aufs falsche Pferd setzen.
Willst du die Hardware upgraden auf ein System dessen CPU/Board VT-x
können? Denn, soweit ich XEN in erinnerung habe kann es ohne VT alles
nur paravirtualisieren. Das würde ich dann nicht bare-metal nennen.

Xen und paravirt. habe ich genau EIN mal auf einem Server mit P4-Xeons
versucht. Und es war so kreuzlahm und umständlich beim einrichten das
ich es sein ließ. Wie alt ist deine (nicht-VT) Hardware?
Post by Peter Mairhofer
Das habe ich naemlich damals bei OpenVZ gemacht, dann wurde es aus
Debian entfernt und seitdem ist alles ein ziemlicher Krampf.
Wenn es intern ist, wer/was zwingt dich zum upgrade?
Ich hielte KVM für besser/einfacher. Aber das mögen andere anders sehen.
Post by Peter Mairhofer
Ist Xen zukunftssicher genug oder sollte man eine neue Installation
besser gleich mit KVM machen?
Welche Loesung ist stabiler und wird besser von Debian unterstuetzt?
Mit welcher Loesung laeuft eine Live-Migration zu einem anderen System
besser ab (ohne SAN)?
Mit welcher Loesung laesst sich Storage des Hostsystems besser
exportieren bzw. teilen?
Am Hostsystem befinden sich alle Daten auf ZFS die ich gerne den
Containern zu Verfuegung stellen wurde.
Also ich verwende ja seit über einem Jahr oder länger ProxMox VE 4.2 auf
einem Proliant G5 und bin eigentlich recht zufrieden damit denn es läuft
super stabil und flott. Es basiert auf debian, nutzt KVM und Quemu, kann
(oder konnte) OpenVZ, kann auch andere Container (nicht Docker. Name
vergessen, nutze ich nicht) und KANN SAN, Cluster, zfs u.s.w. besteht
aber nicht darauf. Migration soll im 2-node cluster einfach gehen, ich
habe es aber noch nicht probiert weil ich kürzlich erst einen zweiten
(5.0) auf setzte und noch teste.
Post by Peter Mairhofer
Notfalls kann ich damit leben fuer das System jeweils eine zVol zu
verwenden, aber die Daten muessen definitiv in einem dataset des hosts
sein und teilweise von verschiedenen Maschinen parallel verwendet werden.
Von verschiedenen VMs auf EINEM Host? Die Frage ist also ob du
datenvolumes mit umziehen könntest? Weil, sonst bringt dir
Live-Migration ja nichts wenn der andere Host wegfiele (und dort die
daten sind) da du kein SAN hast, oder willst.

Die Frage kann ich nicht beantworten. Evtl. verstehe ich dich auch falsch.

Kay
Peter Mairhofer
2017-09-01 08:22:29 UTC
Permalink
Post by Kay Martinen
Post by Peter Mairhofer
Ich moechte mein aktuelles 24x7, nicht-VT Debian System mit 5 OpenVZ
containern upgraden.
Einerseits wurde ich gerne Richtung Xen (da dies bare-metal ist und ich
auch einen Windows Server daneben laufen haben kann mit VT), auf der
anderen Seite moechte ich nicht nochmal aufs falsche Pferd setzen.
Willst du die Hardware upgraden auf ein System dessen CPU/Board VT-x
können? Denn, soweit ich XEN in erinnerung habe kann es ohne VT alles
nur paravirtualisieren. Das würde ich dann nicht bare-metal nennen.
Ja, die Hardware wird ebenfalls upgegraded.

Als ersten Schritt moechte ich den Windows Server auf VT Basis
einrichten (der Grund weshalb ich jetzt auf VT umsteige).

Relativ bald moechte ich aber endlich weg von OpenVZ und entweder zu
Xen+Paravirtuaisierung oder KVM, denn OpenVZ ist de-facto tot und die
Debian Untersteztung ein riesen Krampf.

Dummerweise damals aufs falsche Pferd gesetzt ...
Post by Kay Martinen
Xen und paravirt. habe ich genau EIN mal auf einem Server mit P4-Xeons
versucht. Und es war so kreuzlahm und umständlich beim einrichten das
ich es sein ließ. Wie alt ist deine (nicht-VT) Hardware?
Xeon Nocona (NetBurst) 3.4 GHz.
Post by Kay Martinen
Post by Peter Mairhofer
Das habe ich naemlich damals bei OpenVZ gemacht, dann wurde es aus
Debian entfernt und seitdem ist alles ein ziemlicher Krampf.
Wenn es intern ist, wer/was zwingt dich zum upgrade?
Ich hielte KVM für besser/einfacher. Aber das mögen andere anders sehen.
Danke!
Post by Kay Martinen
[...]
Post by Peter Mairhofer
Notfalls kann ich damit leben fuer das System jeweils eine zVol zu
verwenden, aber die Daten muessen definitiv in einem dataset des hosts
sein und teilweise von verschiedenen Maschinen parallel verwendet werden.
Von verschiedenen VMs auf EINEM Host? Die Frage ist also ob du
datenvolumes mit umziehen könntest? Weil, sonst bringt dir
Live-Migration ja nichts wenn der andere Host wegfiele (und dort die
daten sind) da du kein SAN hast, oder willst.>
Die Frage kann ich nicht beantworten. Evtl. verstehe ich dich auch falsch.
Ja, von verschiedenen VMs auf einem host.

ABER: Die VMs die ich live migrieren will waeren self-contained (mail,
web, DNS server).

Die (internen) VMs die Daten teilen muessen nicht zwanslaeufig live
migriert werden.

Was ist denn der beste Mechanismus, Storage vom Host in die VMs zu
exportieren (sowohl geshared als auch nicht geshared)? Ist NFS dazu
zwingend noetig? Oder GlusterFS?

Bei denen hab ich die Befuerchtung dass das (im Gegensatz zu OpenVZ)
ziemlich traege wird, wo der Import vereinfacht gesagt nur bind mounts sind.


Zur "live migration" mit GlusterFS (das ich noch nicht kenne) hab ich
soeben eine Frage in dcoulm gestellt.



Danke,
Peter
Ralph Aichinger
2017-09-01 20:13:02 UTC
Permalink
Post by Peter Mairhofer
Ist Xen zukunftssicher genug oder sollte man eine neue Installation
besser gleich mit KVM machen?
Ich halte Xen für zukunfssicher soweit man das sagen kann. Marktführer
ist wohl VMWare, aber Xen ist unter den Linux-Lösungen immer noch
ganz gut verbreitet und wird auch von Citrix (IIRC) als großem
Unternehmen ernsthaft weiterentwickelt.
Post by Peter Mairhofer
Welche Loesung ist stabiler und wird besser von Debian unterstuetzt?
Ich habe viel Erfahrung mit Xen unter Debian (als Host, auch als Guest),
aber nicht mit Live-Migration. Ich kenne das aus Produktionsumgebungen
mit einigen hundert Guests, und bis auf kleine Problemchen kenne ich
das nur als stabil und performant.

Bei Linux-Guests hab ich überhaupt keine Vorbehalte (wie geschrieben,
aber ohne Live-Migration selber probiert zu haben), außer vielleicht
beim Durchreichen von USB-Geräten.

Bei Windows-Guests funktioniert das ganze auch gut, wobei dort das
nicht einfach durchreichen können von USB-Geräten noch blöder ist
(vor allem wegen der Hardwaredongles von Bezahlsoftware).
Post by Peter Mairhofer
Mit welcher Loesung laeuft eine Live-Migration zu einem anderen System
besser ab (ohne SAN)?
Mit welcher Loesung laesst sich Storage des Hostsystems besser
exportieren bzw. teilen?
Dazu kann ich nichts sagen.

/ralph
Manfred Haertel
2017-09-02 04:46:42 UTC
Permalink
Post by Ralph Aichinger
Bei Linux-Guests hab ich überhaupt keine Vorbehalte (wie geschrieben,
aber ohne Live-Migration selber probiert zu haben), außer vielleicht
beim Durchreichen von USB-Geräten.
Bei Windows-Guests funktioniert das ganze auch gut, wobei dort das
nicht einfach durchreichen können von USB-Geräten noch blöder ist
(vor allem wegen der Hardwaredongles von Bezahlsoftware).
Ich reiche täglich USB-Devices per XEN durch :-) und habe dabei
eigentlich keine Probleme (bis auf einen Bug in qemu mit wenigen
Geräten, die bei mehr als einem SET CONFIGURATION zicken, den aber außer
mehr wohl niemanden stört, aber ich hab einen Workaround dafür...).
--
Manfred Härtel, DB3HM mailto:***@rz-online.de
http://rz-home.de/mhaertel
Ralph Aichinger
2017-09-02 06:53:54 UTC
Permalink
Post by Manfred Haertel
Ich reiche täglich USB-Devices per XEN durch :-) und habe dabei
eigentlich keine Probleme (bis auf einen Bug in qemu mit wenigen
Geräten, die bei mehr als einem SET CONFIGURATION zicken, den aber außer
mehr wohl niemanden stört, aber ich hab einen Workaround dafür...).
Es mag sein, daß das mit aktuellen Versionen besser geht, meine
Erfahrungen sind auch schon wieder etwas her, und natürlich
war es schon damals nicht die neueste Xen-Version auf Produktiv-
maschinen, aber ich kann mich erinnern, daß ich wegen so einem
blöden HASP-Dongle irgendwo eine extra physische Maschine
hinstellen hab müssen.

Wie gesagt, sonst hab ich Xen immer als stabil, und auch praktisch
von der Bedienung her empfunden. Die unter 10 Kommandos, die man
benötigt um das ganze zu managen sind auf jeden Fall viel leichter
zu beherrschen als einen vSphere-Server mit seiner überladenen
Oberfläche dazu zu bringen selbst einfachste Dinge zu machen.

Privat würde ich im Moment auch nichts anderes verwenden, wenn
es um einen dedizierten Server geht. Bei Testinstallationen zum
Entwickeln ist eventuell was anderes praktischer.

/ralph
Falk Dµebbert
2017-09-03 11:32:08 UTC
Permalink
Post by Ralph Aichinger
Post by Peter Mairhofer
Ist Xen zukunftssicher genug oder sollte man eine neue Installation
besser gleich mit KVM machen?
Ich halte Xen für zukunfssicher soweit man das sagen kann. Marktführer
ist wohl VMWare, aber Xen ist unter den Linux-Lösungen immer noch
ganz gut verbreitet und wird auch von Citrix (IIRC) als großem
Unternehmen ernsthaft weiterentwickelt.
VMware wandert immer weiter vom Hypervisor in Richtung Management- und
Automatisierungs-Produkte. Mit der kommenden 7 werden viele Produkte
abgekündigt.

Was gerade extrem viel hochkommt, ist Openstack und Openstack-Integrated
Vsphere. Die Telekom stellt ihre neuen Projekte alle auf Openstack um.

Xen ist tot. Selbst Citrix hat die letzten Netscaler-Produkte zuerst für
VSphere und dann für Xen herausgegeben.

Falk D.
Ralph Aichinger
2017-09-03 12:23:31 UTC
Permalink
Post by Falk Dµebbert
VMware wandert immer weiter vom Hypervisor in Richtung Management- und
Automatisierungs-Produkte. Mit der kommenden 7 werden viele Produkte
abgekündigt.
Klar, je größer und komplexer, desto mehr Lock in, und mehr Geld zu holen.
Post by Falk Dµebbert
Was gerade extrem viel hochkommt, ist Openstack und Openstack-Integrated
Vsphere. Die Telekom stellt ihre neuen Projekte alle auf Openstack um.
Das ist einstweilen noch eine Nummer zu groß für mich daheim ;)

Spannend wird -- zumindest wenn man eher auf der Linux-Seite ist --
welches dieser "cloud-artigen" Konzepte als erstes auch nach unten zu
den kleinsten Clustern runterskalieren wird, ob das Openstack, oder
ob das Sachen wie Mesos, Kubernetes, oder irgendwelche Mischformen sein
werden.
Post by Falk Dµebbert
Xen ist tot. Selbst Citrix hat die letzten Netscaler-Produkte zuerst für
VSphere und dann für Xen herausgegeben.
Ah, OK, das hab ich nicht gewußt. Tot wie in völlig tot, oder tot wie
in "größere Opensource-Nutzer werden das wohl noch weiterentwickeln
aber der kommerzielle Push fehlt halt"?

Letztendlich egal, irgendwo zwischen RedHat, den Resten von SuSE,
Google und wem auch immer wird sich wohl ein Backer finden, der
einen der aktuellen Hypervisoren weiterentwickelt. Und wenn es
KVM ist, auch OK.

/ralph
Ulf Volmer
2017-09-03 13:09:24 UTC
Permalink
Post by Ralph Aichinger
Post by Falk Dµebbert
Xen ist tot. Selbst Citrix hat die letzten Netscaler-Produkte zuerst für
VSphere und dann für Xen herausgegeben.
Ah, OK, das hab ich nicht gewußt. Tot wie in völlig tot, oder tot wie
in "größere Opensource-Nutzer werden das wohl noch weiterentwickeln
aber der kommerzielle Push fehlt halt"?
M.W. setzt AWS nach wie vor auf Xen. Damit sollte genügend kommerzieller
Push vorhanden sein.

Viele Grüße
Ulf
Bernd Waterkamp
2017-09-03 15:46:55 UTC
Permalink
Post by Ralph Aichinger
Spannend wird -- zumindest wenn man eher auf der Linux-Seite ist --
welches dieser "cloud-artigen" Konzepte als erstes auch nach unten zu
den kleinsten Clustern runterskalieren wird, ob das Openstack, oder
ob das Sachen wie Mesos, Kubernetes, oder irgendwelche Mischformen sein
werden.
Meintest du runterskalieren im technischen Sinne? Mindestens Docker swarm
mode und Kubernetes laufen auch auf Raspi-Clustern. :-) Das Hauptproblem
ist aber ähnlich wie bei OpenStack: Mesos und Kubernetes sind für
RZ-Betrieb entworfen worden. Die kommerzielle Version heisst bei Mesos ja
nicht zufällig Datacenter OS. Man muss sich daher mit Konzepten
beschäftigen, die man in kleinen Dimensionen nicht braucht. Wenn man das
unter Fortbildung verbuchen kann ist alles gut - es frisst halt Zeit. :-)
Der Ressourcenbedarf für den Start ist weniger ein Problem.

Wer möglichst simple Lösungen sucht, ist vermutlich bei Proxmox/LXC, Docker
swarm, PiCluster etc. besser aufgehoben, was ich gar nicht böse meine. Das
sind einfach unterschiedliche Zielgruppen. Wer sich an einem zusätzlichen
Werkzeug nicht stört, kann man sich auch als Starthilfe von Rancher[0] o.ä.
unterstützen lassen.

Grüße,
Bernd

[0] Eine Art Verwaltungsfrontend für Docker Swarm, Mesos und Kubernetes,
das auch mehrere parallel unterstützt. Siehe http://rancher.com
Ralph Aichinger
2017-09-03 16:25:33 UTC
Permalink
Post by Bernd Waterkamp
Meintest du runterskalieren im technischen Sinne? Mindestens Docker swarm
mode und Kubernetes laufen auch auf Raspi-Clustern. :-) Das Hauptproblem
ist aber ähnlich wie bei OpenStack: Mesos und Kubernetes sind für
RZ-Betrieb entworfen worden. Die kommerzielle Version heisst bei Mesos ja
nicht zufällig Datacenter OS. Man muss sich daher mit Konzepten
beschäftigen, die man in kleinen Dimensionen nicht braucht. Wenn man das
unter Fortbildung verbuchen kann ist alles gut - es frisst halt Zeit. :-)
Der Ressourcenbedarf für den Start ist weniger ein Problem.
Nein, ich meine mehr die Komplexität von Installation und Administration.
Derzeit ist das wohl nur für die motiviertesten Privatnutzer und Hobbyisten,
aber auch nur für sehr wenige kleinere Betriebe interessant.

Spannend wird, ob das irgendwann mal so ausgereift wird, daß es eine
auch für kleinere Szenarien (sagen wir z.B. 5-10 Nodes) eine lohnende
Übung wird (z.B. weil man bei 5 Knoten schon stressfrei welche aus
dem Cluster nehmen kann ohne sich um Ausfälle sorgen zu müssen). Wenn
man dafür dann auch Off-the-Shelf-Hardware nehmen kann, dann wäre das
doppelt lohnend. Derzeit geht das zwar, aber im kommerziellen Umfeld
ist die Arbeitszeit in so kleinen Szenarien IMHO prohibitiv teuer.
Post by Bernd Waterkamp
Wer möglichst simple Lösungen sucht, ist vermutlich bei Proxmox/LXC, Docker
swarm, PiCluster etc. besser aufgehoben, was ich gar nicht böse meine. Das
sind einfach unterschiedliche Zielgruppen. Wer sich an einem zusätzlichen
Werkzeug nicht stört, kann man sich auch als Starthilfe von Rancher[0] o.ä.
unterstützen lassen.
Im Prinzip ist es egal ob da LXC, oder Docker oder was auch immer drunter
liegt, wichtig wäre, daß sich ein bis zwei Setups rauskristallisieren
die soweit perfektioniert werden, daß sie einerseits eine Art Standard
bilden, und andererseits von jedem halbwegs motivierten Linux-User in
einer Woche rausgestampft werden können. Bei halbwegs gegebener
Kompatibilität zu Sachen wie AWS oder Azure, d.h. daß man Lasten hin-
und herschieben kann, vielleicht nicht alle, aber manche, wär das dann
noch mal ein Stück attraktiver, und letztendlich wohl eine Voraussetzung,
daß die nächste Generation von Admins überhaupt noch eigene Server physisch
in die Hände kriegt.
Post by Bernd Waterkamp
[0] Eine Art Verwaltungsfrontend für Docker Swarm, Mesos und Kubernetes,
das auch mehrere parallel unterstützt. Siehe http://rancher.com
Irgendsowas will ich daheim haben, ich weiß nur nicht genau was ;)
Aber das schau ich mir bestimmt an.

/ralph
Bernd Waterkamp
2017-09-03 18:37:11 UTC
Permalink
Post by Ralph Aichinger
Nein, ich meine mehr die Komplexität von Installation und Administration.
Die ist bei Swarm niedrig, bei Kubernetes und Mesos erheblich höher. Für
beide gibt es Installer die das in eins durchziehen, aber nach dem
Verteilen der diversen Komponenten fängt da der Spaß erst an. Das will ja
auch konfiguriert und verstanden werden.
Post by Ralph Aichinger
Derzeit ist das wohl nur für die motiviertesten Privatnutzer und Hobbyisten,
aber auch nur für sehr wenige kleinere Betriebe interessant.
Das kann ich mindestens für Docker swarm mode nicht ganz so gelten lassen.
Eine erste Installation und ein Grundverständnis für notwendige Tätigkeiten
schafft jeder mit Linux-Erfahrung in einem halben Tag. Das bedeutet aber
*nicht*, das ich Container überall für sinnvoll halte. Gerade in dem Umfeld
ist der Nutzwert in vielen Fällen begrenzt.
Post by Ralph Aichinger
Spannend wird, ob das irgendwann mal so ausgereift wird, daß es eine
auch für kleinere Szenarien (sagen wir z.B. 5-10 Nodes) eine lohnende
Übung wird (z.B. weil man bei 5 Knoten schon stressfrei welche aus
dem Cluster nehmen kann ohne sich um Ausfälle sorgen zu müssen).
Viele gehen einfach von live migration aus: Das gibt es (Stichwort für die
Suchmaschine lautet CRIU), ist aber AFAIK noch bei keiner Lösung aus der
beta-Phase raus. Die gehen ja als Regelfall davon aus, das ein Container
statuslos ist, also einfach gekilled und woanders neu gestartet werden
kann. Ansonsten gibt es natürlich Dinge wie einen Wartungsmodus, damit ein
Server im Cluster nichts mehr annimmt.
Post by Ralph Aichinger
Wenn man dafür dann auch Off-the-Shelf-Hardware nehmen kann, dann wäre
das doppelt lohnend.
Das geht. Und ein fünf bis zehn Knoten Cluster ist IMHO für Docker Swarm
durchaus keine seltene Größe. Bei Mesos oder Kubernetes wäre das eher
klein. Im Gegensatz zu VMs sind Container aber derzeit keine Universal-
lösung, auch wenn manches es leider so verkaufen. Programme mit Daten-
haltung, zum Beispiel DBs wie Postgres, sind die große Herausforderung.
Wer nicht schon an anderen Stellen von Containern profitiert, sollte es da
einfach bleiben lassen.

Für ein kleines Cluster, am besten noch mit Teilzeit-Admins finde ich sowas
wie Proxmox und ähnliche Lösungen - ich bin da religionslos :-) - deutlich
naheliegender. Container will man IMHO, wenn man entweder nur Anwendungen
darin betreibt die das auch ohne viel Zuwendung verkraften. Oder man legt
viel Wert auf die zusätzlichen Möglichkeiten wie sehr schnelles, rück-
standsfreies Installieren und Entsorgen wechselnder Inhalte, zum Beispiel
für Testinfrastrukturen oder beim Skalieren. Ersteres ist at $WORK die
Hauptaufgabe: Wegwerf-Standardinstallationen für Entwickler, die "früher"
Vagrant+VMs genommen hätten.
Post by Ralph Aichinger
Im Prinzip ist es egal ob da LXC, oder Docker oder was auch immer drunter
liegt, wichtig wäre, daß sich ein bis zwei Setups rauskristallisieren
die soweit perfektioniert werden, daß sie einerseits eine Art Standard
bilden, und andererseits von jedem halbwegs motivierten Linux-User in
einer Woche rausgestampft werden können.
Mit Docker kommt man da schon sehr weit, aber sicherheitshalber :-)
nochmal: Da Container-Umgebungen ein paar Annahmen tätigen, z.B. das ein
Image unveränderlich ist, muss man im Cluster Themen wie Storage oft neu in
Angriff nehmen. Für Admins alles kein Hexenwerk. Ich würde aber nicht ohne
Not etwas mit Containern aufbauen, für das es Lösungen auf VM-Basis gibt
die viele Jahre mehr Zeit hatten, um zu reifen.
Post by Ralph Aichinger
Bei halbwegs gegebener Kompatibilität zu Sachen wie AWS oder Azure,
Ein OCI- oder Docker-konformes Image ist nichts anderes als ein Tarball
plus Metadaten. Die kannst du problemlos hin und her schieben. Was nicht
standardisiert ist, sind die Ebenen oben drüber, insbesondere Komposition,
also das zusammenbauen einer Anwendung aus Webserver, Datenbank, etc. Die
naheliegende Lösung ist, den lokal genutzten Stack mitzunehmen oder dort
neu aufzusetzen, weil dessen Komponenten ja auch alle im Container laufen.
*Den* Standard gibt es dafür nicht.

BTW: Wir hatten jetzt schon zwei Hersteller, einen kleinen und einen sehr
großen (big blue), die mit "wir liefern das bevorzugt als Docker Images"
ankamen. Das wird mehr werden, gerade für alles was den Charakter einer
Blackbox/Appliance hat. Ich bin weit davon ab, das als Allheilmittel zu
sehen, kann aber schon aus diesem Grund jedem Admin nur empfehlen sich
damit zu beschäftigen. Je nach Sichtweise mutig, frech oder dumm ist die
Aktion eines anderen Projektes, alle Installationsmethoden außer Docker auf
deprecated zu setzen. Ich verstehe die Motivation - eine größere Python-
Anwendung für Kunden zu paketieren ist nicht immer trivial - aber viele
größere Firmen dürften sie dafür derzeit noch mit Missachtung strafen.
Post by Ralph Aichinger
Post by Bernd Waterkamp
[0] Eine Art Verwaltungsfrontend für Docker Swarm, Mesos und Kubernetes,
das auch mehrere parallel unterstützt. Siehe http://rancher.com
Irgendsowas will ich daheim haben, ich weiß nur nicht genau was ;)
Kommt darauf an, was das Ziel der Aktion ist. Rancher hilft beim schnellen
Installieren dieser drei Lösungen. Wenn du "nur" Container einsetzen
möchtest, würde ich mir andere Dinge anschauen: IIRC nutzt du Distris aus
der Redhat-Familie. Da passiert durch die geschäftlichen Interessen an
diesem Umfeld derzeit sehr viel, das auch in Fedora und Centos Einzug hält.
Wenn du den letzten Schrei (aus deren Sicht) sehen willst, sind das Dinge
wie Project Atomic[0] oder buildah[1]. Ich vermute aber, du möchtest eher
eine Minimal-Installation deiner Standard-Distribution und ein wenig Zeit
mit docker verbringen. :-) Das brauchst du sowieso meistens unten drunter
und man kommt damit für einfach Tätigkeiten schon ziemlich weit. Ganz
nebenbei frischt du im Redhat-Umfeld vielleicht deine SELinux-Kenntnisse
auf, weil die immer öfter davon ausgehen, das es eingeschaltet ist. ;-)
Man frischt auch zwei andere Konzepte auf: Letztlich sind Container nichts
anderes als eine Kombination aus cgroups und Namespaces.

Grüße,
Bernd

[0] https://www.projectatomic.io - neues Betriebssystem: Images/Container
statt RPM.
[1] Container ohne jegliche Docker-Beteiligung. Noch ziemlich beta.
Bernd Waterkamp
2017-09-03 18:47:54 UTC
Permalink
Post by Ralph Aichinger
Nein, ich meine mehr die Komplexität von Installation und Administration.
Die ist bei Swarm niedrig, bei Kubernetes und Mesos erheblich höher. Für
beide gibt es Installer die das in eins durchziehen, aber nach dem
Verteilen der diversen Komponenten fängt da der Spaß erst an. Das will ja
auch konfiguriert und verstanden werden.
Post by Ralph Aichinger
Derzeit ist das wohl nur für die motiviertesten Privatnutzer und Hobbyisten,
aber auch nur für sehr wenige kleinere Betriebe interessant.
Das kann ich mindestens für Docker swarm mode nicht ganz so gelten lassen.
Eine erste Installation und ein Grundverständnis für notwendige Tätigkeiten
schafft jeder mit Linux-Erfahrung in einem halben Tag. Das bedeutet aber
*nicht*, das ich Container überall für sinnvoll halte. Gerade in dem Umfeld
ist der Nutzwert in vielen Fällen begrenzt.
Post by Ralph Aichinger
Spannend wird, ob das irgendwann mal so ausgereift wird, daß es eine
auch für kleinere Szenarien (sagen wir z.B. 5-10 Nodes) eine lohnende
Übung wird (z.B. weil man bei 5 Knoten schon stressfrei welche aus
dem Cluster nehmen kann ohne sich um Ausfälle sorgen zu müssen).
Viele gehen einfach von live migration aus: Das gibt es (Stichwort für die
Suchmaschine lautet CRIU), ist aber AFAIK noch bei keiner Lösung aus der
beta-Phase raus. Die gehen ja als Regelfall davon aus, das ein Container
statuslos ist, also einfach gekilled und woanders neu gestartet werden
kann. Ansonsten gibt es natürlich Dinge wie einen Wartungsmodus, damit ein
Server im Cluster nichts mehr annimmt.
Post by Ralph Aichinger
Wenn man dafür dann auch Off-the-Shelf-Hardware nehmen kann, dann wäre
das doppelt lohnend.
Das geht. Und ein fünf bis zehn Knoten Cluster ist IMHO für Docker Swarm
durchaus keine seltene Größe. Bei Mesos oder Kubernetes wäre das eher
klein. Im Gegensatz zu VMs sind Container aber derzeit keine Universal-
lösung, auch wenn manches es leider so verkaufen. Programme mit Daten-
haltung, zum Beispiel DBs wie Postgres, sind die große Herausforderung.
Wer nicht schon an anderen Stellen von Containern profitiert, sollte es da
einfach bleiben lassen.

Für ein kleines Cluster, am besten noch mit Teilzeit-Admins finde ich sowas
wie Proxmox und ähnliche Lösungen - ich bin da religionslos :-) - deutlich
naheliegender. Container will man IMHO, wenn man entweder nur Anwendungen
darin betreibt die das auch ohne viel Zuwendung verkraften. Oder man legt
viel Wert auf die zusätzlichen Möglichkeiten wie sehr schnelles, rück-
standsfreies Installieren und Entsorgen wechselnder Inhalte, zum Beispiel
für Testinfrastrukturen oder beim Skalieren. Ersteres ist at $WORK die
Hauptaufgabe: Wegwerf-Standardinstallationen für Entwickler, die "früher"
Vagrant+VMs genommen hätten.
Post by Ralph Aichinger
Im Prinzip ist es egal ob da LXC, oder Docker oder was auch immer drunter
liegt, wichtig wäre, daß sich ein bis zwei Setups rauskristallisieren
die soweit perfektioniert werden, daß sie einerseits eine Art Standard
bilden, und andererseits von jedem halbwegs motivierten Linux-User in
einer Woche rausgestampft werden können.
Mit Docker kommt man da schon sehr weit, aber sicherheitshalber :-)
nochmal: Da Container-Umgebungen ein paar Annahmen tätigen, z.B. das ein
Image unveränderlich ist, muss man im Cluster Themen wie Storage oft neu in
Angriff nehmen. Für Admins alles kein Hexenwerk. Ich würde aber nicht ohne
Not etwas mit Containern aufbauen, für das es Lösungen auf VM-Basis gibt
die viele Jahre mehr Zeit hatten, um zu reifen.
Post by Ralph Aichinger
Bei halbwegs gegebener Kompatibilität zu Sachen wie AWS oder Azure,
Ein OCI- oder Docker-konformes Image ist nichts anderes als ein Tarball
plus Metadaten. Die kannst du problemlos hin und her schieben. Was nicht
standardisiert ist, sind die Ebenen oben drüber, insbesondere Komposition,
also das zusammenbauen einer Anwendung aus Webserver, Datenbank, etc. Die
naheliegende Lösung ist, den lokal genutzten Stack mitzunehmen oder dort
neu aufzusetzen, weil dessen Komponenten ja auch alle als Container laufen.
*Den* Standard gibt es dafür nicht.

BTW: Wir hatten jetzt schon zwei Hersteller, einen kleinen und einen sehr
großen (big blue), die mit "wir liefern das bevorzugt als Docker Images"
ankamen. Das wird mehr werden, gerade für alles was den Charakter einer
Blackbox/Appliance hat. Ich bin weit davon ab, das als Allheilmittel zu
sehen, kann aber schon aus diesem Grund jedem Admin nur empfehlen sich
damit zu beschäftigen. Je nach Sichtweise mutig, frech oder dumm ist die
Aktion eines anderen Projektes, alle Installationsmethoden außer Docker auf
deprecated zu setzen. Ich verstehe die Motivation - eine größere Python-
Anwendung für Kunden zu paketieren ist nicht immer trivial - aber viele
größere Firmen dürften sie dafür derzeit noch mit Missachtung strafen.
Post by Ralph Aichinger
Post by Bernd Waterkamp
[0] Eine Art Verwaltungsfrontend für Docker Swarm, Mesos und Kubernetes,
das auch mehrere parallel unterstützt. Siehe http://rancher.com
Irgendsowas will ich daheim haben, ich weiß nur nicht genau was ;)
Kommt darauf an, was das Ziel der Aktion ist. Rancher hilft beim schnellen
Installieren dieser drei Lösungen. Wenn du "nur" Container einsetzen
möchtest, würde ich mir primär Docker/Docker swarm anschauen. Spätestens
beim Debuggen stolpert man auch wieder über cgroups und Namespaces, da
Container eigentlich nur daraus bestehen und Overlay-Netze, weil das für
die meisten Cluster-Lösungen üblich ist. Als Fortbildung gibt das ne Menge
her. Wenn der Fokus auf "Hauptsache funktioniert" liegt, nimm VMs. :-)

Grüße,
Bernd

[0] https://www.projectatomic.io - neues Betriebssystem: Images/Container
statt RPM.
[1] Container ohne jegliche Docker-Beteiligung. Noch ziemlich beta.
Bernd Waterkamp
2017-09-03 18:48:21 UTC
Permalink
Post by Ralph Aichinger
Nein, ich meine mehr die Komplexität von Installation und Administration.
Die ist bei Swarm niedrig, bei Kubernetes und Mesos erheblich höher. Für
beide gibt es Installer die das in eins durchziehen, aber nach dem
Verteilen der diversen Komponenten fängt da der Spaß erst an. Das will ja
auch konfiguriert und verstanden werden.
Post by Ralph Aichinger
Derzeit ist das wohl nur für die motiviertesten Privatnutzer und Hobbyisten,
aber auch nur für sehr wenige kleinere Betriebe interessant.
Das kann ich mindestens für Docker swarm mode nicht ganz so gelten lassen.
Eine erste Installation und ein Grundverständnis für notwendige Tätigkeiten
schafft jeder mit Linux-Erfahrung in einem halben Tag. Das bedeutet aber
*nicht*, das ich Container überall für sinnvoll halte. Gerade in dem Umfeld
ist der Nutzwert in vielen Fällen begrenzt.
Post by Ralph Aichinger
Spannend wird, ob das irgendwann mal so ausgereift wird, daß es eine
auch für kleinere Szenarien (sagen wir z.B. 5-10 Nodes) eine lohnende
Übung wird (z.B. weil man bei 5 Knoten schon stressfrei welche aus
dem Cluster nehmen kann ohne sich um Ausfälle sorgen zu müssen).
Viele gehen einfach von live migration aus: Das gibt es (Stichwort für die
Suchmaschine lautet CRIU), ist aber AFAIK noch bei keiner Lösung aus der
beta-Phase raus. Die gehen ja als Regelfall davon aus, das ein Container
statuslos ist, also einfach gekilled und woanders neu gestartet werden
kann. Ansonsten gibt es natürlich Dinge wie einen Wartungsmodus, damit ein
Server im Cluster nichts mehr annimmt.
Post by Ralph Aichinger
Wenn man dafür dann auch Off-the-Shelf-Hardware nehmen kann, dann wäre
das doppelt lohnend.
Das geht. Und ein fünf bis zehn Knoten Cluster ist IMHO für Docker Swarm
durchaus keine seltene Größe. Bei Mesos oder Kubernetes wäre das eher
klein. Im Gegensatz zu VMs sind Container aber derzeit keine Universal-
lösung, auch wenn manches es leider so verkaufen. Programme mit Daten-
haltung, zum Beispiel DBs wie Postgres, sind die große Herausforderung.
Wer nicht schon an anderen Stellen von Containern profitiert, sollte es da
einfach bleiben lassen.

Für ein kleines Cluster, am besten noch mit Teilzeit-Admins finde ich sowas
wie Proxmox und ähnliche Lösungen - ich bin da religionslos :-) - deutlich
naheliegender. Container will man IMHO, wenn man entweder nur Anwendungen
darin betreibt die das auch ohne viel Zuwendung verkraften. Oder man legt
viel Wert auf die zusätzlichen Möglichkeiten wie sehr schnelles, rück-
standsfreies Installieren und Entsorgen wechselnder Inhalte, zum Beispiel
für Testinfrastrukturen oder beim Skalieren. Ersteres ist at $WORK die
Hauptaufgabe: Wegwerf-Standardinstallationen für Entwickler, die "früher"
Vagrant+VMs genommen hätten.
Post by Ralph Aichinger
Im Prinzip ist es egal ob da LXC, oder Docker oder was auch immer drunter
liegt, wichtig wäre, daß sich ein bis zwei Setups rauskristallisieren
die soweit perfektioniert werden, daß sie einerseits eine Art Standard
bilden, und andererseits von jedem halbwegs motivierten Linux-User in
einer Woche rausgestampft werden können.
Mit Docker kommt man da schon sehr weit, aber sicherheitshalber :-)
nochmal: Da Container-Umgebungen ein paar Annahmen tätigen, z.B. das ein
Image unveränderlich ist, muss man im Cluster Themen wie Storage oft neu in
Angriff nehmen. Für Admins alles kein Hexenwerk. Ich würde aber nicht ohne
Not etwas mit Containern aufbauen, für das es Lösungen auf VM-Basis gibt
die viele Jahre mehr Zeit hatten, um zu reifen.
Post by Ralph Aichinger
Bei halbwegs gegebener Kompatibilität zu Sachen wie AWS oder Azure,
Ein OCI- oder Docker-konformes Image ist nichts anderes als ein Tarball
plus Metadaten. Die kannst du problemlos hin und her schieben. Was nicht
standardisiert ist, sind die Ebenen oben drüber, insbesondere Komposition,
also das zusammenbauen einer Anwendung aus Webserver, Datenbank, etc. Die
naheliegende Lösung ist, den lokal genutzten Stack mitzunehmen oder dort
neu aufzusetzen, weil dessen Komponenten ja auch alle als Container laufen.
*Den* Standard gibt es dafür nicht.

BTW: Wir hatten jetzt schon zwei Hersteller, einen kleinen und einen sehr
großen (big blue), die mit "wir liefern das bevorzugt als Docker Images"
ankamen. Das wird mehr werden, gerade für alles was den Charakter einer
Blackbox/Appliance hat. Ich bin weit davon ab, das als Allheilmittel zu
sehen, kann aber schon aus diesem Grund jedem Admin nur empfehlen sich
damit zu beschäftigen. Je nach Sichtweise mutig, frech oder dumm ist die
Aktion eines anderen Projektes, alle Installationsmethoden außer Docker auf
deprecated zu setzen. Ich verstehe die Motivation - eine größere Python-
Anwendung für Kunden zu paketieren ist nicht immer trivial - aber viele
größere Firmen dürften sie dafür derzeit noch mit Missachtung strafen.
Post by Ralph Aichinger
Post by Bernd Waterkamp
[0] Eine Art Verwaltungsfrontend für Docker Swarm, Mesos und Kubernetes,
das auch mehrere parallel unterstützt. Siehe http://rancher.com
Irgendsowas will ich daheim haben, ich weiß nur nicht genau was ;)
Kommt darauf an, was das Ziel der Aktion ist. Rancher hilft beim schnellen
Installieren dieser drei Lösungen. Wenn du "nur" Container einsetzen
möchtest, würde ich mir primär Docker/Docker swarm anschauen. Spätestens
beim Debuggen stolpert man auch wieder über cgroups und Namespaces, da
Container eigentlich nur daraus bestehen und Overlay-Netze, weil das für
die meisten Cluster-Lösungen üblich ist. Als Fortbildung gibt das ne Menge
her. Wenn der Fokus auf "Hauptsache funktioniert" liegt, nimm VMs. :-)

Grüße,
Bernd

Loading...