Post by Kay MartinenPost by Marcel MuellerPost by Kay MartinenNun, der Standard ist e1000, das dürfte wohl ein Gigabit-treiber sein.
Schneller ist hier sowieso nichts.
Damit meinte ich die Externe HW außerhalb der VMs. Da ist nichts
schneller als Gigabit. Wollte damit nur sagen das ich noch keine 10GbE
oder irgendwas dazwischen hab. Auch keine Link-aggregation/Trunk/Bond u.s.w.
Habe ich auch alles nicht. Allerdings laufen alle VMs auf derselben
Hardware die ebenfalls den Netzwerk-Storage beheimatet, so dass bestimmt
80% des Traffics hardwaretechnisch lokal sind.
[Timing virtueller Hardware und Treiberfehler]
Post by Kay MartinenDann betrifft es mich offenbar eh nicht. Der Host ist ein Server ohne
Audio und wenn ich mal eine Desktop-VM dort haben sollte dann ginge die
Ausgabe eh an den Client, also nichtlokal.
Bei mir auch. Hat trotzdem geknallt, weil das Timing der virtuellen
Soundkarte eben doch nicht dasselbe ist.
Post by Kay MartinenDaran hatte ich noch nicht gedacht, guter Punkt. Andererseits ist der
GbE-Port des Servers theoretisch 10 mal Schneller als eine Virtuelle
Fastethernet-NIC. Was hier meist reichen würde da der "dicke" Traffic
(Videos, fileserver) eh durch die echten Switche geht und die VMs nicht
tangiert. Dort wäre (router-einsatz) FE ausreichend zwischen DMZ, WAN
und allem anderen. Hab eh nur 2Mbit Internet!
Für Internet-Routing reicht es immer. Nur im Intranet hat man gerade
beim Kopieren größerer Dateien (z.B. Filme oder VM-Container beim
Backup) keine Lust ewig zu warten.
Post by Kay MartinenPost by Marcel MuellerPost by Kay Martinenneu booten, was ein normales Linux nicht bräuchte. Aber mir ist klar das
es hier wegen der VMs der sicherere Weg ist.
Neu booten sicher nicht. Maximal den VM Service durchstarten.
Das hier ist ProxmoxVE mit KVM und Qemu. Ich wüsste jetzt nicht was ich
da allein neu starten müsste. Wenn ich im WebUI die netzwerk-konfig des
hosts ändere dann passiert nichts sofort. Nur ein Hinweis das änderungen
erst nach Reboot aktiv werden.
Da hat man sich halt nicht viel Mühe gegeben.
Das ist wie bei Windows-Installern. "Bitte starten sie das System neu."
90% der Software funktioniert auch ohne Neustart, aber wen interessiert das?
[Host bei laufenden VMs durchstarten]
Post by Kay MartinenIch hab bei vbox nie mit dem netzwerk gespielt, möglich das es dort geht.
Wenn Du die VMs auf Filesystemebene pausieren kannst, also so, dass die
Prozesse weg sind, dann sollten die Bedingungen dafür gegeben sein. Alle
VMs pausieren, Host durchstarten, VMs wieder weiter laufen lassen.
Post by Kay MartinenIch würde auch gern virtualbox auf diesem ProxMox server haben, glaube
aber das sich das nicht in dessen konfigurations-schemata einfügt.
Das geht oft Hardwaretechnisch nicht. Zumindest Intel-Prozessoren dulden
keine mehreren Götter (also mehrere Nutzer der Hardware-Virtualisierung).
Bei AMD geht das wohl, aber das ist noch lange keine Garantie, dass sich
die Lösungen nicht an anderer Stelle, z.B. dem Netzwerkinterface,
gegenseitig in die Quere kommen.
Post by Kay MartinenUnd einen Gast auf zu setzen unter dem dann Virtualbox wiederrum gäste
liefert ist mir zu viel doppeltgemoppelt.
Ack. So etwas macht man, wenn man muss, nicht weil man es kann.
Post by Kay MartinenDenn wenn, dann wäre das die
Praktischste Lösung für remote Desktops (via RDP zum vbox-eigenen
serverdienst).
Ja, das ist tatsächlich eine sehr gute Lösung, die sich im Gegensatz zu
den Administrativen Zugängen anderer Lösungen auch für den täglichen
Betrieb eignet. In Punkto zentrale Desktop-Virtualisierung kommt da
bisher niemand ran.
Aber wenn man Remote nicht braucht, ist es auch kein Vorteil.
Post by Kay MartinenPost by Marcel MuellerNaja, für virtuelle VLANs mit virtuellem Managed Switch dazwischen
braucht man schon ein bisschen mehr als eine Firewall.
Die VLANs machen hier ein Cisco, ein TP-Link und ein Netgear Switch
extern. Die sollen nur über die Bridge zu den VMs rein reichen.
Das hat halt den Nachteil, dass der ganze VM zu VM Traffic auch
mindestens zweimal über die physikalischen Netzwerkinterfaces muss. Die
Runde kann man sich sparen, wenn man auch das virtualisiert. ESX ist an
dieser Stelle wohl ziemlich weit.
Post by Kay MartinenPost by Marcel MuellerDaher bin ich für die virtuellen Desktops bei VBox gelandet. Für Server
würde ich vmtl. eher Xen nehmen.
Xen habe ich mal versucht, aber wohl falsch oder nicht verstanden. Dann
hatte der sich stundenlang mit dem einrichten aufgehalten und ich
stellte fest das der eine komplette distri durch meinen dünnen
DSL-strohhalm saugen wollte. :-/
Ja, das ist bei Linux mittlerweile so üblich. Aber ab Win10 ist es da
dasselbe - ohne fette Leitung nicht sinnvoll benutzbar.
Post by Kay MartinenWorauf fußen deine Virtuellen Desktops? Ein WoW (Windows on Windows)
finde ich total unsinnig, weil man immer versucht ist direkt auf dem
host zu arbeiten. Bleibt nur Linux als Host der VMs oder?
Ja Host ist ein altes Debian. Darauf laufen dann die VMs. Darunter auch
solche Sachen, wie eComStation gerade hier.
Der eigentliche Antrieb war, dass mehr oder minder alle Familien PCs
veraltet waren (8 Jahre oder mehr), und außerdem waren die Daten, die
man braucht oder der Drucker immer an dem Rechner, der gerade aus war.
Netzwerk-Storage gab es zwar schon längst, aber der wurde eben nicht
konsequent genutzt.
Anstelle einer Komplett-Sanierung habe ich daher für rund 300€ einen
VM-Server hingestellt und die existierenden Rechner zu Thin-Clients
degradiert. Dafür genügen sie noch heute. Der Älteste ist jetzt fast 15
Jahre. OK, der wird langsam grenzwertig.
Wesentlicher Vorteil der Lösung ist, dass man die Programme einfach alle
offen lassen kann und eben diese offenen Programme vom Laptop im Garten
nahtlos zum PC im Büro (mit gescheitem 30") Schirm mitnehmen kann.
Post by Kay MartinenBenutzt du die oracle-pakete oder die der distri?
Oracle.
Bei Debian sind nicht nur die Server, sondern auch die Versionsnummern
der Programme stabil. Ich glaube die sind irgendwo bei VBox 3.irgendwas.
Und RDP geht damit auch nicht.
Marcel