Post by Kay MartinenPost by Marcel MuellerPost by Kay Martinensnapd-mist den ich eigentlich nicht haben will?
Snad ... Es löst halt das Problem, dass kommerzielle Software nicht mit
den volatilen Library-Dependencies der Linux-Distros umgehen kann.
Es scheint bei den Server-flavours von Ubuntu standard zu sein, oder ich
hatte das falsche image. Im 1. Fall ist ubuntu auf dem Server für mich tot.
Snapd ist bei allen Ubuntus standardmäßig erst mal mit dabei. Ob dann
auch Snap-Pakete installiert sind, ist eine andere Frage. Ohne selbige
ist der Dienst eher harmlos.
Post by Kay MartinenPost by Marcel MuellerGuest keinen Speicher mehr sollte nicht so weh tun. Allerdings könnte
der Gast durch exzessives Swappen auch das Storage-Subsystem so
Hmm, IMHO habe ich beim partitionieren Swap komplett weg gelassen. Das
im verein mit snapd-ressourcenverbrennung könnte eine Erklärung sein.
Swap-Partition macht heute keine automatische Installation mehr. Linux
swappt einfach ins Dateisystem.
Post by Kay MartinenPost by Marcel Muellerauslasten, dass kein sinnvolles Arbeiten mehr möglich ist. I/O kostet
halt auch Virtualisierungsoverhead. Ich hoffe mal die Kiste hat
wenigstens SSD. Ohne ist das System beim Swappen handlungsunfähig, da
aktuelle Platten ungefähr so viel IOPS haben wie vor 25 Jahren.
Keine SSD aber schon Erfahrungen von früher und da lief es rund.
Aua!
Du glaubst nicht /wie/ langsam Platten geworden sind. Mittlerweile gibt
in der Consumer-Class kaum noch einer (oder sogar keine?) die
Zugriffszeit bzw. IOPS an. Das machen die nicht, weil die Werte so gut
sind. Teilweise liegen die Zeiten auf dem Level von vor 30 Jahren und
können in keinster Weise mehr mit den heutigen Anforderungen mithalten.
Nur mal so als Hausnummer, Anfang/Mitte 90er hatte meine Festplatte 70
IOPS. Eine aktuelle Notebookplatte schafft das zumeist nicht. Die Werte
schwanken heute drastisch (zum schlechten) weil die Kopfservos aufgrund
der hohen Aufzeichnungsdichte die Spuren nicht mehr treffen.
Eine SSD ist die /billigste/ Lösung um einem älteren Computer Beine zu
machen.
Post by Kay MartinenAber einen Gast ohne Swap und mit snapd beim install hatte ich in der
Tat noch nicht. Wenn der in der VM swappen will kann es doch auch kaum
schneller sein als ohne Swap.
Swap wird auch ohne Swap-Partition aktiviert.
Post by Kay MartinenPost by Marcel Mueller1 GB ist für aktuelle Linuxe auf jeden Fall zu wenig. Vor allem, wenn
man ein 64-Bit OS nimmt, was bei dem viele Datenstrukturen doppelt so
groß sind. Dazu noch Snap, das wird nix.
Ich hab wohl das falsche image (oder kein i386 gefunden) und früher
schon Desktop Linuxe auf dem Host in der VM laufen lassen. Evtl. hatte
ich denen 2 GB RAM zugewiesen. Weiß ich nicht mehr.
Du bekommst kein /Server-/OS mehr für 32 Bit, weil keiner mehr einen
Server mit so wenig RAM aufsetzt.
Mit Eigeninstallationen bekommt man die meisten Pakete aber noch in 32
Bit und kann damit natürlich auch Server installieren.
Post by Kay MartinenPost by Marcel MuellerMinimum requirement für 18.04 Live Server ist 4 GB RAM und 25 GB Disk.
Einen Faktor 4 darunter zu gehen, ist schon dreist.
Pfff, nur weil Programme immer fetter werden (und evtl. programmierer
immer bequemer [=Libs/Bloat]).
Nein, weil das Blech immer billiger ist als Menschen (die effizientere
Lösungen erarbeiten könnten).
Post by Kay MartinenLinux ist mit Snap u.a. meines Erachtens auf einem Gefährlichen Weg hin
zu Ressourcenverschwendung a'la Redmond.
Ja. Das ist die Antwort auf WinSxS. Und inklusive dessen Security-Problem.
Aber man braucht Snap/Flatpack nicht. Ich habe es noch nie benutzt, und
läuft praktisch alles unter Linux. Das meiste sogar irgendein Ubuntu.
Nur der VM-Server ist native Dabian.
Post by Kay MartinenDas könnte dazu führen das es
nie ein wirklicher Windows-Ersatz wird - jedenfalls für den Desktop und
DAU Kompatibel.
Das werden diverse Lobbyisten zu unterbinden wissen. ;-)
Aber ehrlich gesagt, stirbt Windows von alleine aus, und zwar zusammen
mit der Hardware, die keiner mehr kauft. PC-Verkäufe sind schon lange
auf dem Rückmarsch. Und die Notebooks haben ihren Höhepunkt auch längst
erreicht. Der Yuppie von heute hat ein Tablet. Und was hat das nicht?
Eine x64 CPU und damit auch Windows.
In Firmen wird es natürlich noch Jahre überleben. Aber die ersten
Sargnägel sitzen. Ich glaube nicht, dass der Zug noch aufzuhalten ist.
Er fährt halt langsam.
Post by Kay MartinenPost by Marcel MuellerEin weiterer Kandidat ist der (auf jedem System völlig überflüssige)
Anzeige-Komposit. Wenn der zu einem Zeitpunkt losschlägt, wo noch keine
Du hast bemerkt das es um den Install eines Server-iso's ging? Das war
ein Textmode Installer.
Ah, ich dachte die Ubuntu-Server wären heutzutage auch standardmäßig mit
X. Du siehst ich habe noch nie von einem Server-Image installiert. Wenn
ich die Pakete wähle, die ich brauche, kommt sowieso dasselbe raus.
Post by Kay MartinenPost by Marcel MuellerProbiere es das nächste mal mit angemessenen Ressourcen.
Nee, die Software hat sich der HW an zu passen.
Soso. Dann suche dir mal die Programmierer, die das tun. Das klappt
weder im kommerziellen noch im ehrenamtlichen Umfeld. Erstere müsste
einer bezahlen und zweitere haben keinen Bock, es läuft doch. Willkommen
in der echten Welt!
Ich bin selber Programmierer und weiß durchaus, wie man hocheffizienten
Code schreibt (incl. DB-Kernel in Assembler für search as you type auf
Consumer-Hardware Ende der 80-er). Ich habe auch schon das eine oder
andere mal Code um mehrere Zehnerpotenzen optimiert. Aber durchsetzen
kann ich mich mit der Nummer nur selten. Nur wenn es an einer Ecke
wirklich zwickt, geht da jemand ran. Aber nach der Regel "Performance by
default" entwickelt nahezu keiner.
Post by Kay MartinenIn den Laden rennen und
neue PCs kaufen wegen jedem SW Pups können die Redmond-jünger tun. Ich
nicht. Dann sperre ich die Alte Software die ich dann zwangsläufig
nutzen müßte eben besser weg. Das Netzsegment dazu existiert!
Du wirst feststellen, dass die meisten Entwicklungen aus dem
kommerziellen Umfeld auch in Open-Source Einzug nehmen, nur halt
zeitverzögert.
Es ist gar kein Problem, ein /geeignetes/ aktuelles Linux (z.B. Xubuntu)
auf 10 Jahre alter Hardware zu fahren (mach das mal mit Windows). Aber
irgendwann ist auch da der Zappen ab. Bei 15-20 Jahren wird es eng.
Und ein paar Regeln sollte man auch beachten. Z.B. nicht zu geizig zu
sein, um für 20€ eine SSD rein zu schrauben, notfalls per
SATA/IDE-Adapter. Selbst daran spielt sie nahezu ihre volle Performance aus.
Post by Kay MartinenPost by Marcel Muellerkann, lässt man es weg. Bei mir hat der VM Server kein X. Die Gäste, da
sie virtuelle Remote-Desktops sind, aber schon. Aber ich habe auch 16 GB
im Server, dafür allerdings auch 4 VMs.
Ich hab einen Proxmox mit 7 GB auf dem 2 Server-VMs und eine Router-VM
dauernd laufen. Kein Problem.
Solange es keine Desktops sind, klar. Ich habe auch erst vor einer Weile
auf 16 GB aufgerüstet. Vor allem, weil ich 64 Bit VMs brauchte, weil es
meine Software nicht mehr in 32 Bit gibt.
Post by Kay MartinenUnd einen 2. Proxmox auf einem Proliant
der 12 GB hat, ein Ersatzgerät mit 32 GB steht bereit. Virtual Desktop
ist die nächste Spielwiese auf der ich Experimentieren will. Ggf. auch
mit ThinClients für die ich noch das richtige BootOS suche.
ThinClient habe ich auch mal erwägt. Aber es lohnt sich einfach nicht.
Nahezu jede alte Hardware eignet sich dafür. Und davon gibt es einfach
genug. De nimmt man einfach ein 10 Jahre alte Notebook, was sowieso
keiner mehr haben will, irgendein sparsameres Standard Desktop-Linux mit
rdesktop drauf, und fertig. Kostet maximal gut 20€ für eine SSD.
Post by Kay MartinenDenn LTSP mit nbt und PXE hab ich nicht zum laufen bekommen.
... den Firlefanz erspart man sich damit auch.
Post by Kay MartinenEvtl. ein DSL von einer Lokalen 128 MB DOM und mittels remmina und RDP
zu einer VB-VM verbinden dachte ich. Remote Boot/PXE wäre dann überflüssig.
?
Marcel