Ressourcen sparen

Vor einiger Zeit hab ich bei vinzv’s Blog diesen Post gefunden:

Anstatt ein Programm, z.B. Firefox,  zu beenden und beim nächsten Start ewig auf alle Tabs zu warten – einfach mit pkill stoppen

und bei Wiedergebrauch zurückholen:

 

Passwort Hashes für Puppet-User

Eigentlich pippifatz, muss es aber trotzdem immer wieder suchen, weil ich’s immer vergesse…

entweder:

oder direkt im Manifest:

ssh via intermediate / multihop host

Bisher hab ich meist via Portforwarding auf einen dritten, nicht direkt erreichbaren Host verbunden. Es geht aber auch direkt, was ich ziemlich cool finde…

Upload auf host2 via host1

Download von host2 via host1

Original Beitrag bei Serverfault

btrfs resize

Gerade eben hatte ich eine Disk mit btrfs, der ich mehr Speicher zuweisen wollte. Das ganze geht damit wirklich verdammt einfach.

Als erstes macht man das Diskimage wie gewohnt grösser (im Falle von kvm versteht sich)

Wie erwünscht ist also die Disk von 1TB auf 1.5TB gewachsen…

Zu guter letzt muss lediglich das Filesystem vergrössert werden. Unter btrfs macht man da einfach einen resize, ziemlich simpel (hab hier bewusst nur um die Hälfte der zusätzlichen 500GB erweitert)

Das dauert dann ein Momentchen – aber hat tadellos funktioniert:

Verkleinern geht analog mit ‘-‘, die Grösse fix festlegen kann man, indem man +/- weglässt.

Gnome-Software zeigt nichts an

Grad eben auf einem Ubuntu 16.04 Client mit Gnome3: Wenn der User Software in Gnome-Software suchen will, wird rein gar nichts angezeigt. Hier reicht es, wenn der Cache gelöscht wird.

Und dann ging das ganze wieder…

No space left on device – running out of Inodes

Hatte soeben das Problem, dass ein Squid ständig gestreikt hat.

ein df hat aber nicht den Anschein gemacht, dass die Partition voll ist. Erst hab ich dann einfach den Squid-Cache gelöscht und neu gestartet, dann ging es wieder ne Weile. Danach dasselbe Problem, vorallem während der Arbeitszeit, wenn Squid auch vermehrt genutzt wurde.

Im Squid-Forum hab ich dann die Aussage gelesen “you’re running out of inodes”. Und das wars dann auch

Tja, damit hatte ich bis anhin noch nicht zu kämpfen, was macht man da also ? In diesem Blog konnte ich dann was dazu finden:

Erst sucht man mal die besagten Files

Und dann halt eiskalt weglöschen (rm -rf). War bei mir jetzt nicht so tragisch, weil es /var/www/html war, das am meisten betroffen war und das ist alles in Puppet.

Eine weitere Variante, falls man LVM einsetzt, könnte ein lvresize sein, wie es bei Serverfault erwähnt wird. Hab ich aber nicht getestet.

Files aus Bucket zurückholen

Puppet macht ja, wenn nicht disabled, automatisch ein Filebucket. Um Files bequem zurückzuholen, gibt es ein feines Ruby-Script (für Puppet 3 und hier für Puppet 4)

Braucht man zwar nicht oft, kann aber ab und zu doch recht hilfreich sein…

Freie RAM-Slots

Mit dmidecode -t17 kann man recht bequem die belegten RAM-Slots ausfindig machen, ohne die Kiste aufschrauben zu müssen… (-t memory geht auch, mir gefällt dieser Output jedoch besser…)