Category Archives: Arch Linux

Linux – Swap testen

Die Bereitstellung eines ausreichend großen Swapspace zur Erweiterung des verfügbaren Arbeitsspeichers war früher eine zwingende Notwendigkeit – RAM war stets knapp und teuer. Bei den heutigen Mengen an RAM ist das Thema Swap sicherlich nicht mehr von so großer Bedeutung wie früher (manche verzichten mittlerweile sogar ganz darauf) – doch gibt es immer noch gute Gründe dafür, einen Bereich der Festplatte hierfür vorzusehen, je nach Anwendungsfall in der Größenordnung des 1- bis 3-fachen des verbauten RAMs.

Unter Linux kommt hierzu meistens eine Swap-Partition zum Einsatz, welche über die /etc/fstab eingebunden wird. Mittels free -m lässt sich die aktuelle Belegung des Arbeitsspeichers einschließlich Swap überprüfen.

Um die ordnungsgemäße Funktion und Nutzung der Swap-Partition zu testen, sprich als Härtetest den „Ernstfall“ zu proben, kann folgendes C-Programm verwendet werden (Nutzung auf eigene Gefahr!):

#include <stdlib.h>
#include <stdio.h>
#include <string.h>

int main(int argc, char** argv) {
  int max = -1;
  int mb = 0;
  char* buffer;

  if(argc > 1)
    max = atoi(argv[1]);

   while((buffer=malloc(1024*1024)) != NULL && mb != max) {
    memset(buffer, 0, 1024*1024);
    mb++;
    printf("Allocated %d MB\n", mb);
   }

   return 0;
}

Das Script unter memeater.c speichern und mittels gcc memeater.c -o memeater kompilieren.

Achtung! Ich weise erneut darauf hin, das die Nutzung dieses Programms ausdrücklich auf eigene Gefahr erfolgt. Bevor man dieses Programm startet, sollten alle nicht gespeicherten Daten gesichert und alle geöffneten Programme geschlossen werden.

Was macht dieses Programm? Es belegt soviel Arbeitsspeicher, wie es nur kann – entweder einen per Parameter festgelegten Wert oder den gesamten verfügbaren Arbeitsspeicher (Aufruf ohne Parameter). Das Programm sollte bei Erreichen des Maximalwerts abbrechen, um einen Speicherüberlauf (Out-of-Memory) zu verhindern – denn dieser ist bekanntermaßen alles andere als spaßig.

Der Aufruf erfolgt mittels ./memeater parameter. Als Parameter kann auch ein fester Wert in MB eingegeben werden. Um beispielsweise 900 MB zu belegen, erfolgt der Aufruf mittels ./memeater 900

Nach erfolgreichem Start sollte nachfolgende Ausgabe in ähnlicher Form erscheinen:

$ ./memeater
Allocated 1 MB
Allocated 2 MB
(...)
Allocated 16381 MB
Allocated 16382 MB
Allocated 16383 MB
Killed

Lässt man parallel einen Systemmonitor mitlaufen, kann man die Belegung des Arbeitsspeichers auch grafisch mitverfolgen. Kommt das Programm an die Grenze des zur Verfügung stehenden Speichers, kann das System kurzzeitig zum Stillstand kommen, bis der Prozess beendet wurde.

Überprüft man unmittelbar im Anschluss die Speicherbelegung mittels free -m, lässt sich ersehen, ob und inwieweit der Swapspace genutzt wird.

Arch Linux – Erste Zwischenbilanz

Screenshot Arch Linux

Screenshot Arch Linux

Vor gut einer Woche habe ich mein Produktivsystem auf Arch Linux umgestellt (siehe auch Mein Wechsel zu Arch Linux). Zeit also für eine erste kurze „Zwischenbilanz“.

Ich muss zugeben, Arch Linux beeindruckt. Bis auf ein paar Kleinigkeiten habe ich keinerlei Probleme oder Inkompatibilitäten festgestellt, das System „rennt“. Zwischenzeitlich trudelten die ersten Updates ein, welche sich problemlos installieren ließen – auch wenn man hier gegenüber Systemen mit festem Release-Zyklus etwas genauer hinschauen sollte, gerade wenn eine neue Kernelversion dabei ist. In diesem Fall sollte man nach dem Update mittels mkinitcpio -p linux den Kernel neu generieren, um etwaige Probleme bereits im Vorfeld zu vermeiden.

Auch würde ich empfehlen, hin und wieder vor der Durchführung evtl. Updates einen Blick in die News unter https://www.archlinux.de oder https://www.archlinux.com zu werfen, falls gravierende Änderungen am System vorgenommen werden. Der Aufwand hält sich allerdings wirklich in Grenzen, ich habe zu diesem Zweck nur eine Mailingliste unter https://mailman.archlinux.org/mailman/listinfo/arch-announce abonniert.

Mal unabhängig von Arch Linux macht die tägliche Arbeit unter der Gnome-Shell 3.12 durchaus Spaß, viele Bedienkonzepte orientieren sich an OS X und ermöglichen eine komfortable Nutzung des Systems. Die Oberfläche wirkt sehr aufgeräumt und reagiert flott. Richtig toll finde ich auch die Erweiterbarkeit mittels der „GNOME Shell Extensions, womit sich einfach via Browser diverse Funktionalitäten wie z.B. eine Wetteranzeige oder ein Applications-Menü (Startmenü) im Panel aktivieren lassen.

Mittels des gnome-tweak-tool lassen sich umfangreiche Anpassungen vornehmen. Erscheinungsbild, Schriftenglättung, Extensions, Startprogramme und vieles mehr lässt sich hier bequem konfigurieren.

Um wieder auf Arch Linux zurückzukommen; die Integration der Gnome Shell ist meiner Meinung nach unter Arch Linux sehr gut gelungen, hier habe ich unter Ubuntu ganz andere Erfahrungen gemacht, insbesondere im Hinblick auf die Performance. Subjektiv wirkte für mich unter Ubuntu auch unter Unity alles etwas „träger“, obwohl ich fairerweise sagen muss, das die Unterschiede wirklich minimal sind und sich aus dem Zusammenspiel von Kernel, Treiber und X11 in jeweils unterschiedlichen Versionsständen und Konfigurationen über beide Distributionen ergeben. Arch ist hier gegenüber Ubuntu naturgemäß mit aktuelleren Versionsständen unterwegs, was durchaus einen Einfluss auf die Gesamtperformance des Systems hat.

In Summe kann ich Arch Linux all denjenigen empfehlen, welche schon ein wenig Erfahrung mit Linux gemacht haben und etwas mit der Shell vertraut sind.

Scannen/Kopieren per Shell-Script

Scannen stellt unter Linux kein großes Problem mehr dar – viele Scanner werden von der Sane-API unterstützt und lassen sich mittels diverser Frontends komfortabel nutzen.

Oftmals ist die Nutzung eines grafischen Frontends allerdings gar nicht erforderlich – gerade wenn um reine Archivierungszwecke oder einfache Kopien vollständiger A4-Seiten geht. Anstelle im grafischen Frontend zig Knöpfe zu drücken, um einen Scan als PDF-Datei abzulegen, lässt sich das Ganze per Shellscript und scanimage automatisieren. Dieses Script lässt sich auch als Starter mit der enthaltenen Befehlszeile gnome-terminal -x sh -c "/home/user/scripts/scan-a4-color-300dpi.sh" auf den Desktop legen und bequem starten.

Scannen und als PDF ablegen

Das nachfolgende Script erzeugt eine PDF-Datei in Farbe. Hierzu wird die A4-Vorlage mit 300 DPI in Farbe eingescannt, das resultierende Image optimiert, in das JPEG-Format umgewandelt und als PDF-Datei, benannt nach Datum und Uhrzeit, abgelegt. Anschließend wird diese im Dokumentbetrachter evince geöffnet.

#!/bin/bash
# Setzen der Variablen (Datum, Uhrzeit)
zeitstempel=$(date +%Y-%m-%d_%H-%M-%S)

# Scanvorgang, Ausgabeformat TIFF
scanimage \
--clear-calibration \
--format=tiff \
--mode Color \
--depth 8 \
--resolution 300 \
--icc-profile /usr/share/color/icc/adobergb1998.icc \
-l 1mm \
-t 1mm \
-x 208mm \
-y 295mm \
-p \
-v \
> /home/user/Scans-Neu/tmp/"$zeitstempel".tif

# Konvertieren des TIFF-Bildes in JPEG incl. Bildverbesserung
convert \
-quality 95 \
-gamma 1.0 \
-brightness-contrast 10x40 \
/home/user/Scans-Neu/tmp/"$zeitstempel".tif \
/home/user/Scans-Neu/tmp/"$zeitstempel".jpg

# Konvertierung ins PDF-Format
convert /home/user/Scans-Neu/tmp/"$zeitstempel".jpg /home/user/Scans-Neu/"$zeitstempel".pdf

# Entfernen der temporaeren Dateien
rm /home/user/Scans-Neu/tmp/"$zeitstempel".tif
rm /home/user/Scans-Neu/tmp/"$zeitstempel".jpg

# Anzeigen des fertigen PDF-Dokuments
evince /home/user/Scans-Neu/"$zeitstempel".pdf

Das Script lässt sich in vielen Punkten individualisieren, z.B. hinsichtlich der Farbtiefe. Reine Textvorlagen lassen sich z.B. im „Lineart“-Modus (1-Bit) scannen und mittels tiff2pdf mit geringem Speicherbedarf als PDF ablegen. Denkbar ist beispielsweise auch eine integrierte Texterkennung mittels OCR, um ein durchsuchbares Dokument zu erzeugen. Für meinen Anwendungsfall reichte das einfache Einbetten eines JPEG-Image in einem PDF allerdings aus.

Eine Abwandlung des obigen Scripts verwandelt den Scanner in einen Farbkopierer:

Scannen und ausdrucken (Kopieren)

Das folgende Script ist eine Abwandlung des obigen „Scan2PDF“-Scripts. Die A4-Vorlage wird mit 300 DPI eingescannt, das resultierende Image optimiert, mittels tiff2ps für den Druck aufbereitet und über eine Pipe an den Drucker gesendet:

#!/bin/bash
# Setzen der Variablen (Datum, Uhrzeit)
zeitstempel=$(date +%Y-%m-%d_%H-%M-%S)

# Scanvorgang, Ausgabeformat TIFF
scanimage \
--clear-calibration \
--format=tiff \
--mode Color \
--resolution 300 \
--icc-profile /usr/share/color/icc/adobergb1998.icc \
-l 1mm \
-t 1mm \
-x 208mm \
-y 295mm \
-p \
-v \
> /home/user/Scans-Neu/tmp/"$zeitstempel".tif

# Konvertieren des TIFF-Bildes incl. Bildverbesserung
convert \
-gamma 1.0 \
-brightness-contrast 10x40 \
/home/user/Scans-Neu/tmp/"$zeitstempel".tif \
/home/user/Scans-Neu/tmp/"$zeitstempel"p.tif

## Konvertieren des TIFF-Bildes ins PS-Format und starte Druckjob
tiff2ps -z -w 8.27 -h 11.69 /home/user/Scans-Neu/tmp/"$zeitstempel"p.tif | lp -d "Druckername" -o fit-to-page -o fitplot

# Entfernen der temporaeren Dateien
rm /home/user/Scans-Neu/tmp/"$zeitstempel".tif
rm /home/user/Scans-Neu/tmp/"$zeitstempel"p.tif

Natürlich gibt es auch hier wieder viele Möglichkeiten, das Script zu individualisieren.

Viel Spaß beim Basteln!

Linktipp: explainshell.com

Wer wie ich gerne mit der Shell arbeitet, nutzt oftmals eine Vielzahl an Befehlskombinationen. Die erste Anlaufstelle hinsichtlich Shell-Befehlen sind sicherlich die Manpages, doch die Recherche der einzelnen Befehle und Parameter kann manchmal recht langwierig werden.

Will man schnell herausfinden, was sich z.B. hinter dem Shell-Kommando

du $HOME | sort -rn | less

verbirgt, kann man http://explainshell.com verwenden. Die Eingabe wird grafisch aufbereitet ausgegeben und auf die relevanten Abschnitte der betreffenden Manpages beschränkt, absolut empfehlenswert.

Mein Wechsel zu Arch Linux

Logo Arch Linux

Logo Arch Linux

Adieu Ubuntu – Welcome Arch Linux! Vor ein paar Tagen habe ich den Wechsel auf meinem Produktivsystem erfolgreich vollzogen und möchte gern meine Beweggründe und Erfahrungen mit Euch teilen.

Gründe für den Umstieg

Ich bin seit den 90ern treuer Linux-Fan (meine erste Distribution war SuSE 6.0) und nutze Ubuntu seit Erscheinen der Version 6.06 (Dapper) auf meinem Produktivsystemen, vorrangig als LTS (siehe auch mein früherer Post hierzu.) Auf meinen Servern kommt traditionell stets Debian zum Einsatz.

Bisher war ich mit Ubuntu stets sehr zufrieden, auch heute würde ich Ubuntu als Einsteigerfreundliche Distribution uneingeschränkt empfehlen. Ubuntu hat in den letzten Jahren sehr viel für die Linux-Community erreicht und eine Distribution geschaffen, welche einen problemlosen Umstieg von Windows auf Linux ermöglicht und sowohl Anfänger als auch Fortgeschrittene gleichermaßen zufriedenstellen kann.

In den vielen Jahren Ubuntu (meine zuletzt eingesetzte LTS-Version war 12.04) gab es allerdings einige Entwicklungen, die mich persönlich doch ein wenig störten. Canonical, die Firma hinter Ubuntu, löst sich vermehrt von Debian sowie Community-Standards und setzt in meinen Augen auf nicht immer nachvollziehbare Eigenentwicklungen, als heraus stechende Beispiele seien hier insbesondere der „Unity“-Desktop und die Entwicklung eines eigenen X-Servers „Mir“ als Ersatz für X.org genannt. Unity selbst finde ich persönlich gar nicht schlecht, es greift viele Konzepte auf, welche auch u.a. in OS X ihre Anwendung finden (beispielsweise das Globalmenue oder die Exposé-Funktion) und lässt sich intuitiv bedienen, wenn man sich einmal daran gewöhnt hat.

Was mich allerdings in den letzten Monaten vermehrt störte, war die mangelnde Aktualität der Softwarepakete – was beim Einsatz einer LTS-Version auch normal und durchaus erwünscht ist. Der Fokus liegt hierbei nun mal auf Stabilität: ein festgelegter Entwicklungsstand wird mit seinen Paketversionen zum Tag X eingefroren, als LTS-Fassung zur Verfügung gestellt (ggf. mit Anpassungen) und fortan nur noch mit Sicherheitsupdates versorgt. Neue Funktionen oder Verbesserungen fließen hierbei nicht ein. Ubuntu 12.04 enthielt beispielsweise Kernel 3.2, X.org 1.11.4 und Libre Office 3.5.2.

Hier gab es bereits die ersten Probleme. Der Kernel 3.2 bereitete auf meiner Hardwareplattform Schwierigkeiten (Soundchip & SSD-Controller wurden nicht erkannt), der enthaltene proprietäre NVIVIA-Treiber lag in einer veralteten Version vor und sorgte für diverse Grafikprobleme. Gut, dank des LTS Enablement Stacks ließ sich das Problem relativ schnell beheben, später fanden auch neuere NVIDIA-Treiber ihren Weg ins Repository, womit sich auch die Grafikprobleme lösten.

Doch was ist mit den Anwendungsprogrammen? Ich benötigte beispielsweise zur Erstellung meiner LaTeX-Dokumente eine halbwegs aktuelle TeX Live Distribution, doch in den Paketquellen ließ sich nur eine veraltete Fassung finden. Gleiches auch bei Libre Office – die Version 3.5 war mir für den täglichen Einsatz etwas zu angestaubt.

Kein Problem – für diesen Fall gibt es eine Vielzahl an Fremdquellen, sogenannte „Personal Package Archives“, kurz PPAs, welche die Installation neuerer Softwarepakete erlauben. Doch Fremdquellen haben den bitteren Beigeschmack, das sie die Stabilität eines LTS-Systems gefährden können und deshalb nicht ohne triftigen Grund verwendet werden sollten.

Doch am Ende kamen trotz sorgfältiger Auslese gut und gerne 10 Fremdquellen auf meinem System zum Einsatz, welche ein späteres Upgrade auf die nächste LTS-Version (spätestens 2017) aufgrund diverser Paketabhängigkeiten sehr wahrscheinlich unmöglich gemacht hätten. Doch das System lief trotz diesem Wildwuchs problemlos und hätte erst zum Supportende im Jahr 2017 ein Upgrade, respektive eine Neuinstallation verlangt.

Dann kam das neue LTS-Release 14.04 und bei mir die Überlegung zu einem Wechsel. Allerdings wusste ich bereits im Vorfeld, das ich auch mit 14.04 nicht an PPAs und einer Vielzahl manueller Nacharbeit vorbeikommen würde. Wollte ich das wirklich wieder? Dazu überzeugten mich die Neuerungen in 14.04 nicht sonderlich und würden den Aufwand einer Neuinstallation nicht rechtfertigen. Hier tat sich dann die Frage auf, ob Ubuntu für mich noch die richtige Distribution ist.

Entscheidungsfindung – Arch, Gentoo, Fedora, FreeBSD oder doch lieber Debian?

Doch wenn nicht mehr Ubuntu, welche Distribution dann? Fragen über Fragen – bei hunderten möglicher Distributionen fiel die Wahl nicht leicht. Nach dem Studium der meistgenutzten Distributionen und deren Philosophien blieben nach Abwägen der jeweiligen für mich relevanten Vor- und Nachteile Debian, Fedora, Gentoo und Arch übrig. Debian war für mich zunächst die erste Wahl (zumal ich es seit Jahren auf meinen Servern einsetze), gefolgt von Fedora, doch wollte ich diesmal möglichst aktuelle Softwarepakete auf meinem Produktivsystem. An diesem Punkt stellte sich für mich letztendlich die Frage, ob eine Snapshot-basierte Distribution mit festen Release-Zyklen die richtige Wahl für mich ist. Die Zweige Debian „testing oder „sid“ schieden aufgrund ihrer Nachteile für mich aus.

Das Konzept „Rolling Release“

Der Begriff „Rolling Release“ steht sinngemäß für „laufende Aktualisierung“. Ein Betriebssystem, welches das Konzept Rolling-Release anwendet, aktualisiert sämtliche Software-Pakete fortwährend. Betriebssystem und Anwendungsprogramme sind (je nach Distribution) somit stets auf dem aktuellen Stand der Entwicklung.

Dieses Konzept hat mich – zugegeben – recht neugierig gemacht. Stets ein aktuelles System samt Anwendungsprogrammen zu haben, ohne zu festen Zyklen den Aufwand einer Neuinstallation auf sich nehmen zu müssen, klingt zu schön um wahr zu sein. Hierzu kamen für mich zwei Distributionen in Frage, welche das Konzept des Rolling Release verfolgen: Gentoo und Arch.

Bei Gentoo, einer quellbasierten Distribution, dessen Pakete vor der Installation kompiliert werden müssen, schreckte mich allerdings der enorme Zeitaufwand des Kompilierens ab. Allein die Downtime und die Stromkosten, welche bei jedem mehrstündigen Libre Office Update durch das erneute Kompilieren aus dem Quelltext anfallen würde, stehen im keinen Verhältnis zum Nutzen. Also sollte es doch eine Distribution sein, welche Binärpakete anbietet, so fiel die Wahl auf Arch Linux.

Der Umstieg auf Arch Linux

Arch Linux verfolgt gegenüber Ubuntu einen anderen, minimalistischen Ansatz und eine etwas andere Philosophie. Es wurde als Basis-Betriebssystem für fortgeschrittene Anwender entwickelt und basiert auf den Grundsätzen:

  • Einfach halten, nicht überladen (KISS-Prinzip, „Keep it simple, stupid“)
  • Keine GUI-Werkzeuge zur Konfiguration verwenden, die die eigentlichen Vorgänge vor dem Benutzer verstecken

Der minimalistische Ansatz bietet die Möglichkeit, sich eine individuelle Systeminstallation ohne unnötigen Ballast zusammenzustellen. Ich war überzeugt, also war die Entscheidung gefallen.

Auf https://www.archlinux.de kann ein aktuelles Snapshot-Image zum Booten von CD oder USB-Stick bezogen werden. Der minimalistische Ansatz zeigte sich bereits nach dem ersten Start: Ich landete auf einem Bash-Prompt, von nun an war die Installation also meine Sache. Wer sich allerdings schon etwas mit Linux befasst hat und mit der Konsole ein wenig vertraut ist, sollte vor keine großen Schwierigkeiten stoßen, zumal das Wiki von archlinux.de eine sehr gute Anleitung bereitstellt, welche ich nur empfehlen kann: https://wiki.archlinux.de/title/Anleitung_für_Einsteiger.

Die Dokumentation der Wikis unter https://www.archlinux.org sowie https://www.archlinux.de ist wirklich hervorragend und bietet eine Vielzahl Hilfestellungen an, sollte man auf Probleme stoßen.

Die Installation und Konfiguration verlief nun Schritt für Schritt, binnen weniger Minuten war die Partitionierung und Formatierung der Festplatte sowie die Einrichtung des Bootloaders erledigt, ein paar Minuten später Netzwerk und Lokalisierung konfiguriert und die Grundinstallation samt X-Server und Gnome-Desktopumgebung erfolgt. Es macht wirklich Spaß zu sehen, wie das eigene System Stück für Stück entsteht, die Lernkurve ist hoch.

Anschließend erfolgte, wie bei jedem anderen Linux-System auch, die Installation von weiterer Paketen und Anwendungsprogrammen und abschließend die detaillierte Konfiguration. Übrigens: Wer wie ich apt als Paketmanager unter Debian/Ubuntu zu schätzen gelernt hat, wird das Arch-Pendant pacman lieben.

Hier seht Ihr das Ergebnis:

Screenshot Arch Linux

Screenshot Arch Linux


(Arch Linux 64-Bit unter Kernel 3.14.1 und Gnome 3.12.1)

Fazit

Ich bin wirklich begeistert. Was mich überrascht hat: Letztendlich benötigte ich für die Installation samt Konfiguration nicht länger, als ich bei Ubuntu benötigt hätte. Die meiste Zeit verschlingt meiner Ansicht nach grundsätzlich die individuelle Systemkonfiguration, egal ob diese unter Windows, Linux oder OS X erfolgt. Auf größere Probleme bin ich bisher nicht gestoßen, in Summe hat die Installation sogar Spaß gemacht.

Das finale System beinhaltet keinen unnötigen Ballast, da jegliche Software selbst ausgewählt und installiert wurde. Die Startzeit ab Auswahl im Grub-Bootmanager bis zum Loginprompt beträgt auf meinem System knappe 3 Sekunden, trotz identischer Zahl an Diensten deutlich schneller als unter Ubuntu. Meiner Einschätzung nach liegen die Gründe in der schlankeren Konfiguration sowie im Init-System systemd, welches Arch Linux verwendet.

Ansonsten wirkt Arch Linux unter Gnome 3 subjektiv betrachtet angenehm flott und „aus einem Guss“. Die aktuelle Software begeistert natürlich, eine Vielzahl Bugs, welche ich noch aus den älteren Softwareversionen unter Ubuntu 12.04 kannte, wurden in den neueren Fassungen behoben.

Die Aktualisierung des Systems wird innerhalb des Terminals mittels des Befehls pacman -Syu vorgenommen – einfach und effizient.

Natürlich darf man bei Rolling Releases nicht vergessen: Ein solches System benötigt Pflege. Die stetige Aktualität des Systems erfordert hin und wieder einen gewissen Wartungsaufwand bei Aktualisierungen – dies ist der Preis, den man dafür zahlt. Mir persönlich sind allerdings ein paar Minuten manuelle Konfiguration bei größeren Aktualisierungen lieber, als der immense Zeitaufwand einer vollständigen Neuinstallation. Allerdings sind die wenigen händischen Eingriffe, welche hin und wieder bei tiefgreifenden Veränderungen des Systems vorgenommen werden müssen, auf den jeweiligen Webseiten von Arch Linux sehr gut dokumentiert.

In Summe hat mich diese Distribution überzeugt – künftig werde ich also ein wenig mehr aus dem Blickwinkel von Arch Linux berichten.