OpenSource und das Versprechen auf Herstellerunabhängigkeit

Das schöne an der mißglückten Linux-Umstellung der Stadt München „LiMux“ ist, dass der Ablauf der Geschichte gut dokumentiert ist. Es gibt zahlreiche Pressebereichte, 1 Stündige Vorträge und sehr unterschiedliche Perspektiven auf die Ereignisse die 2003 begonnen und damit endeten, dass München jetzt wieder Microsoft einsetzt. Viele haben darüber gerätselt was die Ursache für das Versagen war. Überwiegend hat man die IT-Abteilung als Schuldigen ausgemacht, also Leute die entweder zuviel oder zuwenig Ahnung von Linux hatten. Doch ganz so einfach ist es nicht. Meiner Meinung nach ist der Umstieg gescheitert, weil man dem Marketing-Versprechen Linux aufgessen war, das nichts mit der Realität zu tun hat.

Das Marketing-Versprechen geht ungefähr so: Der böse Microsoft Konzern zockt seine Kunden ab, weil er pro Jahr 200 EUR für eine Server Lizenz haben will, und selbst wenn man das bezahlt, muss man mit Virenangriffen rechnen und erhält nochnichtmal Einblick in den Sourcecode. Wenn man hingegen ein Linux einsetzt wie z.b. Debian ist dort nicht nur die Technik fortschrittlicher, sondern man spart auch Geld und fördert freie Software.

Das ist jenes Bild das in Linux Zeitschriften, auf den Chemnitzer Linux Tagen und auch in vielen Büchern verbreitet wird. Es ist ein sehr attraktives Bild was jedoch einen Makel hat: es ist komplett erlogen. Was Linux hingegen in Wirklichkeit ist, kann man nirgendwo nachlesen. Um Linux zu verstehen muss man sich auf Fedora fokussieren. Es handelt sich um eine Distribution von Redhat. Der Witz ist, dass Linux und Redhat ein und desselbe ist. Es gibt nicht unterschiedliche Distributionen, die von einer bunten Community mit Software bestückt werden, sondern der gesammte Linux Stack wird von Redhat Angestellten entwickelt und zu einer Distribution geschnürt. Dazu zählt der Linux Kernel selbst, das ext4 Dateisystem, die Freedesktop-Oberfläche bis hin zu LibreOffice. Hier http://community.redhat.com/home/ ist zu lesen, wo Redhat überall als Contributer tätig wird. Die Liste ist nicht vollständig, es gibt fast nichts wo Redhat nicht involviert ist. Aber es geht noch weiter. Auch die zentrale CVE Exploit Datenbank wird von einer Stiftung gepflegt wo Redhat beteiligt ist: der Mitre Corperation.

In der Außendarstellung von Linux wird das Märchen verbreitet, es gäbe von einander unabhängige Communities. Also einmal die Programmierer und dann die Distributionen. Das ist so nicht richtig. Die sogenannten Linux Distributionen wie Debian oder ArchLinux sind nichts anderes als Redhat Clone. Sie nutzen die Pakete der Redhat Entwickler, etikettieren diese um und behaupten das wäre ihr Linux. In Wahrheit ist Ubuntu, Debian und Co jedoch nicht technologiegetrieben, sondern es sind Marketing-Vorgaben von Redhat.

Diese Realität wird in den gängigen OpenSource Büchern nicht erzählt, weil sie der gewünschten Außendarstellung von Freier Software zutiefst wiederspricht. Keineswegs ist Linux das Gegenteil von Microsoft, sondern Linux ist ein verbessertes Microsoft. Was den Anwender noch mehr gängelt, wo man noch abhängiger ist von einem Konzern und wo man noch weniger Freiheiten hat. Schauen wir uns mal die Realität an, bei dem Behörden oder Unternehmen den Schritt gegangen sind weg von Microsoft hin zu Linux. Das erstaunliche daran ist, dass alle erfolgreichen Umstellungen bei Redhat endeten. Wie ein simpler Blick in das Preisverzeichnis zeigt, sind Redhat Server um einiges teurer als Microsoft Server. Rabette gibt es keine. Beispiele für andere erfolgreiche Umstellungen hin zu Ubuntu oder zu Gentoo Linux gibt es keine.

Was sagt uns das? Es sagt uns, dass man sich den Wechsel auf Linux gut überlegen sollte. Man kann ihn entweder erfolgreich durchführen, das endet damit dass man bei Redhat landet, sich in die Abhängigkeit eines Großkonzerns begibt und weitaus mehr Geld ausgibt als bei Microsoft, oder es endet wie im Fall LiMux wo man auf das Marketing-Versprechen hereinfällt und dann in der Realität erkennt, dass Linux anders funktionert als erhofft.

Die gute Nachricht im Fall von LiMux lautet, dass weder die Politiker noch die IT-Abteilung der Stadt München Schuld an dem Desaster hatte. Und zwar deswegen nicht, weil es weltweit keine andere Stadt, Unternehmen oder Behörde gibt, die auf Debian erfolgreich gewechselt ist. Das ist technisch auch gar ncht möglich. Debian existiert nur aus einem Grund: um Desinformationen zu verbreiten. Also das Märchen von der freien OpenSource Welt anzustimmen und so zu tun, als gäbe es kein Redhat, sondern als ob Linux von unahbängigen Entwicklern entwickelt wird, die irgendwo in Brasilien oder sonstwo wohnen und aus lauter Spaß an der Sache Sourcecode schreiben und Pakete pflegen.

Und LiMux ist auch nicht das letzte Projekt was scheitern wird. Auch in China fällt man auf die selben Marketing-Versprechen herein. Dort versucht der Staat auf Basis von Ubuntu die Linux Umstellung, das Projekt nennt sich „Ubuntu Kylin“. Ebenfalls mit der gleichen Intention wie in München auch: es geht darum, die Abhängigkeit von Microsoft zu reduzieren, Freie Software einzusetzen und die eigenen Kosten zu senken. Auch „Ubuntu Kylin“ muss scheitern. Wenn China wirklich auf Linux umsteigen wollte, hätten sie Redhat kontaktiert, Ubuntu Kylin hingegen ist keine Distribution, sondern es ist ein Märchen.

Um die Entstehung und die Arbeitsweise von Redhat zu verstehen ist es wichtig ins Jahr 1995 zurückzugehen. Damals gab es lediglich Microsoft welche Serverbetriebssysteme angeboten hat (Windows NT, einige werden sich erinnern). Die Frage damals war, wie Microsoft das Monopol auf Software behalten kann, wenn es irgendwann quelloffene Software gibt. Redhat war darauf die Antwort. Redhat wurde gegründet um OpenSource zu fördern, genauer gesagt um es zu kontrollieren. Die Mechanismen unterscheiden sich leicht von dem wie Microsoft gearbeitet hat. Zu Zeiten von Microsoft war es ausreichend, wenn man einen Kopierschutz in die Software einbaute und mit Anwälten Jagd gegen Raubkopierer machte. Bei Redhat ist die Ausgangslage schwieriger. OpenSource bedeutet, dass kein Kopierschutz da ist. Dennoch hat Redhat einen Weg gefunden wie man geistiges Eigentum schützen kann, und zwar dadurch dass man die Informationen selbst kontrolliert. Redhat macht das so, dass die Handbücher für ihre Software hinter einer Paywall liegen, genannt Redhat Customer Network, Zugriff auf diese Handbücher erhält nur derjenige, der eine Subscription abschließt. Um noch mehr Kontrolle auszuüben, hat Redhat alle Programmierer angeheuert, die Ahnung hatten von Betriebssystemen. Sie programmieren zwar allesamt Freie Software, aber diese Software tut exakt das was Redhat beschließt. Wenn Redhat Standards etablieren möchte so geht das. Der Rest war dann nur noch Fleißarbeit. Man musste einfach dafür sorgen, dass der Linux Kernel so gut ist, dass er jede Anforderung spielend bewältigt und schon hatte man ein Betriebssystem was auf der einen Seite kostenlos kopiert werden konnte, worüber man jedoch gleichzeitig die Kontrolle besaß. Linux war geboren.

Diese Methoden von Redhat sind nicht neu und auch nicht ungewöhnlich. Wer sich die Geschichte der Computerindustrie in den 1980’er anschaut wird bei Firmen wie Borland, Microsoft und Adobe exakt das selbe bemerken. Die Methoden damals waren jedoch plump und als solche zu erkennen. Der Anwender wurde beispielsweise mittels Dongel an den Hersteller gebunden und das Monopol war an closedSource gebunden. Redhat hingegen funktioniert raffinierter. Einerseits gibt es eine Marketing-Abteilung (Ubuntu und Co) welche der Welt erzählt dass Linux kostenlos sei, und das es von Freiwilligen gepflegt werde. Und auf der anderen Seite gibt es den Redhat Konzern selber wo strikte Guidelines befolgt werden und man sich gegen die Welt in einem Krieg befindet der Microsoft alt aussehen lässt.

Wenn Microsoft erzählt, dass sie preiswerter sind und gegen einen Großkonzern rebellieren, dann halten das viele für Marketing-PR. Aber Microsoft sagt die Wahrheit. Es ist ein Underdog, der letzte verbleibende freie Softwarekonzern der sich Redhat erfolgreich wiedersetzt hat. Es ist ein Unternehmen, dass für seine Kunden da ist und sie mit preiswerter Software versorgt. Also mit unabhänger / freier Software. Nicht Microsoft ist der Feind, sondern Linux ist es.

OPEN SOURCE
Das Versprechen von OpenSource lautet, dass man darüber Monopole verhindert, die Kosten für die Anwender reduziert sowie mehr Freiheit erhält. Keines dieser Versprechen hat sich in der Realität eingelöst. Das genaue Gegenteil ist passiert. Dadurch, dass der Sourcecode einsehbar ist, wurde der Aufwand um dort Hintertüren einzubauen erhöht. Das heißt, man hat jetzt 1 Mio Lines of Code von dem man zwar alles im Editor anzeigen kann, aber was der Code in Wirklichkeit macht ist ein Geheimnis. Ferner wurde versprochen, dass sich die Kosten reduzieren. Die Realität ist, dass ein Unternehmen heute 1500 EUR jährlich bezahlt nur für einen simplen EAL4+ zertifizierten Redhat Server. Microsoft hat selbst zu Hochzeiten nicht einen derartigen Geld-Hunger entwickelt. Gleichzeitig ist es heute ausgeschlossen, dass ein anderes Unternehmen zu Redhat in Konkurrenz gehen könnte. Zu Zeiten von Microsoft gab es zumindest noch Hersteller wie Novell die alternative Betriebssysteme angeboten haben. Zu Redhat hingegen gibt es keine Alternative. Aber das schlimmste ist wohl, dass man bei Microsoft wenigstens weiß, dass sie böse Dinge im Sinn haben und im Zweifel die Kunden einfach ausplündern. Redhat hingegen hat es geschafft, seine Kunden selbst darüber zu täuschen.

Wie hoch sind die TCO Kosten für Windows?

Eine Recherche zu den Kosten für Microsoft Lizenzen hat ergeben, dass keiner genau sagen kann was es kostet Windows auf einem Business PC zu installieren. Selbst die sonst gut informierte Wikipedia hält sich zu dieser Frage bedeckt. Es gibt zwar sehr genaue Tabelle über HyperV, Cloud, Datacenter Eigenschaften von Windows Betriebssystemen, aber keine Informationen die etwas mit US$ pro User zu tun haben.

Fragen wir dochmal naiv Amazon was es kostet einen Windows PC zu betreiben. Noch halbwegs leicht fällt die Antwort bei Privat PC. Dort ist beim Kauf von Hardware eine OEM Windows 10 Lizenz mit dabei und fertig. Schwierig wird es jedoch im Business-Segment. Folgende Zahlen konnte ich ermitteln:

– Windows 2016 Server, 500 EUR
– SQL Server 2016, 1000 EUR
– SQL Server User Cal, 150 EUR
– Visual Studio, 500 EUR
– Windows 10, 200 EUR

Hier mal eine Beispielrechnung für einen Server und eine Workstation:
Server: 500+1000 = 1500 EUR
Workstation: 200+500+150 = 850 EUR

Nur, ob diese Zahlen so stimmen ist unklar. Selbst in dezidierten Microsoft Foren scheint niemand zu wissen was es genau kostet, Windows einzusetzen. Anstatt Preise zu nennen heißt es immer, man sollte irgendwo anrufen und das es Verhandlungssache wäre. Was sich jedoch halbwegs seriös sagen kann ist, dass im Business Umfeld folgende Microsoft Produkte eingesetzt werden: Windows 10, Windows Server 2016, SQL Server, Visual Studio, MS Office (inkl. Access), Exchange E-Mail Server. Offen ist die Frage, was der Spaß pro Nutzer kostet. Also wenn man eine Abteilung mit 10 Angestellten hat, die mit obigen Programmen arbeiten, was das Unternehmen dafür bezahlt. Hier wäre ein TCO Rechner sicherlich hilfreich, sowas gibt es jedoch erstaunlicherweise nicht. Meine eigene Schätzung geht ungefähr dahin, dass es 1000 EUR pro Kopf kostet. Aber diese Zahl ist ungewiss.

Und hier kommt Linux ins Spiel. Das interessante bei Linux ist weniger die Software an sich, als vielmehr die Notwendigkeit Linux mit Microsoft zu vergleichen. Seit ungefähr den 1990’er gibt es die ersten Vergleichsstudien, wo also eine Migration von Windows nach Linux durchgerechnet wird. Fast alle diese Studien arbeiten mit geschönten Zahlen, jenachdem wie das Ergebnis ausfallen soll, dennnoch sind solche Vergleiche nützlich weil es zum ersten Mal überhaupt den Versuch gibt TCO Kosten zu bestimmen. Ich vermute mal, auch das LiMux Projekt in München war weniger die Migration von Windows zu Linux sondern eigentlich war es eine Studie darüber, was genau Linux bzw. Microsoft eigentlich kostet.

Solche Studien kann man als sehr wertvoll bezeichnen, weil bis heute eben nicht klar ist, was die Lizenzkosten pro Kopf sind. Das Wort Linux wurde bereits erwähnt. Das schöne an Linux ist nicht unbedingt dass es besser ist, sondern dass dort halbwegs bekannt ist welche Kosten auflaufen. Ein Redhat Server kostet 799 US$ im Jahr (standard-support Vertrag), während eine Redhat Workstation 299 US$ im Jahr kostet (ebenfalls Standard-support). Wenn die Abteilung aus 10 Leuten besteht die 8 Workstations und 2 Server verwenden entstehen Kosten von 399 US$ je Kopf und Jahr. Diese Leute können dann unbegrenzt mit der kompletten Software herumspielen: also C++ Programme schreiben, SQL Datenbanken fahren, Videos schauen und was auch immer. Aber was noch wichtiger ist: wenn irgendwann die Kosten für Redhat aus dem Ruder laufen oder das Unternehmen sparen muss, lässt sich Redhat sehr einfach auf Fedora migrieren. Und das heißt, dass sich die Kosten weiter reduzieren lassen und zwar auf 0 US$. Also das was Linux eigentlich sein sollte: komplett kostenlos. In der Praxis lassen sich die 0 US$ pro Kopf nicht realisieren. Fedora im Unternehmen einzusetzen ist utopisch, weil es dafür keinen Support gibt, das System Bugs enthält und alle 12 Monate aktualisiert werden muss. Aber, wer es draufanlegt kann es versuchen.

Das heißt, im Fall von Redhat hat man Kosten die im Normalfall 399 US$ pro Kopf betragen, und sich theoretisch auf 0 US$ je Kopf senken lassen, bei Microsoft hat man ungefähre Kosten von 1000 EUR über die gesammte Zeit. Wobei man noch im Detail nachrechnen müsste, wie hoch die Kosten für Microsoft tatsächlich sind. Warum das so schwer ist, zeigt ein Beispiel:

Angenoommen die Frage lautet: „Was kostet eine Microsoft SQL Server Lizenz?“ Google wird als Antwort darauf eine Preisspanne von 500 EUR für eine ebay Lizenz bis hin zu 2000 EUR zurückgeben. Unklar ist, was davon benötigt wird und was nicht. Wenn man die Frage beantworten soll, was der SQL Server kostet, der von 100 Leuten benutzt werden darf, wird es noch schwieriger. Hier ist scheinbar alles Verhandlungssache.

Einem Unternehmen den Umstieg auf Linux zu empfehlen ist gewagt, üblicherweise zeichnen sich Linux Projekte dadurch aus, dass sie scheitern (siehe das Beispiel LiMux), was man einem Unternehmen jedoch empfehlen kann ist es, eine TCO Studio Linux vs. Microsoft zu erstellen. Also einfach mal aufzulisten, was die Kosten pro Jahr und Kopf sind. Wenn man dann zum Schluss kommt dass Microsoft preiswert ist und man damit zufrieden ist: ausgezeichnet. Am besten die Studie als wissenschaftliches Paper im Internet veröffentlichen, weil es aktuell zuwenig von derartigen Analysen gibt. Fleißige Wikipedianer könnten solche Paper dann auswerten und so einen Einblick erhalten, was genau eine Microsoft Lizenz kostet. Das würde für Markttransparenz sorgen.

Ich würde sogar noch einen Schritt weiter gehen und explizit empfehlen, solche TCO Studio mit einem Pro Microsoft Bias zu versehen, also in der Einleitung festlegen, dass Microsoft preiswerter ist und dann im Detail auflisten, was das SQL Server kosten sind. Gerade solche Pro Microsoft Studien geben einen besseren Einblick. Eine der wenigen TCO Studien ist https://core.ac.uk/download/pdf/33973715.pdf (Total Cost of Ownership von Linux und Windows:
Ein systematischer Vergleich, Diplomarbeit 2006). Dort wird sehr allgemein an die Sache herangegangen und es wird versucht auch die Qualität der Software, Stromkosten usw. mit in die Rechnung aufzunehmen. Die 112 Seiten sind jedoch mit dieser Aufgabe überfordert, das Thema ist sehr komplex. Besser wäre es, wenn man sich nur auf Lizenzkosten selber beschränkt und unterstellt, dass die Stromkosten, Anwenderzufriedenheit und Hardwarekosten identisch sind. Also lediglich die reinen Software-Lizenzkosten von Linux mit Windows vergleicht.

Generell sollte beim TCO Vergleichen für Linux immer Redhat ansetzen und dort das Standard-Subscription Modell. Es gibt zwar theoretische Alternativen wie das oben erwähnte Fedora oder gar Debian im Unternehmensumfeld einzusetzen. Aber, die einzig erfolgreichen Beispiele wo Linux tatsächlich in Behörden und Unternehmen eingesetzt wurden basieren allesamt auf Redhat.

WAS KOSTET WINDOWS?
Versuchen wir den Lizenzkosten von Windows noch etwas auf die Spur zu kommen. Sucht man bei ebay nach einem SQL Server so gibt es dort Angebote für 120 EUR je Stück. Allerdings ist unklar, ob das gebrauchte Ausgaben sind oder ob sie überhaupt funktionieren. Wenn man hingegen den Dienst Google Shopping bemüht erhält man folgenden Shop https://www.softwareonlinekaufen.eu/Windows-Server/SQL-Server/Microsoft-SQL-Server-2016-Standard–337.html?refID=gs-de der halbwegs seriös aussieht. Wollte man tatsächlich Software kaufen und im Unternehmen einsetzen wäre das wohl die richtige Anlaufstelle. Dort ist zu lesen, dass der Microsoft SQL Server 2016, 879 EUR kostet und eine Lizenz für einen PC beinhaltet. Das ist dochschonmal eine klare Aussage. Das heißt, man kauft sich einen Server bei HP oder sonstwo und kann darauf dann das Programm installieren.

Blättert man noch etwas im Shop herum so findet sich auch der „Microsoft Windows Server 2016“ für 489 EUR. Aber, dort wird es in der Beschreibung schon schwieriger:

„2-Core Paket. Sie benötigen Lizenzen für 8 Cores pro Prozessor, und mindestens 16 Cores für einen Server.“

Ein fairer Vergleich zwischen Microsoft und Redhat kann nur so aussehen, dass am Ende Microsoft gewinnt. Alles andere wäre unseriös. Weil, wer Redhat einsetzt will im Regelfall seine alten Windows Programme insbesondere die Antivirensoftware von Norton weiterbenutzen und zwar in einer virtuellen Umgebung. Damit das rechtlich erlaubt ist, muss man jedoch weiterhin die Windows Lizenzen bezahlen. Ontop kommen dann noch die Kosten für Redhat, also 299 US$ pro Jahr für die Workstation.

Warum sich bisher Linux nicht durchsetzen konnte

Viele Anhänger von OpenSource und Linux müssen kleinlaut mit Blick auf den Marktanteil zugeben, gegenüber Microsoft im Nachteil zu sein. Auf Webservern hat Linux zwar einen nennenswerten Anteil, aber bereits im Business-Bereich dominiert unangefochten Microsoft und auf dem Desktop liegt der Marktanteil von Linux bei kleiner als 1%. Wie kann es sein, dass ein Projekt wie Linux einerseits technisch so hochentwickelt ist, aber auf der anderen Seite sowenig Anerkennung erfährt?

Wenn ein mittelständisches Unternehmen seine Computer von Windows auf Linux migriert ist der erste Schritt eine Kostenkalkulation. Geld ist das, was für Unternehmen an oberster Stelle steht. Hinzu kommt dann noch eine Bewertung der möglichen Vorteile. Das Hauptproblem ist aktuell, dass niemand so genau sagen kann, was eine Linux Migration kosten wird. Wenn man sich die folgenden Details anschaut wird man sehen, dass Linux sehr viel teurer ist als man vermutet.

Um Linux einzusetzen benötigt man zwingend eine Linux-Distribution. Damit ist nicht etwa das lesenswerte Handbuch „Linuxfromscratch“ gemeint sondern damit ist eine Business-taugliche Distribution gemeint, die sich über Auto-Updates von alleine die neuesten Sicherheitsupdates herunterlädt und die 24/7 läuft. Die einzige Distribution ist derzeit Redhat, alles andere ist Spielkram und ungeeignet für den Business-Betrieb. Bei Redhat gibt es zwei Preismodelle: self-support und Standard. Self-support ist ebenfalls ungeeignet für Business-Kunden, weil der Normalfall darin besteht, dass man die Software auf seinem Rechner-Park installiert, damit nicht klarkommt und dann jemanden benötigt der das Problem lösen kann. Desweiteren hat Redhat geschickterweise dafür gesorgt, dass die Handbücher für ihre Produkte sich innerhalb des „Redhat Customer Networks“ befinden in das man sich nur einloggen kann, wenn man den Standard-Support bestellt hat.

Machen wir es etwas konkreter. Laut https://www.redhat.com/en/store/all-products kostet ein Redhat Server 799 US$ pro Jahr an Lizenzkosten und ein Workstation PC 299 US$ im Jahr. Auch hier gäbe es vielleicht die Option nicht das Workstation Lizenzmodell zu bestellen sondern nur die Desktop-PC Variante, aber die ist nicht leistungsfähig genug. Der Clou ist, dass bei einer Migration von Windows zu Linux man die alten Windows Programme noch eine Weile weiternutzen möchte, so dass ontop noch die Ausgaben für Microsoft Lizenzen anfallen.

Nochmal konkret: wer Linux im Unternehmen einsetzt bezahlt pro PC 299 US$ jährlich und pro Server 799 US$, und die Ausgaben für Microsoft Lizenzen laufen weiter. Das heißt, Redhat ist um einiges teurer als wenn das Unternehmen bei Microsoft only verbleibt, und hier haben wir den Grund warum Linux sich bisher nicht durchgesetzt hat. Die Business-Kunden haben einfach keine Lust ihre Ausgaben für IT zu erhöhen. Und die neuen Freiheiten wie Zugriff auf den Sourcecode, leistungsfähige Kommandozeilenwerkzeuge sowie Absicherung gegen Trojaner benötigen die meisten nicht.

Keineswegs ist die obige Rechnung übertrieben oder basiert auf falscher Interpretation der Redhat Preisliste. Soetwas wie einen preiswerteren Zugang zu Linux gibt es nicht. Weder der self-support innerhalb der Redhat Produktfamilie ist eine Option und schon gar nicht die Verwendung von Non-Redhat Distributionen wie Debian und Co. Keine einzige dieser Distributionen wurde bisher von Firmen erfolgreich ins Tagesgeschäft integriert, obwohl es viele probiert haben. Das heißt, wenn man die obige Methode mit dem Redhat Standard-Vertrag wählt gelingt die Umstellung auf Linux und sonst wird sie scheitern.

Die Frage ist weniger, wie man von Windows auf Linux wechselt, die Frage ist vielmehr welche Alternativen es dazu gibt. Der beste Tipp den man einem Unternehmen geben kann, was seine Kosten reduzieren möchte ist ironischerweise nicht der Umstieg auf Linux, sondern wenn der Ratschlag halbwegs seriös ausfallen soll, lautet er bei Microsoft zu bleiben. So bleiben die Kosten überschaubar und man kann sich die 799 US$ jährlich für den Redhat Server sparen.

Ich will nicht behaupten, dass Linux ein schlechtes Betriebssystem ist. Ganz im Gegenteil, ich selber nutze es seit einer halben Ewigkeit und konnte dadurch sehr viel lernen. Es hat jedoch gute Gründe, warum die Popularität von Linux gering ist. Linux ist vergleichbar mit einem Luxus-Accessoire, wenn Geld keine Rolle spielt nur her damit, wer jedoch als Business Kunde seine Kosten senken will, der wird damit keine Freude haben.

PREISE
Schauen wir uns die unverschämt hohen Redhat Preise etwas genauer an: 799 US$ für den Server jährlich. Die Frage lautet warum man soviel Geld ausgeben soll, wenn es den Sourcecode für den Linux-Kernel, Apache und PHP kostenlos im Internet gibt. Kann man den Code nicht einfach nehmen, damit eine eigene Linux-Distribution basteln um darüber Redhat Konkurrenz machen? So nach dem Motto: Redhat will 799 US$, unsere Distribution kostet nur die Hälfte. Viele haben sich daran bereits versucht, ergebnislos übrigens. Das beste Beispiel in Sachen Redhat Clone dürfte ArchLinux sein. Ein Projekt was eine minimalistische Linux Distribution zum Ziel hat. Das Problem ist folgendes: kein Unternehmen verwendet ArchLinux um seine Server zu betreiben, und es würde auch nicht funktionieren. ArchLinux ist für Hobbyanwender interessant die lernen wollen zu programmieren, aber man kann darüber nicht Redhat Konkurrenz machen. Die Schwierigkeiten im Detail:

Sich aus dem kostenlosen Linux-Sourcecode ein eigenes Betriebssystem zu kompilieren ist möglich. Man braucht dafür mehrere Scripte und das wars dann. Das Problem sind die Updates. Damit das System 24/7 laufen kann und immun ist gegen Virenattacken muss man die Pakete laufend aktualisieren. Genau daran scheitern die Non-Redhat Distributionen. Egal ob man sich ArchLinux, Ubuntu, Gentoo oder wen auch immer anschaut, keiner davon hat eine funktionsfähige Aktualisierung die es mit Redhat aufnehmen kann. Insofern ist es logisch, dass Redhat jährlich 2 Mrd US$ an Umsatz generiert, während alle andere Distributionen Null Euro Umsatz machen.

Es gibt aber noch ein weiteres Problem. Selbst wenn ArchLinux stabil laufen würde, wäre es keine echte Linux Distribution, weil man darauf angewiesen ist das jemand anderes im Upstream den Sourcecode schreibt. Dieser Upstream heißt Redhat. Genauer sind es die dort angestellten Programmierer wie Linus Torvalds und noch einige mehr, welche den Code bearbeiten. Deren Gehaltswünsche sind hoch und sie würden niemals zu ArchLinux wechseln um dort umsonst den Sourcecode verbessern.

Das sind soweit erstmal die Rahmenbedingungen des Linux-Biotops. Ich hoffe, ich habe halbwegs verständlich erläutert was die Ursachen für den geringen Marktanteil von Linux sind und wiso es nicht gelingt, Redhat Konkurrenz zu machen. Das Business Kunden dem Microsoft Konzern treu bleiben liegt nicht etwa am fehlenden Wissen bezüglich Linux, sondern es ist die richtige Entscheidung wenn man die IT-Kosten niedrig halten will.

Es gibt von Linus Torvals ein berühmtes Foto wo er vor einem Windows 7 Stand posiert https://bjdouma.home.xs4all.nl/Linus-Windows-7-rocks-NOT.jpg Das ist keineswegs ironisch gemeint, sondern die Migration von Redhat Linux zu Windows ist ein sinnvoller Weg für Businesskunden die keine Lust mehr auf horrende IT Kosten haben und die einen Weg suchen, Geld zu sparen. Für die ist Microsoft konkurrenzlos preiswert. Man kann Windows Server als einziges Betriebssystem einsetzen ohne parallel noch Linux zu betreiben, und da Windows ein Massenmarkt ist, sind die Lizenzkosten überschaubar. Hier mal der Vergleich:

Redhat:
– Server jährlich 799 US$
– Windows Server in virtueller Umgebung für Altanwendungen, 233 US$ jährlich
Summe 1032 US$ jährlich

Microsoft Windows:
– Windows Server 2016, Preis 700 US$
– 3 Jahre Nutzungsdauer, jährlich 233 US$
Summe 233 US$ jährlich

Das heißt, ein Windows only System kostet nur 1/4 eines Redhat Servers in Vollausstattung.

Linux — here to stay

Obwohl es keine große Neuigkeit ist, sollte dennoch darauf hingewiesen werden dass Linux ein System ist, was man sich etwas näher anschauen sollte. Im Laufe der Zeit gab es hier einen deutlichen Professionalisierungsschub der sich manifestiert hat in Submodule wie GTK+, Systemd, ext4 oder den TCP/IP Stack die allesamt zu den besten gehören, was in einem Betriebssystem implementiert werden kann. Zählt man die zahlreichen freien Desktopprogramme wie Lyx, Libreoffice, kdenlive oder LMMS noch hinzu, so kann Linux heute stolz von sich behaupten, der unangefochtene Marktführer im professionellen Bereich zu sein. Das war nicht immer so. Um das Jahr 2000 herum gab es eigentlich nur die Slackware-Diskettenversion die noch dazu ohne eigentlichen Window-Manager daherkam und man dort mit Tools arbeiten musste wie dem Midnight-Commander und einem Dateisystem namens ext2 was kaum jemand kannte. Heute hingegen ist Linux unterbewertet. Einerseits ist die Software technisch sehr weit entwickelt, gleichzeitig setzen es nur wenige aktiv ein. Währrenddessen es bei Microsoft und Mac OS X genau umgekehrt ist. Beide genießen einen hervorragenden Ruf eines Allzweckbetriebssystem mit dem sich effektiv arbeiten lässt, in Wahrheit jedoch wird der Anwender von Lizenzen, Trojaner-Dialern und MS-Word genervt, die komplett untauglich sind für produktives Arbeiten.

Das interessante am Linux-Kosmos ist vermutlich, dass aus sich selbst heraus eine Reproduktion möglich ist. Eine Compiler-Infrastruktur gehörte von Anbeginn zum festen Bestandteil des Systems, und heute kann man mit Tools wie Python, Eclipse, Java und LLVM sehr komfortabel Software entwickeln. Insofern kann man davon ausgehen, dass auch in 20 Jahren Linux noch zum Weltstandard gehören wird.

Windows vs Debian

Vor einiger Zeit habe ich mich bereits an einer sachlichen Kritik an ArchLinux versucht, was erstens sehr erheiternd war und mir im ArchLinux Forum den Titel „Troll des Monats“ eingebracht hat https://bbs.archlinux.de/viewtopic.php?id=23612 Zugegeben, ich habe die Sachlage damals etwas überspitzt formuliert und vor allem kannte ich im Jahr 2013 noch nicht Antergos. Heute würde ich sagen, dass die Kombination Antergos/ArchLinux das beste Betriebssystem ist was man installieren kann und deshalb ist es an der Zeit ein anderes Betriebssystem näher zu beleuchten um dieses bloßzustellen. Ausgesucht habe ich mich dafür Debian. Viel Spaß beim Lesen.

Debian gilt noch immer als das ursprüngliche Linux-Betriebssystem. Das GNU Projekt von Richard Stallman und Debian sind ein und dasselbe. Debian ist deshalb jenes Betriebssystem was bis heute auf vielen Uni-Rechnern vorinstalliert ist und worauf stabile Webserver betrieben werden. Wenn man Debian und Ubuntu zusammenzählt ist es auch jene Distribution mit der größten Marktdurchdringung. Es gibt extrem viel Fachliteratur dazu und sogar mehrere Konferenzen mit internationaler Bedeutung. Wenn man jedoch einmal von der technischen Seite Debian beurteilt wird man feststellen, dass es zu Unrecht so breite Zustimmung erhält.

Die in „Debian stable“ verwendete Webkit Version ist hoffnungslos veraltet. Laut Debian O-Ton handelt es sich dabei um eine manuell gefixte Version des Upstreams die um zahlreiche Backports sehr sicher gemacht wurde, tatsächlich ist ein Debian PC auf dem Chromium läuft angreifbar aus dem Internet und es ist reines Glück, dass dies bisher noch nicht großflächig ausgenutzt wurde. Der Sicherheitsstandard in Debian ist vergleichbar mit einem Android 2.3 was seit mehreren Jahren nicht mehr mit Updates versorgt wird und wo es noch nichtmal eine Infrastruktur gibt die auf Besserung hoffen lässt.

Noch gefährlicher ist jedoch, dass man bei Debian auch keinerlei Einsicht in dieses Problem zeigt. Man glaubt, es wäre eine gute Policy wenn man eine Webkit Version von vor 2 Jahren nimmt, diese umetikettiert, im Sourcecode kleine Änderungen an den Kommentaren vornimmt und das dann als stabilen Debian Desktop bezeichnet.

Vergleichen wir das mit einem Windows 10 System, also mit propritärer Software aus dem Hause Microsoft. Für Windows 10 gibt es regelmäßige Updates, und der hauseigene Browser Edge ist von Grund neu designt. Sobald neue Patches verfügbar sind werden diese durch Microsoft eingespielt. Wenn man aus rein technischer Sicht eine Empfehlung abgeben muss, dann würde ich lieber dazu raten ein Windows 10 mit vorinstalliertem Edge Brower einzusetzen, bevor man Debian bei sich auf der Festplatte installiert.

Mag sein, dass Debian einmal mit den besten Absichten gestartet ist, das Projekt ist jedoch zu selbstgefällig geworden und ist unfähig die eigenen Schwächen zu benennen. Die ausgelieferte Software liegt weit hinter Microsoft und Apple zurück und das dürfte auch der Grund sein, warum viele Debian-Maintainer privat einen Windows PC nutzen. Weil anders als bei Debian kann man damit halbwegs sicher ins Internet gehen und die Anwenderprogramme laufen stabil. Insgesamt macht die Debian Community auf mich den Eindruck als wäre die Zeit dort stehengeblieben. Man glaubt noch immer Anfang der 1990’er Jahre zu sein, wo Linux gerade erfunden wurde und man stolz ist ein freies Betriebssystem anbieten zu können. Vermutlich glauben Debian-Maintainer, dass eine „@debian.org“ E-Mail Adresse ein Status-Symbol ist und das der Upstream vor Ehrfurcht in die Knie geht. Tatsächlich muss Debian heute froh sein, dass es von Projekten wie xscreenserver oder Gnome überhaupt noch die Erlaubnis erhält, diese Software in Debian zu verwenden. Denn es besteht die Gefahr, dass darunter das Image leidet.

Brandbrief eines Webkit-Developers aufgetaucht

Das Debian durch den Programmierer von XScreensaver bereits unter Beschuss geraten ist, dürfte allgemein bekannt sein. Er hat sich darüber beschwert, dass er Fehlerreports von Leuten erhält, die eine alte Version von Debian verwenden, obwohl diese Probleme längst im Upstream gelöst wurden. Das ganze kann im Fall von Xscreensaver als Nebensächlichkeit abgetan werden, weil zu keinem Zeitpunkt sicherheitsrelevante Bugs darunter waren.

Jetzt ist aber ein neuer Brandbrief aufgetaucht https://blogs.gnome.org/mcatanzaro/2016/02/01/on-webkit-security-updates/ diesmal von einem Webkit Entwicker. Webkit wird von dem Chromium Browser verwendet und wenn darin Sicherheitsprobleme auftreten sind die Folgen dramatisch (geklaute Kreditkarten, Rechner mit Spionagesoftware versehen, Festplattenverschlüsselung durch Hacker usw).

In diesem Brandbrief heißt es:
„We regularly receive bug reports from users with very old versions of WebKit, who trust their distributors to handle security for them and might not even realize they are running ancient, unsafe versions of WebKit.“

Der Programmierer macht darauf aufmerksam, dass Webkit bei Ubuntu überhaupt keine Sicherheitsupdates erhält (es ist dort im Universe Repository gelistet) und das es bei Debian nur dann Updates erhält, wenn man die Testing Version verwendet. Wie auch beim XScreensaver scheint das Problem struktureller Natur zu sein. Das nähmlich die Zusammenarbeit zwischen Upstream und Linux-Distribution nicht richtig funktioniert. Für den Benutzer bedeutet das den absoluten Supergau: wenn er Chromium auf einem Ubuntu System installiert ist es sehr unsicher damit im WWW zu surfen. Und noch schlimmer, es wird sich in Zukunft daran auch nichts ändern, weil die Infrastruktur von Ubuntu oder Debian gar nicht darauf ausgelegt eine aktuelle Version von Webkit einzuspielen. Das bedeutet, dass selbst jetzt wo das Problem benannt wurde, sich gar nichts ändern wird. Es ist eben nicht nur ein weiterer Bug der eine CVE-Nummer bekommt und der in zwei Wochen gefixt sein wird, sondern der Chromium Browser auf Ubuntu LTS Machinen wird noch die nächsten 10 Jahre anfällig sein für Sicherheitslücken.

Dass dieser Brandbrief noch keine größeren Wellen geschlagen hat, ist eigentlich ein Wunder. Normalerweise müssten bei Debian und bei Ubuntu alle Warnlichter angehen. Stattdessen ist auf der Debian Security Liste zu lesen, dass alles super läuft und gerade wieder mehrere Sicherheitsprobleme in Chromium beseitigt wurden: https://www.debian.org/security/2016/dsa-3667 Scheinbar ist also Debian besser über den Sicherheitszustand von Webkit informiert, als es der Upstream ist.

Hier http://askubuntu.com/questions/177207/is-chromium-in-ubuntus-repository-safe-to-use-since-its-so-out-of-date nochmal von anderer Seite ein Bericht über den Sicherheitszustand bei Ubuntu in Verbindung mit Chromium. Das Fazit lautet, dass die Ubuntu Chromium Version komplett veraltet ist und damit das System anfällig ist für jede Art von Virus. Von der Benutzung als Produktivsystem wird entschieden abgeraten. Nur, diese Hinweise kommen keineswegs von Ubuntu selber sondern von außerhalb. Die offizielle Meinung von der Ubuntu Distribution und der Debian Distribution lautet: Lage unter Kontrolle keine Probleme, long-term-stable-release ist das beste was es gibt.

Im Grunde kann man die User nur beglückwünschen bisher um Linux auf dem Desktop immer einen großen Bogen gemacht zu haben. Wenn sie andere Betriebssysteme wie Microsoft Windows 8 einsetzen, erhalten sie wenigstens Sicherheitsupdates. Bei Linux ist das erstens nicht der Fall und noch schlimmer, bei Ubuntu und Co gibt es auch keine Bereitschaft daran etwas zu ändern.

UPSTREAM
Alle Schuld auf die Distributionen abzuladen ist falsch. Denn Sicherheitslücken entstehen beim Upstream. Hätten die Webkit Entwickler in der Vergangenheit keine Fehler gemacht, dann gäbe es die zahlreichen Exploits nicht. Aber, der Upstream ist zumindest bereit, neue Programmversionen bereitzustellen wenn die Fehler verbessert wurden. Der Zustand Stable wird aktiv angestrebt. Bei Debian und Ubuntu hingegen vertraut man auf die Guidelines die vor vielen Jahrzehnten erfunden wurden und die besagen, dass möglichst auf Veränderungen verzichtet wird, es sei denn gewichtige Gründe sprechen dafür. Diese Haltung führt dazu, dass im Zweifel kein Update auf neue Versionen durchgeführt wird und ähnlich wie bei Android auch das System unsicher wird. Das gefährliche daran ist einmal die Praxis als solche aber zusätzlich auch noch die gelebte Debian Kultur die Kritik an diesem System abblockt.

Bisher haben wir von Seiten des Upstream nur zwei Leute, die sich explizit gegen Debian gestellt haben: das Projekt XScreensaver und jemand aus dem Webkit Team. Es gibt aber im Upstream noch viele weitere Projekte wo Leute sitzen die zu den langen Release Zyklen von Debian schweigen. Es gibt auch keine Konferenzen wo sich namenhafte Entwickler gegen Debian aussprechen. Offenbar ist das Problem doch nicht so groß wie behauptet wird, offenbar ist mit Debian grundsätzlich alles zum besten bestellt?

Anspruch und Wirklichkeit bei Debian

Es gibt viele selbsternannte Linux-Experten welche sich in der Rolle gefallen, gegen Ubuntu Stimmung zu machen, weil dort angeblich das Konzept OpenSource nicht richtig verstanden wurde, Spyware vorinstalliert wäre und überhaupt die Einstiegshürde zu niedrig sei. Das ganze ist eine sehr bequeme Kritik, weil Ubuntu als Mainstream-Distribution mit diesem Image sehr gut leben kann, denn wo gehobelt wird da fallen Späne. Deutlich anspruchsvoller ist es, wenn man versucht sich mit dem Debian Projekt kritisch auseinanderzusetzen. Weil rund um Debian noch immer ein Nimbus existiert.

Schauen wir uns zunächst einmal an, wie laut Selbstdarstellung der Debian Bugtracker sowohl technisch als auch sozial funktionieren soll. Die Idee ist, dass ein Debian Anwender das Betriebssystem auf seinem PC installiert und in einer Anwendung einen Fehler bemerkt. Nehmen wir mal als Beispiel nicht den Linux-Kernel oder obskure Systembibliotheken sondern ein Programm was die meisten Studenten kennen dürften: Lyx. Beispielsweise startet man Lyx und will dort einen Text eingeben und bei aktivierter Rechtschreibkontrolle reagiert das Programm extrem zäh und man kann praktisch nicht tippen. Laut der Debian Philosophie ist jetzt der Moment gekommen einen Bugreport zu verfassen und diesen per E-Mail an den Lyx Maintainer in Debian zu schicken. Der wiederum gibt erste Rückmeldungen und priorisiert das Problem. Bei schweren Problemen leitet der Debian Maintainer den Fehlerreport weiter an den Upstream also zu lyx.org wo es ebenfalls einen Bugtracker gibt.

Soweit entspricht das der Philosophie des Debian Projektes. Schaut man sich jedoch am konkreten Beispiel einmal an wie das konkret abläuft so kann man nur den Kopf schütteln. Derzeit enthält der Debian Bugtracker zu Lyx rund 12 Einträge. Der älteste davon ist aus dem Jahr 2002 wo jemand mit der Lyx Version 1.x ein Problem hatte. Ein Teil dieser Fehlerreports wurden vom Debian Maintainer tatsächlich an den Upstream weitergeleitet, dort konnte man teilweise damit gar nichts anfangen, weil zwischen der Debian Version und der Upstream Version ein Unterschied besteht.

Wie kann man diese Details deuten? Zunächst einmal basiert das Debian Bugtracking System auf sozialer Kommunikation. Es gibt verschiedene Rollen wie Debian Nutzer, Debian Maintainer, Upstream. Zwischen diesen findet in einem mehrstufigen Prozess eine E-Mail Kommunikation statt. Der Debian Nutzer wendet sich zuerst vertrauensvoll an Debian und dort wiederum versteht man sich als Mittler zwischen Nutzer und Upstream. Die Kommunikation selber wird im Bugtracker archiviert.

Bei kritischer Betrachtung macht das ganze Prozedure keinerlei Sinn. Erstens ist die Anzahl der Leute die involviert sind zu klein. Wenn man an den Debian Maintainer von Lyx eine Nachricht schickt, dann hängt es stark vom Fachwissen dieser einen Person ab, ob einem geholfen wird oder nicht. würde man das selbe Problem in einem öffentlichen Forum schildern, würden die Chance steigen eine sinnvolle Antwort zu erhalten. Zweitens ist die Kommunikation zwischen Debian und dem Upstream per se zum Scheitern verurteilt, weil Debian eine gänzlich andere Lyx Version einsetzt als aktuell ist. Teilweise sind sich dieser Problematik die Debian Maintainer selber bewusst. Leute die sich noch halbwegs auskennen, überprüfen einen gemeldeten Fehler zuerst in ihrer Debian SID Installation bevor sie im Upstream Bugtracker einen neuen Fehlerbericht erstellen. Aber vielfach unterbleibt das, und die Kommunikation läuft komplett gegen die Wand.

Wir haben in Debian einerseits sehr hohe Ansprüche die in Guidelines veröffentlicht sind. Danach wird als Ziel nicht nur qualitativ hochwertige Software formuliert sondern darüberhinaus wird auch auf gegenseitigen Respekt geachtet. Auf der anderen Seite ist es in der Praxis unmöglich, diesen Ansprüchen gerecht zu werden, weil die verwendeten Prozesse komplett veraltet sind und mit einem Stable-Release System es unmöglich ist auf Fehlerberichte angemessen zu reagieren. Zusätzlich scheint die Debian Community diese Probleme noch nichtmal zu merken. Was im Lyx Bugtracker passiert, ist exakt dasselbe was auch bei Firefox, apache, gnome und all den anderen Kompententen an der Tagesordnung ist. Es ist jedesmal das selbe Spiel: ein Debian Anwender der offenbar seiner Distribution vollends vertraut schickt eine E-Mail an den Maintainer. Und zwar nur an ihn (persönlich). Der wiederum legt den Bug im Bugtracker an, schreibt ein Kommentar dazu und leitet ihn zum Upstream weiter wenn es wichtig ist. Dort versteht man nochnichtmal das Problem und stellt eine Rückfrage. Diese kann nicht beantwortet werden aus Mangel an Fachwissen. Irgendwann erledigt sich das Problem entweder allein, oder aber es entsteht Frust auf allen Seiten. Zusätzlich kommt erschwerend hinzu, dass es im Grunde egal ist ob in der Debian Desktop Version ein Problem gefixt wird oder nicht, weil weltweit geschätzt nur ein halbes Dutzend Debian Desktops überhaupt installiert haben.

BEST PRACTICE
Worum geht es bei OpenSource Software? Im Kern geht es darum dass der Sourcecode einer Software verbessert wird. Es geht darum Programme zu schreiben mit denen der Computer nützliche Dinge tun kann. Diese Arbeit wird nicht von Debian Maintainern oder von den Usern gemacht sondern vom Upstream. Wenn man die Qualität der Software verbessern möchte sollte man dem Upstream zuhören und nicht etwa den Usern. Anders formuliert, es ist völlig egal ob ein Debian Endnutzer Probleme mit seiner Software hat oder ob da Fehlermeldungen aufpoppen. Fehlerbereichte die von unten nach oben durchgereicht werden sind kein geeignetes Mittel um Software zu verbessern. Sondern OpenSource Softwareentwicklung findet TopDown statt. Diejenigen welche ganz oben stehen entscheiden was gemacht wird und drücken ihre Meinung dann durch bis zum Anwender.

Nur, was will der Upstream? Diese Frage ist gar nicht so einfach zu beantworten, vor allem weil nicht klar definiert ist, wer oder was der Upstream eigentlich ist. In einem Textbeitrag war beispielsweise zu lesen, dass neue CVE-Nummern von MITRE der Upstream seien. Andere sagen, Google und Gnome wären Upstream. Aber eines ist sicher: Debian ist nicht der Upstream und die Debian Community ist es erst recht nicht.

XSCREENSAVER
Interessant ist auch, wenn man sich die Fehlerreports zu einem anderen Linux Package einmal anschaut: XScreensaver. Unter ArchLinux ist derzeit die Version 5.35 installiert welche auch diejenige die der Upstream zum Download bereitstellt. Irgendwelche Warnhinweise, dass das Paket geupdated werden muss erscheint nicht. Und mehr noch, XScreensaver gehört sogar zu den Highlights eines jeden Linux-Desktops, wenn man sich dort einmal durch die Menüs durcklickt findet man viele interessante Animationen. Besonders gelungen ist die Simulation eines alten Röhrenplasma-Monitors wo nachleuchtende Buchstaben zu sehen sind. An dieser Stelle auch von mir ein großes Lob an den Autor.

Xscreensaver besitzt bei ArchLinux ein eigene Webseite wo die pkgbuild Datei gespeichert ist und wo auch der Bugtracker verfügbar ist https://bugs.archlinux.org/?project=1&cat%5B%5D=2&string=xscreensaver dort befinden sich derzeit 0 Bugs. Alles super, die User haben keine Probleme mit der Software. Schaut man sich jedoch einmal die Seite bei Debian PTS an (dem Maintainer Werkzeug) so werden dort 118 Bugs gelistet von denen 7 „important outstanding“ sind.

Aber was macht ArchLinux anders dass dort keine Bugs gemeldet sind? Schauen wir uns doch mal die Historie das Packages an. Bei ArchLinux findet sich folgendes:

Age	Commit message (Expand)	Author
2016-06-27	Update to 5.35	arojas
2015-10-27	upgpkg: xscreensaver 5.34-1	eric
2015-07-22	upgpkg: xscreensaver 5.33-2	eric
2015-07-15	upgpkg: xscreensaver 5.33-1	eric
2014-11-24	upgpkg: xscreensaver 5.32-1	eric
2014-11-18	upgpkg: xscreensaver 5.31-1	eric
2014-09-17	upgpkg: xscreensaver 5.30-1	eric
2014-06-09	upgpkg: xscreensaver 5.29-1	eric
2014-06-07	upgpkg: xscreensaver 5.28-1	eric
2013-12-12	upgpkg: xscreensaver 5.26-1	eric
2013-11-24	upgpkg: xscreensaver 5.23-1	eric
2013-07-16	upgpkg: xscreensaver 5.22-1	eric
2013-02-07	upgpkg: xscreensaver 5.21-1	eric
2012-10-18	upgpkg: xscreensaver 5.20-1	eric
2012-10-07	upgpkg: xscreensaver 5.19-2	eric
2012-07-30	upgpkg: xscreensaver 5.19-1	eric
2012-07-16	upgpkg: xscreensaver 5.18-1	eric
2012-06-24	upgpkg: xscreensaver 5.17-2	eric
2012-06-23	upgpkg: xscreensaver 5.17-1	eric
2012-01-18	upgpkg: xscreensaver 5.15-3	eric
2011-09-30	upgpkg: xscreensaver 5.15-2	eric
2011-09-30	upgpkg: xscreensaver 5.15-1	eric
2011-05-22	upgpkg: xscreensaver 5.14-1	eric
2011-05-14	upgpkg: xscreensaver 5.13-1	eric
2011-03-10	Removed ChangeLog	eric
2011-03-10	upgpkg: xscreensaver 5.12-2	jgc
2010-09-26	upgpkg: xscreensaver 5.12-1	eric
2010-08-24	upgpkg: xscreensaver 5.11-2	jgc
2010-05-17	upgpkg: xscreensaver 5.11-1	eric
2010-01-18	upgpkg: xscreensaver 5.10-3	jgc
2009-10-17	upgpkg: xscreensaver 5.10-2	eric
2009-09-09	upgpkg: xscreensaver 5.10-1	eric
2009-09-04	upgpkg: xscreensaver 5.09-1	eric
2009-06-30	upgpkg: xscreensaver 5.08-2	allan
2009-01-02	upgpkg: xscreensaver 5.08-1	eric
2008-08-12	upgpkg: xscreensaver 5.07-1	eric
2008-07-19	upgpkg: xscreensaver 5.06-1	eric
2008-04-18	Added svn:keywords to all PKGBUILDs	aaron
2008-04-06	Initial import of all packages

Zur Erläuterung sollte man wissen dass „upgpkg“ ein Bash-Script ist was automatisch die pkgbuild-Datei ändert, wenn der Upstream eine neue Version veröffentlicht. In den letzten 8 Jahren hat ArchLinux also jedesmal wenn ein Update verfügbar war, dass 1:1 weitergereicht. Der Aufwand dürfte für den Maintainer „eric“ im überschaubaren Rahmen geblieben sein. Es gibt auch keine Mailing-Archive bei denen Nutzer von ArchLinux irgendwelche Fehlerreports erstellen um sich über Dinge zu beklagen die funktionieren.

Es gibt zwei wichtige Regeln wenn man mit Computerproblemen zu kämpfen hat. Die erste lautet, dass man den Computer ausschalten und wiedereinschalten sollte. Die zweite lautet, dass man auf die aktuellste Software updaten sollte. Erstaunlicherweise lassen sich damit ein Großteil der Probleme lösen.