Testbericht Ubuntu 16.04

Obwohl Ubuntu 16.04 schon etwas länger für die Öffentlichkeit zum Download bereitsteht soll an dieser Stelle nochmal ein kleiner Kurztest folgen. Insgesamt kann man sagen, dass Ubuntu 16.04 im besten Sinne einem Windows XP ähnelt. Wer XP mochte wird auch mit Ubuntu sich gut anfreunden können. Zum einen handelt sich bei Ubuntu 16.04 um eine Software die wirklich eine große Verbreitung genießt, es gibt dutzende Foren wo die Leute über alles mögliche diskutieren und in Folge dessen besitzt die Software keine ernsthaften Probleme. Natürlich enthält auch Ubuntu 16.04 viele störende Probleme wie z.B. dass die mitgelieferte Software teilweise veraltet ist, dass die Sicherheitsupdates nicht so schnell kommen wie man sich das wünschen würde, dass massenhaft persönliche Daten an Firmen versendet werden (an Canonical, an Firefox, an Google und an Amazon). Aber egal, all diese Probleme gibt es auch mit anderen Betriebssystemen. Der Hauptvorteil von Ubuntu gegenüber allen anderen Linux Distributionen wie Antergos, Fedora oder Debian ist, dass man als Nutzer schön in Watte gepackt wird. Es gibt nie den Moment wo man im Grub Menu den „nomodeset“ Befehl einsetzen muss um doch noch die Grafikkarte zu aktivieren und es gibt auch nicht den Fall dass man sich groß entscheiden muss zwischen CSM und UFI Boot, sondern die Ubuntu Leute haben die meisten dieser Entscheidungen übernommen und man kann sich als Anwender nur auf das wesentliche orientieren.

Zugegeben, vom technischen Standpunkt ist Ubuntu 16.04 veraltet. Ähnlich wie Windows XP enthält es massive Sicherheitsprobleme, uralte Software und wirklich etwas über Betriebssysteme lernt man auch nicht wenn man damit eine Weile herumgespielt hat. Bei anderen Distributionen wie Antergos oder ArchLinux ist alles besser. Nur, Ubuntu hat den Vorteil dass es extrem sympathisch ist. Es ist ein System was von Anfang an für die breite Masse entwickelt wurde. Es ist ein Produkt bei dem ähnlich wie bei Windows XP die Marketing-Abteilung die Oberhoheit hatte. Der Grund warum Ubuntu so eine große Verbreitung besitzt dürfte damit zu tun haben, dass es zwar viele kleine Probleme gibt aber keine extrem großen. Das heißt, der Normaluser wird auf einem Normal-PC das System installiert bekommen was schonmal gegenüber den meisten anderen Linux-Distribution ein riesiger Vorteil ist. Bei Antergos scheitert selbst dieser erste Schritt. Und der Normaluser wird mit Ubuntu wenigstens leicht veraltete Software erhalten, was schonmal besser ist als gar keine Software. Beispielsweise findet sich im Ubuntu Repository ein Software namens Eclipse welche deutlich älter ist als 4 Jahre, aber hey: um damit kleine Java-Apps zu erstellen reicht das Programm vollkommen aus. Ebenso ist der LMMS Sequencer weder für professionelle Musikproduktion im Studio geeignet noch ist es innerhalb der Linux-Welt die aktuellste Version — aber auch hier gilt, man kann das Programm starten, einige Noten eingeben und sich den Song dann über Lautsprecher anhören. Das ist doch schonmal was.

Ubuntu 16.04 ist für die Linux Welt eine Art von Baseline. Also eine Software wo die Masse sich gut aufgehoben fühlt und was man als Fallback nutzt wenn all die Experimente die man sonst so anstellt nicht funktionieren. Es ist ein wenig schwer Ubuntu mit anderen Betriebssystemen zu vergleichen. Mit einem aktuellen Windows 10 kann es nicht mithalten, weil unter Windows 10 aktuelle Topspiele laufen, die man in Ubuntu nicht installieren kann und mit einem ArchLinux kann Ubuntu auch nicht mithalten, weil es mit veralteten Programmen arbeitet. Wer jedoch einerseits ein kostenloses Betriebssytem sucht auf der anderen Seite aber kein ArchLinux will, der dürfte mit Ubuntu viel Spaß haben.

Der Anwender muss sich jedoch im Vorfeld über bestimmte Einschränkungen im klaren sein. Zum einen surft man mit Ubuntu nicht anonym im Internet. Das heißt, der komplette Traffic wird aufgezeichnet. Zweitens sendet Ubuntu die Geolocation Daten des eigenen Routers an Google was bedeutet, dass man in Längen und Breitengraden getrackt wird, drittens sind die Sicherheitshürden die Ubuntu aufbaut relativ leicht von außen zu überwinden es gibt beispielsweise Berichte darüber dass Ubuntu Server obwohl sie alle Patches hatten, gehackt wurden und die Passworte abgegriffen wurden und zu guter Letzt ist Ubuntu in der Linux Community nicht gut angesehen. Es ist jene Distribution die man eigentlich nicht verwenden sollte, die dann doch aber irgendwie den Weg auf alle möglichen Rechner findet. Anders gesagt, Ubuntu User werden ausspioniert, gehackt, ihre Daten werden verkauft und sie werden im Unklaren darüber gelassen wie genau die verwendete Software funktioniert. Man kann als Ubuntu-Anwender vor allem lernen, wie man sich unterordnet, keine kritischen Fragen stellt und die Kontrolle abgibt an andere.

An dieser Stelle soll nochmal darauf hingewiesen werden, dass dies ein pädagogisches Konzept darstellt was als „Ubuntu Zirkusschule“ bezeichnet wird, hier http://www.erziehungskunst.de/artikel/eine-zirkusschule-fuers-leben/ gibt es weiterführende Informationen.

Warum Ubuntu besser ist als ArchLinux

Was ist der Unterschied zwischen Ubuntu und ArchLinux? Er ist geringer als viele denken. Auch bei Ubuntu werden nightlybuilds automatisiert über Scripte erzeugt. Der Unterschied ist jedoch, dass diese nicht als Release gedacht sind, sondern von sogenannten ISO-Testern in einer virtuellen Maschine gestaret werden und anhand von Test-Cases überprüft werden. Erstaunlich häufig kommt es dabei zu Bugs. Es werden sogar Tests auf physischer Hardware durchgeführt und auch hierbei kommt es häufig zu Pannen wie das sich ein Iso nicht installieren lässt oder ähnliches.

Der Normale User bemerkt von dieses Tests nicht weil die fertige Version dann verbessert wurde. Deshalb kann man Ubuntu ISO Images fast auf jedem Rechner zum Laufen bekommen, während bei ArchLinux es eher die Ausnahme ist, dass das System out-of-the-box funktioniert. Der Grund warum ArchLinux nicht ebenfalls so eine aufwendige Testprozedur durchführt hat etwas damit zu tun, dass man dafür Manpower benötigt. Bei Ubuntu sind derzeit nur für das sogenante Laptop Testing bei dem ISO Files auf physischer Hardware ausprobiert werden, rund 350 Leute beteiligt. Im Grunde machen diese Leute nichts anderes, als das was ein Anwender auch tun würde: CD runterladen, installieren, mit der Maus auf Buttons klicken, sich über Bugs aufregen. Dieses Testing ist dann auch der Grund, warum die Ubuntu Release Versionen schon veraltert sind wenn sie ausgeliefert werden. Nur selten gibt es einen aktuellen Kernel auch wenn man hier versucht besser zu werden.

Selbstverständlich kann der Anwender auch bei Ubuntu topaktuelle Software erhalten. Es steht im frei die sogenannte Unstable Version herunterzuladen, die einmal täglich neu kompiliert wird und die allerneuste Software inkl. aller Sicherheitsverbesserungen enthält. Das Problem damit ist jedoch, dass man dort relativ oft Bugs findet. Wers nicht glaubt muss sich nur mal die Testing-Protokolle der letzten Jahre anschauen. Es stellt sich die Frage, ob diese Fehler so schwerwiegend sind, dass man nur deshalb bei Stable-Release Distributionen bleiben soll. Die Antwort lautet ja. Nicht nur Ubuntu verwendet dieses Modell sondern auch Redhat, Microsoft oder Apple arbeiten nach diesem Prinzip.

Das Konzept was ArchLinux verwendet ist zwar attraktiv aus theoretischer Sicht scheitert in der Praxis aber dadurch, dass es keinen Weg gibt die Fehlerfreiheit eines nightly-builds zu garantieren. Und mehr noch, es ist fraglich ob man den trunk-Zweig des Upstreams überhaupt in eine lauffähige Distribution überführen kann. Anders formuliert, eine neue Version des Linux Kernel mag in der Rawhide Umgegung von Linus Torvalds perfekt funktionieren, das heißt aber noch nicht lange, dass sie in-the-wild auf den dort eingesetzten PCs tatsächlich perfekt arbeitet.

Stable-Release Distributionen besitzen viele Nachteile:
1. wird viel Manpower für die Bürokratie und das manuelle Testing gebunden
2. erhält der Anwender veraltete Software
3. werden Sicherheitsupdates gar nicht oder verzögert eingespielt

Aber kann man diese Nachteile dadurch beseitigen in dem man einfach die nightlybuilds an den Endverbraucher ausliefert so wie es Cyanogenmod und ArchLinux tun? Ist Rolling-Release womöglich die Zukunft der Softwareentwicklung? Aus Sicht des Upstreams ist sowas sinnvoll, aber die User werden die Distribution nicht mögen. Die User wollen kein System was sich täglich verändert und wo sie selbst mit Gerätetreibern und Kernel-Parametern hantieren müssen. Das funktioniert weder bei OpenSource Software noch bei kommerzieller Software.

Schauen wir uns dochmal erfolgreiche Projekte an. Da wäre Redhat zu nennen, was mit seinen Produkten Milliarden verdient. Da ist Microsoft zu nennen, Apple und natürlich Ubuntu. Schaut man auf den Verbreitungsgrad und auf das Feedback, so lieben die Kunde diese Software. Selbst zu Windows XP gibt es noch unverbesserliche Fans die damit arbeiten und nicht updaten wollen. Die Gemeinsamkeit zwischen all diesen Produkten ist, dass sie mittels Stable-Release entstanden sind. Das also Herscharen von Testern, Maintainern und Bugtrackern die Software vor Auslieferung zunächst intern einer Qualitätskontrolle unterzogen haben und das dabei konkrete Entscheidungen getroffen werden. Diesen Prozess abzukürzen oder zu vereinfachten ist nicht möglich.

Warum Ubuntu die Zukunft ist

Wer mal eben auf die schnelle einen Hotspot in Ubuntu einrichten möchte, braucht einfach nur auf den Netzwerkmanager zu klicken und kann dort seinen Access-Point einrichten, inkl WPA2 Verschlüsselung und ultralangem Passwort. Es ist zwar kein Alleinstellungsmerkmal von Ubuntu weil auch in ArchLinux ein AP möglich ist, aber dort geht es nicht ganz so einfach. Auch die Antergos Nutzer müssen zunächst Befehle auf der Kommandozeile eingeben und genau wissen was sie tun. Aber Ubuntu punktet noch bei anderen Details. So ist dort der Nutzer viel besser darüber im Klaren, was sein System kann und was nicht. Wenn man hingegen das ArchLinux konsultiert kommt man leicht zu dem Schluss, dass das Betriebssystem keinerlei Fehler hat und alles möglich wäre, inkl. der neuesten AMDGPU Driver sich über einen simplen Pacman-Befehl installieren lassen. Wenn man es dann ausprobiert gibt es jedoch nicht etwa einen Erfolg sondern nur weitere Probleme. Anders gesagt ermutigt die ArchLinux Welt einen, sich auf Abenteuer mit ungewissem Ausgang einzulassen, während man im Ubuntu Wiki eher erfährt, dass Canonical für einen die Grafikkartentreiber aussucht und man da nichts dran herumstellen sollte.

Es gibt aber noch einen weiteren Grund auf ArchLinux zu verzichten. Selbst wenn man sich als fortschrittlicher Anwender definiert und Bugreports direkt für den Upstream verfasst und mit Linus Torvalds und anderen über die neuesten Kernel Versionen zu diskutieren sollte man dafür bitte nicht ArchLinux nutzen. Weil auch der darin enthaltene Kernel keineswegs aktuell ist und sich für Testing nicht eignet. Sondern wenn man ernsthaft an der Weiterentwicklung von Linux interessiert ist, sind nur dailybuild-Kernel von kernel.org sinnvoll. Die dazu passende Distribution heißt Fedora Rawhide und wird mehrmals täglich aktualisiert.

Bei ArchLinux Anwendern hat man den Eindruck, dass es sich überwiegend um Leute handelt mit einem großen Selbstbewusstsein, die aber in Wahrheit noch sehr unerfahren sind was Programmierung angeht. Es ist eine Möchtegern-Distribution von Leuten, die glauben sie könnte nicht nur auf Microsoft hinabsehen sondern auch auf Redhat und Debian. Anders ausgedrückt, ArchLinux ist im Grunde eine Anti-Distribution, sie zeigt wie es auf keinen Fall geht. Denn ArchLinux erfüllt weder die Bedürfnisse des Verbrauchers der einfach nur mit dem PC arbeiten will, erfüllt aber auch nicht die Bedürfnisse von Entwicklern die neuen Code erstellen möchten.

Ubuntu vs Windows XP

Das Ubuntu OS kann man am ehesten mit Windows XP vergleichen. Es ist technisch weder fortschrttlich noch ist es unverwundbar gegen Angreifer aus dem Internet, dafür hat es jedoch eine große Fangemeinde. Warum sich Leute für diese nostalgische Software begeistern ist unklar, aber Fakt ist, dass sowohl Ubuntu als auch von Windows XP von seinen Fans geliebt wird. Sie wollen da nicht weg und nehmen trotz wieder besseren Wissens die Nachteile in Kauf.

Was bisher nur selten diskutiert wird ist die Frage ob ältere Betriebssysteme zum wissenschaftlichen Arbeiten geeignet sind. Oder anders gefragt, ob Leute die im universitären Umfeld unterwegs sind automatisch Rolling-Release Distributionen bevorzugen und Windows XP/Ubuntu eher etwas für die Allgemeinheit sind. Fakt ist, dass innerhalb der Softwareentwicklung das Rolling-Release Modell von ArchLinux die bessere Wahl ist. Linus Torvalds selbst nutzt Fedora Rawhide und auch die Programmierer von Intel nutzen in der Regel Rolling-Release Distributionen. Nur damit ist es möglich, eine agile Softwareentwicklung durchzuführen. Gleichzeitig muss jedoch darauf hingewiesen werden, dass weder Linus Toralds noch Fedora wissenschaftlich tätig sind, sondern was sie machen ist eher mit handwerklicher Tätigkeit vergleichbar. Obwohl es immer so hingestellt wird, ist OpenSource kein akademisches Phänomen, das heißt es gibt keine Universitäten die neuen Quellcode beisteuern.

Wenn sich die Wissenschaft für Linux interesiert dann eher auf einer abstrakten Ebene. Beispielsweise wird in den Sozialwissenschaften analyisert wie die Hackerkultur entstanden ist und die theoretische Informatik ist an Modellen für Betriebssysteme interessiert. Das was jedoch Linus Torvalds und die anderen Programmierer aus dem ArchLinux Projekt täglich tun ist eher angewandte Informatik. Das dort verwendete Wissen ist sehr speziell und kann am ehesten mit dem Wissen verglichen werden, was Elektroinstallateure besitzen.

Deshalb kann man ruhigen Gewissen sagen, dass wissenschaftliches Arbeiten und Windows XP sich gegenseitig nicht ausschließen. Selbst wer in der wissenschaftlichen Informatik unterwegs kann durchaus Gefallen an Windows XP finden. Hier http://images.br.sftcdn.net/br/scrn/73000/73863/lyx-42.jpg ist ein Link zu einer Lyx-Installation in Windows XP. Man kann sehr schön erkennen, dass dieses uralte propritäre Betriebssystem was extrem viele Sicherheitslücken besitzt durchaus geeignet ist um damit mathematisch anspruchsvolle Paper zu erstellen. Keineswegs begibt man sich da in einen Widerspruch sondern ganz im Gegenteil.

Kritik an Ubuntu

Als Ubuntu vor vielen Jahren gestartet ist, war die OpenSource Welt elektrisiert. Zum ersten Mal gab es eine leicht zu installierende Distribution mit einem grafischen Installer die vom Look und Feel einem Microsoft Windows sehr nahe kam. Infolge dessen konnte Ubuntu innerhalb der Linux-Welt soetwas wie ein Marktführer werden. Es gab zwar immer auch kritische Stimmen, doch der Tenor war dass Ubuntu grundsätzlich eine gute Sache ist, und lediglich in Detailfragen Nachbesserungen nötig sind.

Doch die Welt hat sich weiterentwickelt. Inzwischen gibt es auch andere leicht zu installierende Distributionen und es stellt sich die Frage was eigentlich noch für Ubuntu spricht. Sollte man nicht womöglich grundsätzlich davon abraten diese Distribution zu nutzen? Ich glaube, hier sind vor allem die Journalisten gefragt, welche lange Zeit zu positiv über diese Distribution berichtet haben, und die Schwächen ausgeblendet haben. Und davon gibt es eine ganze Menge. Zum einen wurde durch Heise-Online erst unlängst enthüllt, dass die sogenannten LongTerm-Support LTS Versionen nur ein Marketing-Gag sind, und wichtige Pakete irgendwann nicht mehr aktualisiert werden was Sicherheitsprobleme verursacht. Zweiter großer Kritikpunkt ist die eingebaute Amazon-Suche bei der Nutzerdaten weiterverkauft werden. Und hinzu kommt noch die relativ neue Praxis, dass Webhoster die Ubuntu Root-Server anbieten jetzt 5 EUR pro Installation bezahlen sollen. Aber auch technisch hat Ubuntu viel falsch gemacht. Zu nennen wäre hier zum einen der mißglückte Versuch mit Upstart eine Alternative zu SystemD zu etablieren. Zweitens ist hier Unity zu nennen, was zwar angenehm zu benutzen ist, aber anders als Gnome3 eben ein Sonderweg darstellt der so von keiner anderen Distribution angeboten wird. Hinzu kommt dass Cannoical offenbar Probleme hat, ihre Foren vor Angreifern aus dem Internet zu schützen wodurch häufiger mal Nutzerkonten abhanden kommen.

Das alles als Detailfragen in einer grundsätzlich gesunden Linux-Distribution abzutun ist zu kurz gegriffen. Vielmehr handelt es sich um strukturelle Probleme die daher herrühren, dass Ubuntu erstens keine eigenständige Distribution ist, sondern nur die Debian Pakete umetikettiert und zweitens, dass dahinter ein kommerzieller Konzern steht (genauer gesagt, ein Milliardär der keine Ahnung von Software hat). Es gibt Leute die fühlen sich bei Ubuntu zu Hause, weil sie dort eine Alternative geboten bekommen zum Microsoft Einerlei. Doch in Wahrheit ist das nicht der Verdienst von Cannoical sondern von der OpenSource Community, die im Laufe der Zeit das Linux-Ökosystem weiterentwickelt hat bei dem Hardware out-of-the-box erkannt wird und Programme für alle Aufgaben zur Verfügung stehen.

Meiner Meinung nach hat Ubuntu seinen Zenit bereits überschritten. Anfangs war es mal ein Super-Betriebssystem, inzwischen hat es aber arg nachgelassen. Es fehlt eine Perspektive wohin die Reise gehen soll. Das Konzept was Ubuntu derzeit verfolgt scheint darin zu bestehen, Blogger mittels Rechtsanwälte abzumahnen weil sie erläutern wie man Werbebanner entfernt. Das dennoch soviele User zu Ubuntu stehen hat etwas damit zu tun, dass Ubuntu ähnlich wie IBM mit Angst spielt. Das Motto lautet, dass nur Ubuntu leicht zu bedienen ist, und alle andere Systeme den Usern angeblich überfordern würden.

Hier sind die Medien und engagierte Blogger gefragt, welche Migrationsleitfäden anbieten müssen: weg von Ubuntu hin zu einer freien Distribution.

Das grundsätzliche Problem mit Ubuntu ist, dass es gefangen ist in selbstgewählten Beschränkungen. Wegen der Verwendung von Debian Paketen ist es unmöglich für Cannonical auf ein Rolling-Release Modell zu wechseln und weil Cannoncial Geld verdienen will, ist es nicht möglich auf kommerzielle Gimmicks zu verzichten. Das Problem ist nur, dass es bereits eine kommerzielle erfolgreiche Linux-Distribution gibt (Red Hat), für eine zweite gibt es keinen Bedarf. Die eigentliche Frage lautet daher, was Cannonical noch alles seinen Usern zumuten wird. Vielleicht wird Ubuntu ja irgendwann den Iso-Download nur noch gegen Gebühr ermöglichen?

Kritik an Debian

Wenn man sich die Debian und die Ubuntu Distribution einmal näher anschaut wird man erkennen, dass beide „Community driven“ sind. Damit ist gemeint, dass das Entwicklungsmodell auf der zahlreichen Mitarbeit von möglichst vielen Freiwilligen basiert. Auf jeder Debconf wird daher die Debian Community vorgestellt. Laut Selbstdarstellung handelt es sich um eine Gemeinschaft aus Aktivisten die an freier Software interessiert sind und welche sich über Mailing-Listen austauschen und an einem gemeinsamen Ziel arbeiten. Auch bei Ubuntu wird der Community Gedanke groß geschrieben. Auf der deutschen Ubucon gab es beispielsweise einen Vortrag zum Thema „Wie gehe ich mit Kritik“ um, wo erläutert wurde, wie man im Team Software entwickelt.

Auf den ersten Blick scheint das alles eine super Sache zu sein, auf den zweiten Blick ist das genau das Problem was Debian und Ubuntu haben. Die Idee eine Gemeinschaft bilden zu müssen ist zu einem Selbstzweck überhöht worden und technische Dinge werden diesem Ideal untergeordnet. Schauen wir uns im Gegensatz einmal dazu das Entwicklungsmodell von ArchLinux an. Dort gibt es keine Community und auch keinen Code of Conduct. Sondern man verlässt sich überwiegend auf automatische Tools wie Pacman mit denen die Distribution entsteht. Anders formuliert, dass Markenzeichen von Debian, eine große Gemeinschaft mit ganz vielen Leuten zu bilden, ist nicht etwa eine Stärke sondern es ist eine Schwäche. So eine Gemeinschaft ist nur dort notwendig, wo es an automatisierten Tools mangelt. In solchen Fällen muss man sich auf Fachkonferenzen treffen und Streitigkeiten ausräumen. Debian hat kein Werkzeug wie Pacman was in der Lage ist aus Build-Scripten eine Iso-Datei zu erstellen, sondern bei Debian ist die Softwarentwicklung noch sehr manuell getrieben. Das heißt, wenn man den Kernel neu kompilieren möchte damit dieser auf die nächste Debian-CD draufpasst muss man nicht etwa in einer Build-Software einen Parameter ändern, sondern der „Debian Way of Life“ bedeutet, dass man sich mit dem Debian Kernel Team in Verbindung setzen muss, also eine E-Mail senden und zwar an eine ganz bestimmte Person. Und wenn die dann ihr Ok gibt, dann kann der Prozess gestaretet werden, der so aussieht, dass weitere Leute hinzugezogen werden, die dann manuell anfangen den Kernel zu kompilieren.

Und genau hier besteht die Gefahr, dass diese Prozesse in Bürokratie ausarten. Am Ende geht es nicht mehr darum, eine technische Aufgabe zu lösen, sondern man kann viel Zeit in der Debian Gemeinschaft damit verbringen, mit anderen Leuten über Dinge zu diskutieren. Auf den ersten Blick sieht es wie ein gesundes Projekt aus, wenn die Mailing-Liste gut frequentiert wird und die Anzahl der Debian Developer jedes Jahr steigt. Auf der anderen Seite hat man als Außenstehender den Eindruck, dass es gar nicht mehr um eine Linux-Distribution geht, sondern darum innerhalb einer Sekte an Macht und Einfluss zu gewinnen.

Schauen wir uns doch etwas genauer den langjährigen Streit bezüglich Systemd an. Dieser wurde auf Mailing-Listen, in Vorträgen und in Papern ausgetragen und ist bis heute nicht entschieden. Auch hier wieder scheint es sich um einen fruchtbaren Dialog zu handeln, bei dem alle Beteiligten etwas gelernt haben und für das gemeinsame Ziel eintreten. Aber, man kann die Frage auch anders lösen. Bei ArchLinux wurde im Okt 2012 eine lapidare Nachricht veröffentlicht wonach Systemd jetzt der neue Standard ist, https://www.archlinux.org/news/systemd-is-now-the-default-on-new-installations/ Die Entscheidung wurde getroffen von einer einzigen Person, Thomas Bächler. Laut dem ArchLinux Wiki ist das einer der 25 Leute die im Core Team mitarbeiten und vielleicht hat er darüber vorher mit dem Boss Aaron Griffin geredet, vielleicht aber auch nicht. Jedenfalls hat seit Okt 2012 ArchLinux das neue Systemd Framework ohne dass dazu eine Diskussion stattfand. Das wäre auch gar nicht gegangen, weil ja insgesamt nur 25 Leute die Entwicklung machen plus vielleicht noch 3 Leute aus dem Antergos Team welche für den grafischen Installer verantwortlich sind.

Offenbar hat man sich bei ArchLinux entschlossen, keine Community bilden zu wollen, stattdessen liegt der Fokus auf Verbesserung des Pacman Tool. Und hier dürfte der wichtigste Unterschied zu Debian liegen. Bei Debian gibt es eine freundliche Community die unterteilt ist in unzählige Teams, Rollen und kommunikative Prozesse. Im Gegenzug hat Debian jedoch keine oder extrem schlechte Werkzeuge die auf der Kommandozeile einen Kernel kompilieren oder ISO-Files erzeugen können. Anders ausgedrückt, in dem Debian Projekt sind zuviele Leute mit dabei die wissen wie man Führungskraft ist, wie man Leute motiviert, wie man Marketing macht, wie man Konferenzen organisiert und wie man soziale Beziehungen pflegt. Es gibt aber nur wenig bis gar keine Software, mit der man eine Linux-Distribution vollautomatisch erstellen kann.

Die Frage ist nicht so sehr, ob die konkreten Leute bei Debian gute Arbeit leisten. Vermutlich geben sie sich sogar ausgesprochen viel Mühe. Sondern die Frage lautet, ob es zu einer Gemeinschaft auch eine Alternative gibt. Meiner Ansicht nach zeichnet sich eine gute Linux-Distribution dadurch aus, dass die Tools zu dessen Erstellung soweit automatisiert wurden, dass eine einzige Person in der Lage ist, im Monatsrhytmus neue Iso-Files zu erzeugen die dann das Betriebssystem sind. Und selbstverständlich darf man auch ArchLinux kritisieren. Auch dort gibt es noch zuviel manuelle Dinge, die man besser automatisieren könnte. Nur, nach meiner Recherche gibt es derzeit keine ernstzunehmende Linux-Distribution die mit weniger als 25 Leuten auskommt.

Natürlich haben diese 25 Leute nicht den Code selbst geschrieben. Bei ArchLinux ist niemand dabei der LibreOffice oder Firefox programmiert hat. Aber das ist gar nicht gefragt. Sondern dafür ist ohnehin der Upstream zuständig. Eine Linux-Distribution muss stattdessen Build-Scripte und Build-Tools bereitstellen sowie sich um Iso-Mirroring kümmern. Das ist deren Kernaufgabe.

Mal unabhängig davon wie man zu ArchLinux steht, glaube ich dass man dort zumindest in der richtige Richtung unterwegs ist. Also als stillschweigendes Ziel vereinbart hat, erstens eine Rolling-Release Distribution anzustreben und zweitens dazu möglichst wenig Manpower zu verwenden. Bemerkenswert ist auch der Wiki-Eintrag https://wiki.archlinux.org/index.php/archiso#Build_the_ISO Dort wird auf weniger als 10 DIN A4 Seiten erläutert wie man eine komplette Linux-Distribution erzeugt. Im wesentlichen gibt es ein Bash-Script was in Verbindung mit archiso dann die ISO-Datei erzeugt, welche später auf die Mirror hochgeladen wird. Im Grunde ist das die Basis für eine Ein-Mann-Linux Distribution. Das heißt, man braucht kein komplettes Team, sondern ein einzelne Person kann mit diesem Script dann eine fertige Distribution erzeugen.

Völlig neu ist das Konzept nicht, es wurde von Judd Vinet ungefähr im Jahr 2002 erfunden und seit damals nur marginal verbessert. Damit ist ArchLinux nicht nur unabhängig von kommerzieller Softwareentwicklung, sondern zugleich auch unabhängig von community driven Linux-Distributionen. Es gibt ein böses Gerücht, wonach Judd Vinet ursprünglich einmal Debian Maintainer war, sich dort dann aber mit sehr vielen Leuten zerstritten hat und dann beschlossen hat alles selbst zu machen und mit niemanden etwas abzusprechen.

ARCH LINUX
Man kann die fehlende Community bei ArchLinux durchaus kritisch betrachten. Die erste und bisher einzige Konferenz fand im Jahr 2010 statt. Anscheinend gibt es seitdem nicht mehr viel zu bereden. Irgendwelche größeren Internen Diskussionen sind auch keine bekannt, es gibt lediglich das zentrale Github Verzeichnis wo dann Commits ausgeführt werden. Von Marketing-Veranstaltungen ist nichts bekannt, ArchLinux ist auf den großen Linux-Konferenzen nur am Rande vertreten. Es gibt lediglich ein/zwei Interview Podcasts worin das Konzept kurz erläutert wird. Scheinbar haben sich die 25 ArchLinux Developer so stark verkracht, dass sie überhaupt nicht mehr miteinander reden oder sich nur auf das nötigste beschränken. Von Gemeinschaft kann man da wohl kaum sprechen.

Ubuntu unterwandert Debian

Von Debian sagen viele Kritiker, dass dort die Bürokratie Überhand genommen hat. Dies äußert sich darin, dass man sich vom einstigen Kernthema Betriebssystem verabschiedet hat und stattdessen die Debian-internen Abläufe an vorderster Stelle stehen. Schaut man sich die offizielle Dokumentation an wie man Mitglied bei Debian wird so ist das wohl nicht nur eine böse Unterstellung, sondern entspricht ziemlich genau der Realität. Und manch ein langgedienter Debian-Developer der schon länger dabei ist, wird sich in einer stillen Stunde auch schonmal gefragt haben, was die mehr als 2000 Debian Leute eigentlich tun, wenn gleichzeitig nur alle 3 Jahre überhaupt ein neues Release erscheint.

Aber wer glaubt, die Bürokratie bei Debian wäre schon aufgebläht, der sollte sich einmal Ubuntu anschauen. Das Kernteam ist noch relativ überschaubar. Cannonical beschäftigt nur 500 Leute die sich um die Distribution kümmern. Aber, wie in einem Vortrag auf einer Konferenz verraten wurden, beträgt die Anzahl der Mitglieder in den LoCo (lokalen Gruppen) weltweit nicht weniger als 8000. Davon haben einige Schreibrechte auf den Servern, können also Software kompilieren. Aber viele sind einfach nur so aktiv und haben mit Software eher weniger zu tun, sondern sind Anhänger der Ubuntu Philosophie. Diese antiwissenschaftliche Ideologie möchte das Geld abschaffen, https://www.youtube.com/watch?v=cOkCecIH4ms

Im Zuge der Systemd Umstellung gelangte diese Philosophie in Debian hinein. Gewissermaßen hat Ubuntu Debian geschluckt mit dem Ziel die Nutzerbasis zu vergrößern. Man konnte sehr schön beobachten wie zuerst die Kernentwickler welche eigentlich für die Umstellung auf Systemd verantwortlich waren aus Debian hinausgedrängt wurden, und dafür Ubuntu Entwickler nachrückten welche jetzt der Debian Gemeinschaft diktieren wohin die Reise geht. Da gleichzeitig Ubuntu in der Öffentlichkeit häufiger eingesetzt wird als Debian ist es wohl nicht verkehrt zu unterstellen, dass das ursprüngliche Debian abgeschafft wurde.

SEKTEN
Nur mal ein kleines Gedankenexperiment. Angenommen man möchte eine Sekte wie Scientology bekannter machen. Dann wird man mit traditionellen Flyern und Vorträgen nur einen begrenzten Erfolg haben. Wenn man hingegen eine eigene Linux-Distribution entwickelt und diese als Werbemittel einsetzt um Leute zu ködern wäre das eine moderne Möglichkeit neue Mitglieder zu gewinnen.