Linux für professionellen Videoschnitt

Linux wird nach wie vor als Toy belächelt. Auf einer Veranstaltung aus dem wissenschaftlichen Umfeld war neulich bevor die Präsentation losging ein aktuelles Ubuntu im Hintergrund zu sehen was deutlich gemacht hat, dass der Vortragende von Computern offenbar keine Ahnung hat. Aber, Linux ist zu mehr imstande als nur als Spielzeug. Man kann damit ausgezeichnet Videos schneiden. Das beste Programm dafür ist Kdenlive. Am besten ist es, wenn man sich zunächst ein Repositoy anlegt und von dort es aktualisiert. Dann hat man immer die neueste Version. In seiner aktuellen Iterationsstufe kann man mit Kdenlive bereits ordentlich arbeiten. Das heißt, im sogenannten Mehrspurediting können Video und Audio Clips übereinander gelegt werden. Ferner sind Spezialeffekte möglich wie überblenden oder Kanten abschneiden. Zum Schluss muss man ähnlich wie bei einem kommerziellen Videoschnittprogramm noch auf „Rendern“ klicken um das Video in das Ausgabeformat WEBM/VP8 zu exportieren.

Nun ist Kdenlive keineswegs die bekannteste Software um Videos zu schneiden. Gerade für MS-Windows und Mac OS gibt es unzählige Kandidaten. Aber, Kdenlive ist kostenlos und im Sourcecode verfügbar. Das macht es zu etws besonderem. Der eigentliche Clou in der Software ist, dass man sie häufig unterschätzt. Wenn man jedoch etwas genauer hinschaut wird man erkennen, dass sich sogar 4K Videoschnitt damit durchführen lässt, eine Anforderung wie sie normalerweise nur bei professionellen TV-Studios benötigt wird. Bedingung ist jedoch hier, dass die verwendete Hardware schnell genug ist. Damit man die Vorschau ruckelfrei abspielen kann, benötigt man eine High-End-CPU von Intel, sonst geht es nicht.

Fedora — eine erste Annäherung

Die derzeit bekannteste Linux-Distribution ist Ubuntu. Sie gilt als stabil wie sicher gleichermaßen und erfreut sich bei vielen Neueinsteigern einer großen Beliebtheit. Aber mit Ubuntu gibt es mehrere Probleme. Erstens, erinnert auch das normale Ubuntu sehr stark an ein Windows XP bzw an ein Linux Mint, wo man das Gefühl nicht loswird vor einem 5 Jahre alten System zu sitzen, was jeden Moment auseinanderfällt. Zweitens macht der Ubuntu CVE Tracker keine gute Figur, weil da sehr viele Bugs noch nicht gefixt sind und zu guter letzt scheint die Debian Gemeinschaft ein wenig der Welt entrückt zu sein. Was tun? Zu ArchLinux wechseln geht leider nicht, weil man hier von einem stable-Release zu einem Rolling-Release wechselt, was im Grunde heißt, dass man damit keine stabilen Server und vermutlich auch keine stabilen Workstations betreiben kann, sondern ArchLinux ist eher für jene Leute welche aktiv am Linux Kernel mitentwickeln wollen, also froh darüber sind, wenn ein neuer Bug auftritt, den man fixen kann.

Die nächste Alternative wäre dann schon Redhat. Redhat gilt es als extrem zuverlässig und basiert ähnlich wie Debian auf einer Stable-Release Veröffentlichung. Noch dazu nutzt Torvalds Redhat und viele interessante Projekte wie qemu werden dort entwickelt. Die kostenlose Redhat Version lauten CentOS und Fedora. Über beide Systeme ist in deutscher Sprache relativ wenig zu lesen. Es gibt auch kein umfangreiches ubuntuusers-ähnliches Wiki auf Deutsch, sondern scheinbar ist Fedora komplett auf den us-amerikanischen Markt hin zugeschnitten. Zumindest von der Selbstdarstellung verspricht es, professioneller zu sein als ein Ubuntu. Warum also nicht dem System eine Chance geben?

Fangen wir mal ganz langsam an und untersuchen die Pakete bei Redhat / Fedora. Hier https://apps.fedoraproject.org/packages/lyx ist beispielsweise das Schreibprogramm Lyx aufgeführt was in einer erstaunlich frischen Version daherkommt. Auch Eclipse ist anders als bei Ubuntu neueren Datums. Ein wenig kommt da ArchLinux Feeling auf, wo ebenfalls das Repository immer sehr gepflegt ist, allerdings mit dem Unterschied dass Fedora nicht als reine Rolling-Release Distribution daherkommt sondern (hoffentlich) voher noch ein/zwei Tests durchführt.

Um dieser Frage genauer nachzugehen, muss man sich die ISO DVD aus dem Netz herunterladen. Die Url findet man relativ einfach mittels Google und so reicht ein simpler wget Befehl um die 1,4 GB große Datei auf die heimische Festplatte zu schaufeln. Da der Download etwas länger dauert bleibt Zeit ein wenig darüber nachzudenken, was genau die Erwartungen an Fedora sind. Nun im Grunde soll Fedora das selbe können wie Ubuntu auch, also ein kostenloses Linux für einen PC liefern, aber mit dem Unterschied dass man neuere Software und weniger Fehler erhält. Die grundsätzliche Frage die man sich als Ubuntu Anwender immer stellt ist ob die vielen Baustellen in dem System ein Problem von OpenSource Software sind, oder ob man mit einer besseren Distribution die von kompeteteren Maintainern verwaltet wird da nicht noch was rausholen kann.

Dass Linux gegenüber Microsoft Vorteile besitzt ist unbestritten. Gegen eine Software die umsonst ist und noch dazu im Sourcecode verfügbar ist hat es Microsoft schwer dagegen anzukommen. Es stellt sich jedoch die Frage ob das was Debian/Ubuntu abliefern bereits der Weisheit letzter Schluss sind oder ob es noch ein Zwischending gibt zwischen ArchLinux und Ubuntu. Wo man also zwingend ein stable-Release System erhält was vorher schonmal getestet wurde, aber was noch halbwegs aktuell ist. Also nicht, dass Ubuntu kompletter Unfug wäre. Ubuntu ist eines der besseren Linux-Distributionen die sehr viel richtig gemacht hat. Das umfangreiche Wiki auf Deutsch gehört dazu. Auch ist die Ubuntu Community relativ groß und man kann es auf so gut wie jedem PC out-of-the-box installieren. Aber grundsätzlich besteht die OpenSource derzeit aus zwei großen Playern: Debian vs Redhat. Und man sollte beiden Systeme eine Chance geben. Gerade auf dem europäischen Markt ist Fedora nahezu unbekannt, selbst nach intensiver Recherche findet sich nur wenig Videomaterial auf Youtube zu der Thematik. Das kann bedeuten, dass es mit Ubuntu nicht mithalten kann, es kann aber auch bedeuten dass Fedora ein Geheimtipp ist für all jene Leute welche sich mit dem Cannonical Way of life nicht so recht anfreunden können. Ein Vorteil hat Fedora/Redhat zumindest: Geld ist offenbar überreichlich vorhanden, weil man schon relativ früh sich auf Unternehmenskunden fokussiert hat, und dort wohl Umsätze im Millionenbereich einfährt. Dort will Ubuntu erst noch hin.

UPDATES
Das Hauptproblem was alle Linux Distributionen haben sind Sicherheitsupdates. Wenn man davon ausgeht, dass diese zwingend als Stable-Release erscheinen weil man nur das auf einem Produktivserver tolerieren kann muss zwingend auf Seiten der Distribution eine Infrastruktur geschaffen werden wie man die Backports, Updates und Aktualisierungen pflegt. Sowohl bei RedHat als auch bei Debian gibt es Leute, die sich damit beschäftigen. Die Qualität einer Distribution ist davon abhängig wie gut die Updates erfolgen, also wie zahlreich, wie schnell und mit welchen Problemen. Gäbe es nicht die Update-Problematik könnte man theoretisch auch eine Ein-Mann-Distribution auf Basis von Linux-From-Scratch oder Damn-Small-Linux aufbauen, die einmal installiert stabil und sicher läuft. Wie aber die meisten Anwender ahnen ist der nächste Exploit nicht weit weg und so bedarf es einer laufenden Wartung am System wenn man Freude mit dem System haben will.

INSTALLATION
Anstatt den Sprung ins kalte Wasser zu wagen wird Fedora erstmal in Qemu installiert:

qemu-img create -f qcow2 BOOTSYSTEM.img 10G
kvm -hda BOOTSYSTEM.img -cdrom DATEINAME.iso -boot d -m 1024

Falls da schon Probleme auftreten kann man sich den Spaß mit dem USB Stick auch sparen. Nachdem die ISO-Datei gebootet ist, hat man wie bei Ubuntu auch die Auswahl zwischen Try und Install, ein Druck auf den Install Button öffnet ein weiteres Menü wo man die Sprache einstellt und die Zielpartition automatisch erstellen lassen kann, dann beginnt bereits die Installation selber und während man dem Statusbalken zuschaut muss man noch das Root-Passwort festlegen. Nach kurzweiligen 10 Minuten ist die Installation abgeschlossen und man kann neu booten.

Nach dem ersten Start kommt eine Oberfläche die stark an die Erstinstallation bei einem Apple Gerät erinnert. Man wird darüber informiert, dass die Ortungsdienste einen tracken und man soll sich mit seinem Google Konto verbinden, was man aber auch überspringen kann. Dann landet man auf einer weitestgehend leeren Gnome3 Oberfläche. Den ersten Bug kann man sehen, wenn die Karten-Applikation startet, dort erscheint die Meldung dass der Datenlieferant Mapquest seinen Dienst eingestellt hat. 1 zu 0 für Fedora. Ein weiterer Bug wird deutlich wenn man LibreOffice Writer startet. Obwohl bei der Installation explizit Deutsch als Sprache eingestellt wurde, ist LibreOffice komplett auf English. Jetzt sind es bereits 2 zu 0 für Fedora. Als nächstes wird das Schreibprogramm Lyx installiert, mal sehen ob das klappt. Unter dem Button Software versteckt sich der Gnome Paketmanager der auch bei Ubuntu verwendet wird, dort ist Lyx tatsächlich vorhanden und kann nach Eingabe des Root passwortes installiert werden. Um den weiteren Ablauf näher zu beschreiben, hier die Ist-Situation:

Derzeit läuft Lyx weder in Ubuntu noch in ArchLinux wirklich stabil. Wenn man eine Bibliographie verwendet und als Sprache Deutsch auswählt kommt eine böse Fehlermeldung dass irgendwas mit der Sprachdatei nicht funktioniert. Wollen doch mal sehen wie das bei Fedora gehandhabt wird. Antwort: nicht so gut. Bereits die Installation scheitert. Angeblich konnte das Package auf dem Server nicht gefunden werden. Tja, jetzt steht es bereits 3 zu 0 für Fedora.

PAKETMANAGER
Anders als bei Ubuntu gibt es bei Fedora offenbar keinen grafischen Paketmanager. Außer „Gnome Software“ wurde jedenfalls nichts angezeigt. Mit etwas suchen bei Google hat sich dann herausgestellt, dass

su -
dnf upgrade

das System auf den neuesten Stand bringt. Etwas ausfühlicher wird die Benutzung auf https://fedoraproject.org/wiki/Dnf/de erläutert. Was an Fedora nervig ist, dass man offenbar ein Fan von weißer Schrift auf schwarzem Hintergrund ist. Dieses Darktheme genanntes Konzept ist doch längst überholt, heute möchten es auch Hacker lieber etwas heller haben und bevorzugen einen leuchtend hellen Hintergrund mit schwarzer Schrift.

SELinux
Das schöne an der Ubuntu Community ist, dass es dort entspannt zugeht. Man findet dort Leute die ebenfalls gerne mit STEAM Games zocken, und aus Windows Ecke kommen. Bei Fedora hingegen scheinen einige einen Stock verschluckt zu hoben. Nicht nur, dass dort SELinux vorinstalliert ist, sondern wenn man auch nur einmal das falsche Root-Passwort eingibt, steht da gleich „Dieser Vorgang wird gemeldet“. Und weiter heißt es, „1 falscher Anmeldeversuch“.

UND WEITER GEHTS
Da beim ersten Anlauf die Installation von Lyx gescheitert ist, machen wir doch mit dem aktualisierten System noch einen zweiten Versuch.

su -
dnf search lyx
dnf install lyx

Nach „dnf search“ informiert uns Fedora dass sowohl auf Lyx als auch auf LaTeX das US-amerikanische Patentrecht gilt. Das war vorhin gemeint mit dem „Stock verschluckt“, so locker wie bei Debian ist man hier wohl nicht was das geistige Eigentum anbelangt. Anders als beim Gnome Software Center sieht man bei „DNF“ auf der Komamndozeile den konkreten Status, es erinnert ein wenig an Pacman aus dem ArchLinux Projekt. Bei Lyx dauert die Installation bekanntlich etwas länger, weil erstnoch die komplette Texlive Iinstallation durchgeführt werden muss. Es ist also Warten angesagt. Diesmal wird die Installation bis zu Ende durchgeführt aber trotzdem startet lyx nicht, es gibt ein Fehler mit einer Python-Applikation. Damit ist der Punktestand jetzt 4 zu 0 für Fedora.

Ein erneuter Check ob nach dem Systemupdate sich sonst etwas verändert hat, ergibt, dass plötzlich die Karten-App funktioniert. Auch der eigene Standort ist halbwegs genau. Wie sich Fedora aus einer Virtuellen Maschine heraus orten konnte ist unklar, WLAN SSID sind jedenfalls nicht vorhanden die man anzapfen könnte. Vielleicht wissen die Autoren von Geoclue2 mehr? Da aber die Karten-App tadellos funktioniert erhöht sich der Punktestand auf 4 zu 1.

Machen wir noch einen weiteren Installationsversuch. Das beliebte Echtzeitstrategiespiel OpenRA wäre sicherlich auch für Fedora Anwender ein Gewinn. Leider sagt der Paketmanager, dass OpenRA komplett unbekannt ist. Das ist der nächste Pluspunkt für Fedora, damit lautet der Gesamtpunktestand jetzt 5 zu 1.

FAZIT
Fedora macht einen sehr steifen Eindruck, man kann damit sicherlich gut auf dem Desktop arbeiten, aber viele Dinge funktionieren nicht. Lyx ist zwar auch in Ubuntu nicht ohne Fehler, aber zumindest startet dort die Applikation. OpenRA gibt es bei Fedora überhaupt nicht. Positiv fällt auf, dass bei Fedora alles gut strukturiert ist. Man hat eher den Eindruck mit einem professionellen Betriebssystem zu arbeiten. Einen klaren Vorteil von Fedora gegenüber Ubuntu ist jedoch nicht erkennbar. Es hat seine Gründe, warum Ubuntu und nicht Fedora das beliebteste Linux ist im Heimbereich.

Laut Selbstdarstellung ist Fedora die professionellste von allen Linux-Distributionen. Dass es keine deutsche Anleitung gibt — na gut, das kann man verschmerzen. Aber leider gibt es noch weitere Mängel. Es fehlt ein grafischer Paketmanager, stattdessen muss man mit dem Kuddelmuddel aus yum und dnf Vorlieb nehmen, wichtige Pakete wie OpenRA oder mplayer sind gar nicht in den Repositorys vorhanden sondern müssen manuell kompiliert werden oder über Zusatz-Repositorien. Lyx lässt sich zwar installieren startet aber nicht. Mag sein, dass Fedora und RedHat woanders ihren Stärken haben, aber dass man jeden Ubuntu User ermutigen sollte auf diese Distribution umzusteigen wäre verfrüht. Es scheint so zu sein, als ob alle Linux-Distributionen egal ob Ubuntu, Fedora oder ArchLinux mit den gleichen Problemen zu kämpfen haben: der Upstream gleicht eher einer Sharewaresammlung, die Maintainer der Packages sind überfordert und zusätzlich wollen die Anwender auch noch stabile Software. Jede Linux-Distribution setzt andere Prioritäten aber einen klaren Sieger gibt es nicht. Was man jedoch sagen kann ist dass Fedora in 5 Jahren vermutlich besser sein wird, als das heutige Fedora was aber auch für Ubuntu zutrifft.

Erinnern wir uns, wie Linux einmal gestartet ist. Es war nach GNU Hurd der zweite Anlauf um ein Betriebssystemkern unter einer freien Lizenz zu entwickeln. Zusammen mit dem bereits vorhandenen GNU Compiler und Xorg wurde daraus dann eine Sharewaresammlung welche inzwischen mit Microsoft mithalten kann. Das unfertige / amateuerhafte hat die Software nie so ganz loswerden können, auch heute noch werden wichtige Programme als Hobbyprojekte entwickelt. Wirklich uneingeschränkt zu empfehlen ist Linux nur im Server-Bereich also dort wo Apache und PHP gefragt sind. Sobald es jedoch um Smartphones, Desktops und Notebooks geht, ist Linux gegenüber Windows und Apple im Nachteil. Nicht nur, dass die Hardware nicht gut unterstützt wird, sondern es gibt auch unprofessionelle Software und schlampige Distributionen. Man merkt einem Ubuntu oder einem Android überdeutlich an, dass die Software umsonst ist. Bei Apple würde die Qualitätskontrolle sowas nicht akzeptieren.

Fedora — große Enttäuschung

Nach dem ersten Test der Fedora-Distribution bleibt ein bitterer Nachgeschmack übrig. Das Problem ist nicht so sehr die Distribution als solche, diese hat Bugs wie jede andere Distribution auch, sondern was unangenehm auffällt ist der große Unterschied zwischen Marketing-Versprechen wonach Fedora die beste Linux Distribution von allen sei und dann die Realität die das leider nicht einhält. Bei ketzerischer Betrachtung ist das Alleinstellungsmerkmal von Fedora eigentlich nur der dunkle Hintergrund mit der weißen Schrift plus einem SELinux von dem niemand so recht weiß was es genau macht. Hinzu kommt, dass Fedora außer Linus Torvalds und einige bezahlte Redhat-Angestellten keine echte Community besitzt und auch sonst wohl niemanden so recht interessiert. Es gibt zwar in der Fachpresse immer mal wieder Artikel wenn das neue Fedora erscheint, aber ob die Leute das OS wirklich installiert haben, oder einfach nur fertige Pressemeldungen von Redhat Inc. übernehmen ist unklar. Und mehr noch, man hat den Eindruck dass Feoora soetwas ähnliches ist wie Debian SID, eine Distribution welche nicht wirklich für den Produktiveinsatz gedacht ist, sondern nur als Testsystem genutzt wird um Bugreports zu erstellen. Wirklich gut in Fedora funktioniert der Bugtracker, der erstellt automatisch bei einem Crash ein Logfile und man kann mit wenigen Mausklicks diesen zu Bugzilla hochladen. Wirklich arbeiten mit Fedora kann man hingegen nicht. Meine Vermutung lautet, dass der Redhat Desktop die eigentlich stabile Umgebung ist, wo dann vermutlich auch Lyx anstandslos startet. Nur der Redhat Desktop wird eben nicht kostenlos angeboten.

Anders formuliert, die geringe Verbreitung von Fedora hat seine Berechtigung. Die User da draußen sind nicht doof, sie wissen schon warum sie lieber Ubuntu nehmen. Und wo der Name jetzt gefallen ist, Ubuntu hat wenigstens den Vorteil dass man da mit viel geringeren Erwartungen herangeht. Das Ubuntu nichts taugt, einem Windows XP zum Verwechseln ähnlich sieht und die Sicheheitsupdates mit der selben Verlässlichkeit erscheinen hat sich inzwischen herumgesprochen. Umso positiver überrascht ist man, wenn es doch gelingt mit Ubuntu eine Diplomarbeit zu schreiben oder wenn doch ein aktueller Firefox ausgeliefert werden, der wenigstens ein paar der Viren aus dem Internet fernhält.

Bei Fedora hingegen hat man den Eindruck als wäre das eine Software welche nur in der Vitrine ausgestellt ist, was man jedoch nicht selbst benutzen kann. Wirklich gut funktioniert Fedora nur, wenn man den hübschen Marketing-PDF-Flyern glaubt das Produkt selbst aber nicht testet. So bleibt der Zauber eines perfekten Betriebssystems erhalten und der Anwender wird nicht mit echten Problemen konfrontiert.

Testbericht CentOS

Nachdem sich die Installation von Fedora als Flop herausgestellt hat, ist es an der Zeit die stabile Version davon zu nutzen: CentOS. Nach der Selbstdarstellung handelt es sich dabei um die selbe Software, welche auch bei Redhat eingesetzt wird nur mit weniger Support. Na da wollen wir dem Projekt doch eine Chance geben.

Als erstes fällt auf, dass es zu CentOS noch weniger Dokumenation gibt als zu Fedora. Bei gewohnt ist diese komplett auf English, deutsche Anleitungen sucht man vergebens. Und noch etwas fällt auf, es gibt wesentlich mehr ISO-Dateien und unterschiedliche Mirrors aus denen man auswählen darf/muss. Es dauert ein wenig bis man sich entschieden hat, was das richtige ISO-Image ist. Ich habe mir für die letzte Version CentOS7 511 entschieden in der DVD Version welche 4 GB groß ist. Während der Download im Hintergrund via wget von einem Server aus der EU durchgeführt wird, bleibt Zeit ein wenig zu recherchieren. Es gibt zwar zu CentOS ein Wiki, aber dort steht nichts brauchbares drin. Was es jedoch nicht zu geben scheint, ist ein package browser, wo man alle Pakete aufgelistet sieht inkl Versionsnummer die ein aktuelles CentOS ausmachen. Es gibt lediglich FTP-Directorys wo die Pakete enthalten sind, aber ergänzende Bugtracker existieren nicht. Vermutlich gibt es soetwas nur innerhalb der RedHat Welt, wo man dann dafür extra bezahlt.

Anders als bei Ubuntu hat man nicht den Eindruck, als ob sich um CentOS eine Community versammelt hätte. Vielmehr scheint die Distribution Topdown zu funktionieren, dass also sämtliche Kompetenz bei Redhat konzentriert ist und die verteilt dann gnädigerweise RPM Pakete an ihre Fans. Auch mangelt es bei CentOS an Programmiertutorials wo also erläutert wird, wie man mit C++ Software erstellt oder gar Bash-Scripte entwickelt um den Paketmanager zu tunen. Stattdessen gibt es einige wenige Standardkommandos die man auswendig lernt. Obwohl CentOS OpenSource ist, hat man das Gefühl vor einem monolithischen Block zu sitzen der wenig Spielraum lässt für Diskussionen. Das mag auf einige attraktiv wirken setzt aber voraus, dass CentOS tatsächlich keinerlei Fehler enthält. Leider funktioniert das Linux-Universum nach anderen Kriterien, es handelt sich bei der darin versammelten Software allenfalls um Shareware die von Hobbyprogrammierern erstellt wurde, daran kann auch Redhat nichts ändern.

Was man bei Debian mitunter kritisieren kann (das chaotische Entwicklungsmodell) scheint bei CentOS zu fehlen. Dort ist alles sehr koordiniert, was aber nur dazu führt, dass viele Dinge einfach verboten werden. So gibt es keine guten Spiele, es gibt auch keine guten Blogs sondern es gibt nur die eine Firma, die den Takt vorgibt. Für Unternehmen und Behörden mag das ideal sein, nicht ohne Grund verdient Redhat mit diesem Konzept Milliarden. Als Distribution für den Heimbereich oder auch nur zur Softwareentwicklung taugt CentOS nicht. Anders als ein Windows XP oder ein Ubuntu lädt das System nicht zu eigenen Experimenten ein was dazu führt, dass auch keine unternommen werden. Wollte man mit CentOS einen Game-Server betreiben wird es vermutlch schon schwierig. Eine Anleitung für sowas ist mir nicht bekannt, man könnte höchstens versuchen über einen Workaround das zu machen. Aber warum muss man ausgerechnet ein Linux Betriebssystem aufbohren, damit es sich anfühlt wie eine Spielemaschine? Dass es Redhat geschafft hat, die Grundlagen von Linux komplett zu entkernen ist ein Wunder. Fedora und Redhat erinnern an seelenlose Zombiemaschinen auf denen Business-Applikationen laufen und sonst gar nichts. Am ehesten kann man es mit einem FreeBSD vergleichen, wo ebenfalls alles aus einem Guss ist.

Linux ist keine Wissenschaft

Der Hauptgrund warum Linux entwickelt wurde ist Microsoft. Aber wer glaubt, Linux wäre eine Gegenbewegung zu Microsoft der irrt. Schauen wir uns zunächst einmal an was propritäre Software ausmacht und untersuchen dann Linux genauer. Microsoft bringt in regelmäßigen Abständen neue Betriebssysteme heraus. Das weltweit bekannteste ist Windows XP, was weltweit eingesetzt wird, und vermutlich jeder schonmal gesehen hat. Windows XP wurde um das Jahr 2000 herum entwickelt von Microsoft Angestellten und in einer Testphase von 6 Monaten auf Herz und Nieren überprüft bevor es in den Verkauf gelangte. Windows XP ist wie die meisten anderen Microsoft Betriebssysteme in C/C++ programmiert worden. Der Sourceode ist geheim und Experten sagen er ist Milliarden wert.

Linux ist auf den ersten Blick völlig anders. Bei Linux gibt es keinen Konzern, sondern es wird OpenSource Quellcode verwendet. Und Linux Veranstaltungen finden auch nicht in Redmond, USA statt sondern werden bevorzugt in universitären Hörsälen abgehalten. Aber ist Linux automatisch akademisch-nichtkommerziell? Leider nein. Es hat mehr mit Microsoft gemeintsam als man auf den ersten Blick glauben mag. Schauen wir uns die beiden wichtigsten Distributionen näher an: Redhat und Ubuntu. Beide werden nach dem Stable-Release Verfahren entwickelt, das heißt in der Betaphasen suchen ausgewählte Tester nach Bugs und berichtigen diese, damit das fertige Produkt dann halbwegs stabil läuft. Die BetaTestphase von Ubuntu gleicht ziemlich genau dem was auch bei Microsoft verwendet wird um die Qualität sicherzustellen. Die Gemeinsamkeinten gehen noch weiter. Sowohl Microsoft als auch Linux verwenden C/C++ als Programmiersprache, auch das Prinzip mit Bugtrackern und Versionskontrollsystemen zu arbeiten ist identisch.

Aber die wohl wichtigste Gemeinsamkeit ist, dass sowohl Microsoft Windows als auch Linux in der wissenschaftlichen Informatik keine Bedeutung haben. Es gibt in der Computerscience weder für Microsoft noch für Linux Vorlesungen wo im Detail erläutert wird, was der Kernel macht, wie Gnome aufgebaut ist, oder wie man einen Treiber schreibt. Woran liegt das? Das über Microsofts Betriebssystem an den Universitäten so wenig zu hören ist liegt eindeutig daran, dass der Quellcode geheim ist und selbst wenn man wollte man darüber keine Vorlesung halten könnte. Das hat bereits Andrew Tannenbaum bemängelt, der extra ein eigenes Betriebssystem geschrieben hat, um seinen Unterricht aufzulockern. Nur, jetzt wo Linux da ist und Microsoft in der Leistung sogar noch überholt hat, wird Linux immernoch nicht an Universitäten unterrichtet. Der Sourcecode ist kostenlos, rechtliche Bedenken gibt es keine, warum also wird im Unterricht nicht der neuste Sourcecode von Kernel Version 4.7 im Detail erläutert? Warum müssen die Studenten keine Patches schreiben um die Prüfung zu bestehen? Die Antwort ist simpel: das Hinderniss war niemals die Lizenz des Sourcecodes, sondern das Hinderniss ist, dass das was Microsoft, Ubuntu und Linus Torvalds machen schlichtweg keine Wissenschaft ist sondern etwas anderes.

Schauen wir uns dochmal an, wie genau Linux marketingtechnisch verkauft wird. Es wird als universitäres Betriebssystem angepriesen. Das kann man beispielsweise daran erkennen, dass viele LinuxTage an Hochschulen oder mit Billigung von Universitäten stattfinden. Aber, passt Linux wirklich auf den Campus?

Schauen wir dochmal genau hin wo Linux-Tage abgehalten werden. In den universitären Unterricht eingebettet werden sie nicht. Sondern sie finden überlicherweise am Nachmittag statt, wenn die regulären Vorlesungen zu Ende sind, oder sie werden in Zusammenarbeit mit dem Rechenzentrum durchgeführt. Das heißt, erwünscht ist Linux eigentlich nicht, sondern nur geduldet. Es gibt aber auch noch weitere Locations auf denen Linux-Tage durchgeführt werden. Irgendwo gab es mal eine Veranstaltung die in der Computerabteilung eines Kaufhauses durchgeführt wurde und eigentlich gehört dort Linux auch hin. Am besten in die Schmuddelecke wo die FSK18 Videokassetten und die Shareware vertickt wird.

Zugegeben, dieses Urteil ist vielleicht etwas hart. Entspricht aber ziemlich genau dem, was die Wissenschaft über Linux denkt. Die OpenSource Community ist ein beliebtes Studienobjekt für die Sozialwissenschaften um das Phänomen Freie Software zu untersuchen, und der neueste Linux Kernel wird auch gerne im Rechenzentrum eingesetzt um den Webserver zu betreiben, aber dass in einer Vorlesung oder in einem Proseminar Linux als solches diskutiert wird, kommt nicht vor.

Der Grund dafür ist, dass aus Sicht der Wissenschaft Linux und Windows identisch sind. In beiden Fällen geht es darum, dass man eine funktionsfähige Software entwickelt die wissenschaftlich gesehen keine Herausforderung darstellt sondern überwiegend durch Fleiß entsteht. Das Wissen, was man als Anwendungsprogrammierer benötigt setzt keine wissenschaftliche Grundbildung voraus, sondern ist eher vergleichbar mit dem Wissen was man benötigt um Sharewarespiele zu schreiben. Nur mal ein Beispiel: aktuell entwickelt die Linux-Community gerade mit viel Eifer am neuen Radeon Kernel mit dem man AMD Grafikkarten ansteuern kann. Das ganze ist deshalb so aufregend weil damit der Weg frei ist um Linux auch auf Desktops gut einzusetzen und Microsoft Marktanteile wegzunehmen. Nur, Grafikkartentreiber sind nichts neues für die Informatik. Sowas gab es schon vor 30 Jahren und damals wie heute wird sowas von Leuten erstellt die bereit sind sich sehr intensiv mit einem Problem auseinanderzusetzen. Irgendwann sind die Bugs behoben, und der Programmierer ist glücklich.

Aber, das ist nichts was nur in der OpenSource Szene zu finden ist, sondern findet sich so auch bei Microsoft wieder. Anders formuliert, nur weil man den Sourcecode freigibt, heißt das nicht automatisch dass aus einem Bastelprojekt ein wissenschaftliches Projekt wird. Bis heute ist Linux aus dieser Nischenecke nie herausgekommen. Es gibt fast keinen Professor für Informatik der sich ernsthaft mit Linux auseinandersetzt. Sondern den größten Anklang hat das freie Betriebssystem in der Industrie gewonnen, also bei Microsoft, Intel usw.

Das Gefälle zwischen angewandter Informatik und theoretischer Informatik ist nichts neues. Schon immer gab es zwei Bereiche die miteinander nichts zu tun hatten. Auf der einen Seite die Forscher, welche die Computertechnik als solche untersucht haben und auf der anderen Seite die Anwendungsprogrammierer. Nach der Sichtweise von Stallmann und Torvalds spielt dieser Gegensatz keine Rolle. Stattdessen unterteilen sie die Welt in die propritäre Software wo Microsoft und Apple sind, und in die Freie Software die aus einer ethischen Werthaltung heraus entstanden ist. In Wahrheit ist OpenSource kein Spin-Off der Hochschulen sondern OpenSource hat sich innerhalb der komerziellen Softwareentwicklung gebildet und ist bis heute in diesem Gefängnis verhaftet.

Vornehm ausgedrückt, findet ein reger Austausch zwischen Microsoft und Linux statt, was Ideen und Quellcode anbelangt, aber es findet keinerlei Austausch statt zwischen Linux und der universitären Informatik. Die frühere Grenze zwischen angewandter Informatik einerseits und theoretischer Informatik andererseits ist nach wie vor aktiv. Informatik hat eben nichts mit programmieren tun, jedenfalls nichts mit hardwarenaher Programmierung. Wenn es irgendwo ein Zuhause für Linux gibt, dann wohl im Bereich Elektrotechnik und Löten wo eine Hands-on Mentalität gefragt ist. Dort krempeln Kerle die Ärmel hoch und machen sich schmutzig beim Arbeiten. Das Problem mit diesen Schmuddelkindern ist jedoch, dass man sie bei der richtigen Informatik nicht haben möchte. Weder Bill Gates noch Linus Torvalds haben eine Publikationsliste vorzuweisen mit einem wissenschaftlichen Anspruch.

Bill Gates wurde einmal gefragt was er mit seinem Leben anstellen würde, wenn er nicht der Vorsitzende von Microsoft geworden wäre. Er antwortete mit einem Lächeln, dass er sich für Künstliche Intelligenz interessiere und sich dafür dann begeistert hätte. Vermutlich würde Linus Torvals so ähnlich antworten. Das heißt nichts anderes, als dass sie sich gegen eine karriere in der Wissenschaft entschieden haben und stattdessen lieber Shareware verticken.

Auf lange Sicht wird Linux vermutlich Microsoft in die Knie zwingen. Anzeichen dafür gibt es bereits. Was aber Linux ähnlich wie Microsoft nicht erhalten wird, ist Anerkennung aus der Wissenschaft. Natürlich stellt sich die berechtige was bitteschön die Informatik stattdessen untersucht wenn nicht die Frage wie man einen Computer programmiert. Die Antwort darauf lautet, dass es die Informatik nicht weiß. Das ist ja gerade der Grund warum sie gegründet wurde, es muss erst noch erforscht werden, was Computer sind und was mit ihnen machen kann. Und ein OpenSource Betriebsystem in C zu schreiben ist nur eine Anwendung unter vielen.

In der gängigen Literatur die das Phänomen OpenSource darstellt wird kritiklos die Selbstdarstellung der Protagonisten übernommen, wonach Freie Software ein Gegenmodell zu kommerzieller Software darstellt. Objektiv betrachtet ist Linux jedoch als Shareware einzustufen. Es ist eben keine gesellschaftliche Gegenbewegung, sondern hat seine Wurzeln in der Computerabteilung eines Kaufhauses. Dass Stallmann wie Torvalds irgendwannmal eine Universität besucht haben, sieht man ihnen heute nicht mehr an. Eher hat man den Eindruck, dass sie in ihrer Jugend vorwiegend unterhalb der Eisenbahnplatte gespielt haben.

LINUx ALS SHAREWARE
Zugegeben, Linux ist nicht irgendeine Shareware. Es ist die leistungsfähigste Software die jemals entwickelt wurde. Klassisch wurden als Shareware Programme bezeichnet die nicht größer waren als 100 kb und die viele Fehler enthielten. Der letzte Linux-Kernel ist weitaus größer und ist ein weltweites Projekt. Zusätzlich ist die Sourcecode auch noch einsehbar. Aber, was unverändert geblieben ist dass ist der Entwicklungsprozess. Die Entwicklung eines Sharewarespieles und die Programmierung des Linux-Kernels verlaufen ähnlich. In beiden Fällen findet die Arbeit am Computer statt und Bedarf eines bestimmter Fertigkeiten des Programmierers. Im Kern geht es darum, die Leistungsfähigkeit der Hardware optimal auszunutzen und mit seinen Fähigkeiten zu prahlen. Es handelt sich um eine Leistungsschau, eine Art von Wettbewerb bei dem es darum geht möglichst viel Geld oder möglichst viel Anerkennung zu erhalten.

Die Halbwertzeit des Wissens was in solche Projekte fließt ist sehr begrenzt. Eine Software die älter ist als 5 Jahre hat keinerlei Wert mehr. Man kann nichts mehr damit anfangen und der Code lässt sich nicht wiederverwenden. Stattdessen orientiert sich die Entwicklung am zukünftigen: an neuen CPUs und an neuen Dateiformaten. Das ist die Welt in der Shareware-Autoren denken. Sie wollen nichts erforschen sondern sie wollen etwas beweisen. Das Hauptziel besteht in fehlerfreier Software mit einer hohen Funktionalität. Es geht um Beifall, um nichts anderes. Die Shareware-Szene will den Applaus der Masse.

Nur die Szene selber unterscheidet die Shareware in kommerzielle und opensource-Shareware. Es ist kein Merkmal was darüberhinaus von Bedeutung ist. Weil selbst wenn der Code einsehbar ist, er keine Rolle spielt. Er verändert sich zu schnell als dass man daraus etwas lernen könnte.

Debian ist eine Sekte

Auf der Debconf 14 hat sich Linus Torvalds sehr zum Mißfallen seiner Zuhörer gefragt, was genau ein Debian Maintainer den ganzen Tag so treibt. Aus rein technischer Sicht gibt es da nicht viel zu tun, weil bekanntlich die neuste Version des Betriebssystems als „Debian SID“ von ganz allein kompiliert und installiert wird. So ähnlich wie das bei ArchLinux auch passiert. Nur mit dem Unterschied dass bei ArchLinux nicht mehr als 25 Leute sich darum kümmern während bei Debian mehrere Tausend Maintainer und Developer sich damit beschäftigen. Eine Antwort auf die Frage, womit sich die Debian Community beschäftigt wird in http://saimei.acc.umu.se/pub/debian-meetings/2014/debconf14/webm/Weapons_of_the_Geek.webm gegegeben. Dabei handelt es sich um einen Vortrag über die Hackerkultur in Bezug auf Scientology. Ein ebenfalls gesellschaftskritisches Video gibt es hier http://meetings-archive.debian.net/pub/debian-meetings/2015/debconf15/Citizenfour_Q_A_Session.webm Diesmal geht es um den Film Citizen Four in dem die Überwachung thematisiert wird.

Und vielleicht wird so deutlich was Debian in Wirklichkeit ist. Die Linux-Distribution selbst ist nur vorgeschoben, wirklich daran interessiert ist niemand und es werden auch keine Patches entwickelt. Sondern primär ist Debian eine gesellschaftskritische Bewegung die sich mit sozialen Fragen der Computerbenutzung auseinandersetzt. Auch Ubuntu ist dafür ein gutes Beispiel. Debian und Ubuntu dürfen nicht primär als Konkurrenz zu ArchLinux oder zu Fedora verstanden werden wo es primär um den Code als solchen geht (Fedora ist Upstream zentriert, während ArchLinux minimalistisch nur die Distribution darstellt) sondern Debian/Ubuntu sind soziale Ideen ähnlich wie Greenpeace die einen politischen Anspruch verfolgen.

Wenn man mit diesem Blick Debian kritisch betrachtet wird vieles klarer. Das technische Niveau der Debian Distribution ist miserabel. Das postulierte Entwicklungsmodell des Stable-Release mit Bugtracking für veraltete Softwareversionen macht keinen Sinn. ArchLinux ist hier das bessere System. Und Vorträge aus dem Debian Umfeld zum Thema „Backporting“ sind kompletter Unfug, ja fast schon Trolling in Reinstform. So funktioniert der Upstream nunmal nicht. Aber, wenn man sich bei Debian nur jene Vorträge anschaut die etwas mit gesellschaftlichem Protest, Privacy, Anonymous und Attac zu tun haben so muss man der Sekte zugestehen, dass sie absolute Weltklasse verkörpert. Nirgendwo sonst findet man derart professionellen Aktivismus.

Weiter oben wurden zwei Videos verlinkt und man kann sich zurecht fragen was diese mit einer Linux-Distribution zu tun haben. Die Antwort lautet: gar nichts. Die Vorträge behandeln die gesellschaftlichen Auswirkungen des Internets nicht jedoch das Programmieren von Software oder die Verwendung von build-Scripten um eine Distribution zu erstellen. Dennoch waren beide Vorträge auf der Debconf ontopic. Im Saal gab es niemanden der dagegen protestiert hat, im Gegenteil es waren die Highlights.

Mein persönlicher Eindruck ist, dass wenn man etwas über den Linux-Kernel oder über nightly-build lernen möchte bei Debian falsch ist. Man sollte sich lieber mit den ArchLinux Leuten oder mit Fedora unterhalten. Wer jedoch wissen möchte, dass uns die Regierung aussspioniert, dass die Banken die Macht übernommen haben und das die Area 51 existiert, der sollte die Debconf besuchen. In Sachen Counter-Culture macht ihnen niemand etwas vor.

APPELBAUM VS TORVALDS
Um zu verstehen, wie Debian funktioniert muss man zwei Vorträge miteinander vergleichen. Einmal die Q&A Session auf der Debconf14 mit Linus Torvalds und einmal der Vortrag von Jacob Appelbaum auf der Debconf15 zum Film Citizenfour. Der Autritt von Linus Torvalds war der absolute Reinfall. Im Grunde hat der dicke Torvalds nichts anderes gemacht als die Debian Community von vorne bis hinten zu beleidigen und sie hätten ihn am liebsten gelyncht wenn er nicht der Kernel Entwickler gewesen wäre. Auch die Fragen an Torvalds wirkten betont höflich. Im Gegensatz dazu war der Vortrag von Appelbaum ein voller Erfolg. Nicht nur, dass die Leute an seinen Lippen hangen, sondern im Publikum gingen auch die Finger hoch weil sie echt etwas wissen wollten.

Natürlich kann man jetzt darüber philosophieren wiso bei einer Linux-Distribution die technische Seite offenbar niemanden interessiert und gesellschaftliche Aspekte so eine Rolle spielen. Und vielleicht läuft da bei Debian aus diesem Grund auch grundlegend etwas in die falsche Richtung. Aber, auf der anderen Seite kann man das auch einfach als Ist-Zustand akzeptieren. Mit diesem Hintergrundwissen kann man auch viel besser den Streit um Systemd verstehen. Wenn man in den Foren nachschaut wird man entdecken, dass Systemd vor allem deshalb nicht erwünscht war, weil dahinter ein Komplott der NSA vermutet wurde. Die Perspektive von Lennart Poettering, dass ein Expertensystem bestehend aus Software von allein entscheidet welcher Dienst gestartet wird hat bei der Debian-Community Gefühle der Ohnmacht gegenüber der Technik ausgelöst. Systemd ist das genaue Gegenteil von sozialer Verantwortung.

Gehen wir nochmal zurück zum Appelbaum Vortrag „Citizenfour“. Ab Zeitindex 12:00 fängt er an seinen Zuhörern zu erzählen, dass man Betriebssysteme verschlüsseln muss und das man Tor out-of-the-box verwenden muss. Im Publikum gibt es bestätigendes Kopfnicken, Appelbaum hat seiner Gemeinde aus der Seele gesprochen. Weiterhin wird ein Zusammenhang aufgebaut zwischen FreeSoftware einerseits und einer besseren Welt. Das man also FreeSoftware einsetzt um Dissidenten zu beschützen. Auch hier wieder Kopfnicken im Publikum. Interessant ist auch die Verschwörungstheorie wonach die NSA Leute bezahlt welche die Debian Community unterwandern sollen. So ähnlich wie auch andere soziale Gruppen von der Regierung unterwandert werden.

NEOLUDDITEN
Neoludditen hinterfragen kritisch die gesellschaftlichen Auswirkungen von Technologie. Debian ist eine Neoludditen-Bewegung. Dort lehnt man Technologie grundsätzlich ab und orientiert sich stattdessen an naturverbundenen religiösen Bewegungen. Das heißt konkret, dass man lieber auf den Einsatz von moderner Technologie verzicht zugunsten einer gesunden Umwelt. Themen wie Weltfrieden, Bekämpfung der Armut und ziviler Widerstand sind bei Debian keineswegs offtopic-Themen.

Vielleicht wird hierdurch klar, was die Debian-Community den ganzen Tag so treibt. Keineswegs patchen sie den Linux-Kernel oder maintainen Software, sondern die Hauptbeschäftigung von Debian-Developern besteht darin, sich eine ethische Haltung zu erarbeiten die kritisch gegenber der Politik der US-Regierung ist.

Diese Erkenntnis ist deshalb so brisant weil ursprünglich Unix und Linux einmal als Counter-Culture gestartet sind. Zur Erinnerung sei gesagt, dass Debian GNU/Linux die Haus&Hof Distribution von Richard Stallman war, und daher den Anspruch vertraut die einzig wahre Distribution zu verkörpern. Aber die Zeit ist heute eine andere. In der Gegenwart des Jahres 2016 wird der Upstream verkörpert durch Firmen wie Redhat, Intel und die US-Regierung wo die eigentliche Software entwickelt wird, während die Debian-Community mit Softwareentwicklung selbst nicht mehr viel zu tun hat, sondern sich überwiegend politisch engagiert durch Vorträge, Vereinsbarkeit und internationales Engagegement. Ich glaube nicht, dass man das werten sollte im eines besser/schlechter sondern vielmehr handelt es sich einen Ist-Zustand der sich herausgebildet hat. Es macht keinen Sinn wenn man Torvalds vorwürft, er würde sich nicht genug gegen Überwachung einsetzen, genauso wenig macht es Sinn Debian vorzuwerfen, keinen Beitrag zu leisten zur Linux-Kernel-Programmierung.

Was im Laufe der letzten Jahrzehnte stattgefunden hat war eine Akzentverschiebung. Die reine Arbeit an Linux (also das Programmieren in C/C++) wird heute von Intel und anderen Firmen gemacht. Damit ist Linux ein Produkt des militärisch-industriellen Komplex das dazu eingesetzt wird, die US-Army bei ihren Kriegen zu unterstützen, die Bürger durch die NSA auszuspionieren und als Echtzeitbetriebssystem Drohnen zu steuern. Auf der anderen Seite haben sich neue soziale Bewegungen entwickelt wie der Chaos Computer Club, Debian und Ubuntu, wo keinerlei Softwareentwicklung stattfindet und man sich um eher um weiche Themen kümmert wie z.B. Internetversorgung in dritte Welt Ländern, Benachteiligung von Frauen, Soziale Projekte und Konsumentenschutz.

Wer glaubt, das alles könnte man unter dem Begriff Linux subsummieren und das alle in die selbe Richtung laufen der irrt. Vielmehr hat sich Linux aufgeteilt in zwei gegensätzliche Strömungen. Einmal einen technokratischen Bereich der von Linus Torvalds verkörpert wird wo Politik bewusst ignoriert wird einmal einen sozialen Part der von Ubuntu und Debian verkörpert wird, wo man sich gar nicht oder nur oberflächlich mit der eigentlichen Software beschäftigt und lieber sich von Mensch zu Mensch unterhält. Und beide Seite kann man kritisieren. Intel und Linus Torvalds müssen sich zurecht die Frage gefallen lassen, was ihre Arbeit noch mit freier Software zu tun hat, während Debian sich fragen lassen muss, was sie eigentlich noch an Computer und Technologie interessiert.

MARC SHUTTLEWORTH
Auf der Debconf 2005 hat Marc Shuttleworth einen Vortrag auf der Debconf gehalten und zwar über Ubuntu. Allerdings war es kein technicher Vortrag sondern Shuttleworth hat darüber berichtet, wie seine Foundation die Bildung in der dritten Welt vorantreibt, wie man OpenSource einsetzen kann um Menschen zu begeistern und wie man die Welt ein klein wenig besser machen kann. Wie will man diesen Vortrag bewerten? Macht es Sinn ihn mit Maßstäben eines Linus Torvalds zu bewerten? Nein, man muss diesen Vortrag so einstufen wie er gedacht war, als ein gesellschaftlich/ethischen Vortrag und auf diesem Gebiet war es ein sehr guter Vortrag.

Programmieren kann Shuttleworth vermutlich nicht, man hatte eher dem Eindruck einem English-Lehrer gegenüberzustehen der gut mit Menschen kommunizieren kann. Aber ist das etwas schlechtes? Vielmehr kann man Ubuntu und Debian als eine Art von Marketing-Aushängeschild für freie Software verstehen. Wo losgelöst von dem eigentlichen Softwarengineering die Bedeutung für die Gesellschaft betont wird.

Wenn man Shuttleworth genau zuhört, so will er keineswegs die Softwareentwicklung revolutionieren oder mit Torvalds über bessere Dateisysteme streiten, sondern was Shuttleworth möchte ist es, die Prihzipien aus der OpenSource Szene für gesellschaftliche Themen zu adaptieren.

Wie bereits erwähnt stammt dieser Vortrag aus dem Jahr 2002, und was Shuttleworth vorgeschlagen hat, lag damals in der Luft. Auch andere Leute haben damals darüber nachgedacht wie man OpenSource in die Gesellschaft tragen kann. Interessanterweise ist fast zur gleichen Zeit eine neue Linux-Distribution entstanden und zwar ArchLinux. Es handelt sich dabei um eine One-Person-Distribution die später auf eine Miniteam von 25 Personen erhöht wurde und die man als Gegenentwurf zu Ubuntu bezeichnen darf. ArchLinux hat keinerlei gesellschaftspolitische Ambitionen sondern versucht sich allein auf die Software als solche zu konzentrieren.

Man kann die unterschiedlichen Philosophien so beschreiben dass Shuttleworth und Debian integrativ arbeitet, also alle Leute mit einbezieht und das Ziel hat möglichst viele Anhänger zu gewinnen, während die Upstream Softwareentwicklung rund um Torvalds, Intel und Gnome eher mit sehr wenig Leuten arbeiten und möglichst viele Leute vom Entwicklungsprozess ausschließt.

CynogenMod ist zu kompliziert

Wer glaubt, dass ArchLinux und dessen Updates kompliziert wären, der sollte sich etwas näher mit Android CynogenMod beschäftigen. Es gibt dazu zwar einen Film https://www.youtube.com/watch?v=Z6TUtVq-j8E wo behauptet wird, es wäre alles sehr simpel. Doch die Wahrheit ist folgende: täglich muss man ein neues Nighlty updaten. Diese Datei hat einen Umfang von 200 MB und muss über eine langsame LTE Verbindung heruntergeladen werden. Und danach muss das Gerät neu gebootet werden. Die Prozedur selbst dauert bis zu 30 Minuten, und im Worst-Case ist das Gerät danach kaputt. Kein Wunder warum CynogenMod nicht mehr Leute einsetzen und stattdessen lieber veraltete Android Versionen nutzen.

Die Installation von CynogenMod als anspruchsvoll zu beschreiben ist fast schon einen Untertreibung. Warum sich dennoch soviele Leute davon nicht abschrecken lassen ist fast schon ein Wunder. Selbst für Leute die normalerweise in C++ programmieren ist und sich mit Robotik beschäftigen ist die Prozedur komplett unverständlich. Selbst ArchLinux ist gegenüber CynogenMod bereits ein einfach zu bedienendes System. Obwohl Android schon so lange auf dem Markt ist, gibt es bis heute keine einfach zu bedienenden Systeme. CynogenMod ist im Grunde nur ein schlechter Witz, es ist technisch gesehen auf einem Stand von SoftLanding Linux (das war die erste Linux Version die erschienen ist wo man noch selber den Kernel kompilieren musste und es keinen grafischen Installer gab).

Generell stellt sich die Frage wo das Problem liegt? Ist es womöglich die Verwendung von OpenSource? Eigentlich nicht, schaut man sich einmal nur den Upstream von Android an so werden dort Sicherheitsprobleme gefixt und neue Features bereitgestellt. Android ist mindestens genauso sicher und schnell wie iOS von Apple. Das Problem besteht eher auf der Distributionsseite. Also die Frage wie man den Sourcecode vom Upstream auf das Gerät bekommt. Hier sieht die Lage im Android Universum traurig aus. Die Hersteller Samsung, Sony usw. schaffen es nicht, Android an ihre Geräte anzupassen und CynogenMod ist extrem schwer zu installieren und die Updateprozedur ist eine Qual. Was es braucht ist nicht etwa ein anderes Betriebssystem, sondern es braucht eine bessere Android-Distribution.

Eine gute Vorlage wäre ein Antergos für Android. Also ein grafisches System was sich leicht bedienen lässt und womit man tagesaktuelle Updates erhält. So ein System wäre im Stande iOS Konkurrenz zu machen. Ein Anterogs for Android existiert per heute nicht. Vermutlich weil dessen Implementierung anspruchsvoll ist und viele die Notwendigkeit als solche nicht erkannt haben. Stattdessen wird entweder am veralteten Stable-Release System festgehalten oder aber die User quälen sich mit CynogenMod herum.

WAS LÄUFT FALSCH?
Linux auf dem Deskop konnte sich bisher nicht durchsetzen, und Android Smartphones sind ein riesiges Sicherheitsproblem. Was läuft da falsch? Die naheliegende Antwort lautet, den Upstream in die Pflicht zu nehmen also Front zu machen gegen Linus Torvalds, gegen die vermurkste OpenSource Welt und gegen Gnome. Nur, schaut man sich diese Projekt einmal sachlich an, so wird man erkennen dass dort die Softwarequalität durchgehend hoch ist. Ein aktueller Linux-Kernel besitzt die beste Hardwareerkennung die jemals programmiert wurde und ist weitestgehend imun gegen Angriffe aus dem Internet. Das Problem liegt woanders. Zum einen sind hier die Linux-Distributionen zu nennen wie Debian, CynogenMod, Ubuntu usw. aber dann sind es auch die Medien welche über diese Distributionen berichten. Schaut man sich die Qualität der Distributionen wie auch der Berichte über Linux einmal kritisch an, so ist das Niveau extrem schlecht. Debian versucht beispielsweise seinen Nutzern zu erklären, dass ihre stable Policy sinnvoll ist während in Wahrheit Debian noch nichtmal im Stande ist, Sicherheitsupdates bereitzustellen. Und die Dokumentationen rund um CynogenMod kann man nur als einziges Durcheinander bezeichnen. Es ist auf den vielen Hilfe-Seiten und Download-Seiten nie so ganz klar ob man sich dort gerade Malware herunterlädt oder wo der Sinn hinter all dem stecken soll.

Anders ausgedrückt, der Linux Upstream ist nahezu fehlerfrei und darf für sich verbuchen sehr gute Arbeit zu leisten: Linux Distributionen und die Berichterstatttung über Linux hingegen ist der Grund warum OpenSource auf Smartphones und auf dem Desktop nicht funktioniert.

Es gibt zwei Baustellen bei denen Probleme auftreten. Einmal die Programmierung von Software selber. So enthält sowohl der Linux Kernel als auch Webkit zahlreiche Sicherheitsprobleme die noch ungefixt sind. Zusätzlich gibt es aber noch die Update-Politik der Distributionen welche selbst wenn ein Exploit gefixt ist, diesen Patch nicht an den Endverbraucher ausliefern. Das summiert sich natürlich und führt dazu, dass Linux auf dem Desktop erstens unbenutzbar wird und zweitens massive Sicherheitslücken enthält.

Was ist zu tun? Zunächst einmal geht es darum, den Fehler einzugrenzen. Der beste Weg dorthin ist es, bei sich ArchLinux zu installieren. Damit ist zumindest sichergestellt dass die aktuelle Version des Upstreams tatsächlich auf einem PC eingesetzt wird. Wenn es jetzt trotzdem noch Bugs gibt, so kann man dafür allein den Upstream verantwortlich machen. Wenn man hingegen andere Distributionen nutzt wie z.B. ein Debian LTS dann ist die Lage hoffnungslos. Es ist bei so einem Setting ungeklärt, wodurch ein Bug entsteht oder wer für seine Beseitung verantwortlich ist.

Von außen betrachtet ist die Aufgabe simpel: ein Betriebssystem besteht aus einer 5 GB großen ISO Datei und es gibt unterschiedliche Wege wie man diese Iso Datei erzeugt. Man braucht zum einen den Sourcecode dafür (also die Programme an sich) und dann braucht man noch einen Paketmanager und Build-Scripte um daraus ein Iso-File zu erzeugen. Diese Zweiteilung wird als Upstream (Gnome, Linux-Kernel, Python) und Downstream (Debian, ArchLinux, Fedora) bezeichnet. OpenSource im Allgemeinen und deren Unterteillung in Upstream/Downstream ist etwas sehr junges. Linux ist erst 25 Jahre alt, und die großen Linux Distributionen gibt es erst seit 10 Jahren. Anders ausgedrückt, es gibt niemanden der wirklich wüßte wie es richtig geht.

Nach meiner Recherche ist ArchLinux der grundsätzlich richtige Ansatz, weil er dafür sorgt, dass zumindest der Downstream (also die Distributution) semi-automatisch erzeugt wird über pkgbuild-Files. Damit ist sichergestellt, dass der Upstream in Ruhe arbeiten kann um so den Sourcecode zu verbessern.

Wichtig zu erwähnen, dass diese Meinung sich bisher nicht durchgesetzt hat. Rund 90% aller Linux-User / Developer würden hier vermutlich wiedersprechen. Man wird im Internet viel mehr Webseiten finden auf denen Debian und dessen Entwicklungsmodell als das einzig richtig angeprisen wird. Und die Anzahl der tatsächlich installierten ArchLinux Systeme dürfte im Bereich von weniger als 1% liegen.