Hat Linux Schwachstellen?

[1]

„KillDisk, Amnesia und BrickerBot gemein ist, dass sie Linux einzige „echte“ Schwachstelle ausnutzen: den User. “

Soviel Lob über Linux mag ja gutgemeint sein, wird aber der Realität nicht gerecht. Linux strotzt nur so von ungestopften Exploits. Gerade vor kurzem wurde eine 8 jahre alte Sicherheitslücke direkt im Kernel entdeckt und was die Apache Webserver, PHP Installationen und sonstige Erweiterungen an nicht gemeldeten bzw. bekannten aber nicht gestopften Sicherheitslücken mitbringen füllt ganze Bände bei der „CVE Vulnerabilities Database“. Das Problem mit dem Linux-biotop ist, dass dort zuviele Leute mitprogrammieren die richtig viel Ahnung haben und wie hieß es nochmal in diesem Film Wargames? „Wenn ich ein neues System aufsetze, baue ich da erstmal eine Backdoor ein, damit ich später mich da wieder einloggen kann.“ Der WOPR aus dem Film lief mit Sicherheit auch mit Linux.

Hier https://www.sans.org/reading-room/whitepapers/malicious/introduction-linux-based-malware-36097 ist ein Paper was einige Linux Schädlinge auflistet, mitsamt der CVE Nummer über die sie ins System eingedrungen sind. Ein Großteil der Ausfälle der weltweiten Server geht auf das Konto von dezidierten Linux-Schädlingen.

Desweiteren sei auf die zahlreichen Router hingewiesen die gerne mal zu Botnetzen zusammengeschaltet werden. Und was läuft auf diesen kleinen Maschinen? Richtig, unixoide Betriebssysteme die mit den GNU Utilities angereichert wurden. Ähnlich wie Ubuntu übrigens ohne jegliche Update-Funktionalität, so dass einmal erkannte Sicherheitslücken bis in alle Ewigkeit da drin bleiben als mahnendes Beispiel wohin zuviel Technikgläubigkeit führt.

Anti-Linux Verschwörung

1. Einführung in Minix

Wahrscheinlich bin ich denkbar ungeeignet, etwas über Minix zu berichten. Denn ich bin mit diesem Betriebssystem irgendwie emotional verbunden. Mangelnde Objektivität ist die logische Folge. Trotzdem will ich meine persönlichen Befindlichkeiten vorerst zurückstellen, und eine kurze Einführung in Minix geben.

Andrew Tanenbaum, Buchautor und Dozent, ist der Erfinder des Mini-
Unix. Hier ein Vortrag von ihm auf der FOSDEM (youtube, 53 Minuten):

Weitere Quellen:

  1. Tanenbaum, A.S.: MINIX — a UNIX clone with source code, 1987, 9 Seiten, http://hdl.handle.net/1871/2597
  2. Herder, J.N.: Building a dependabke operating system — fault tolerance in MINIX 3, Doktorarbeit 2010, 165 Seiten, http://hdl.handle.net/1871/16055

Etwas sinnvolles anfangen kann man mit Minix eigentlich nicht. Meist wird es in einer virtuellen Maschine (VMware) installiert um dabei etwas zu lernen. Minix ist hauptsächlich Selbstzweck: es wird installiert um UNIX zu verstehen.

2. Windows 7 ist toll

Das Microsoft Betriebssystem Windows 7 ist echt gut: für den Kaufpreis von 80€ bekommt man eine hübsche DVD und kann sofort loslegen. Im Gegensatz zu Mac OS X oder Linux ist Windows auch für Einsteiger leicht verständlich. Es gibt eine einheitliche Oberfläche und das Dateisystem ist standardisiert. Aber das beste ist: auf der DVD ist ein Internetbrowser und ein Video-Player bereits enthalten. Klar, auch Windows ist nicht perfekt: man muss sich mit der Maus anfreunden und der Begriff „Treiber“ ist erklärungsbedürftig. Dafür wird ihr neuer PC mit Windows 7 zu 100% zusammenarbeiten.

Ganz anders bei Slackware: dort bekommt man für den stolzen Kaufpreis von 50€ zwar den Quellcode mitgeliefert, dafür gestaltet sich die Installation schwierig: was war nochmal der Unterschied zwischen ext3 und XFS? Wofür muss man den USB Stick mounten? Was ist xinitrc? Ganz egal, ich hab keine Ahnung. Also klicke ich überall auf „Ja“ und Slackware installiert sich komplett. Jeder gottverdammte Editor, jedes Dateisystem ist mit dabei. Ob ich jemals das System voll ausreizen werde ist bei der Erstinstallation noch unklar. Fakt ist nur: das fertige Slackware bootet und braucht nie wieder heruntergefahren werden.

Beim Apple iPhone hieß das Schlagwort „Reboot works“. Was sinngemäß meinte, dass man mindestens einmal täglich einen Reboot machen sollte: um den Speicher zu leeren, alle Init-Files auf den Jungfrauen-Mode zu setzen und anschließend wieder ein konsistentes System zu haben. Slackware hingegen läuft und läuft und läuft.

3. Die Feinde von Linux

Natürlich gibt es Neider. Viele mächtigen Leute wollen Tanenbaum, Torvalds und Stallmann ihren Erfolg nicht gönnen. Denn Freiheit ist immer auch eine Bedrohung für Mächtige. Wo sich Schulkinder die Systemsoftware Slackware einfach aus dem Netz wie aus dem Kaugummi-
Automat ziehen können wirken Leute in Anzügen, die Wartungsverträge für WinNT verkaufen ziemlich altbacken. Aber Schritt für Schritt. Zunächst einmal ist Minix, NetBSD und Linux (d.h. UNIX für PCs) das ideale Zweitbetriebssystem neben Windows. So kann Windows 7 ganz wunderbar um zusätzliche Features wie NFS, Kommand-Line und Perl erweitert werden. Eine dauerhafte friedliche Koexistenz … BlaBlaBla.
Damit aus dem Zweitsystem kein Hauptsystem wird, planen die mächtigen Software-Riesen sich gegen den Pinguin zu verschwören. Es beginnt ganz harmlos mit einer Anzeigenkampagne, http://neil.franklin.ch/Info_Texts/anti-linux.jpg
die das Chaos bei Linux betont. Weiter geht es mit Urheberrechtsklagen von SCO gegen IBM. Und irgendwann wird Microsoft die PC Hersteller zu einem Anti-Linux-Bios zwingen, das neue Computer nur noch Microsoft-
Produkte abspielen können. Auf der Playstation und der XBox ist es schon soweit. Aber auch Apple baut die Hardware mit Absicht „not Linux ready“. Alles nur, um die Konsumenten zu verunsichern, Software an „Geld verdienen“ zu koppeln und Marktmonopole weiter auszubauen.

Die Antipathie gegen Freie Software ist nicht technisch motiviert sondern beruht einzig auf Werbung. Microsoft besitzt einen Werbeetat groß genug, um einen Song der Rolling Stones zu kaufen und das Weiße Haus mit NT-Servern zu beliefern. Deshalb setzt sich nicht das bessere System durch, sondern das populärere System (Windows 7) gibt die Standards vor: DirectX, NTFS und C++. Wie heutzutage gute Software auszusehen hat entscheidet ein Softwarekonzern. Er spricht die globale Sprache des Geldes, die auch die meisten anderen Unternehmen sprechen. Und ja, die teuersten Computer weltweit werden in Firmen eingesetzt, deshalb ist Microsoft auch so erfolgreich.

Viele Befürworter von Microsoft betonen, dass der Softwaremarkt käufergetrieben funktioniere. D.h. Ein Student geht in den PC-Laden und will etwas kaufen. Er verlangt Windows und deshalb wird es verkauft. Ganz so einfach ist es nicht. Stattdessen ist der Softwaremarkt in Wahrheit ein Verkäufermarkt. D.h. der Kunde hat keine Ahnung von Computern und kauft die Empfehlung des Verkäufers. Und der empfielt nunmal das Produkt, worauf es eine hohe Provision gibt. Würde sich der Käufer gegen Windows entscheiden wäre das Verteauensverhältnis zu seinem PC-Händler zerstört und er wäre ein Kunde 2. Klasse. Das will niemand sein, also tragen alle das Kleid von Bill Gates und niemand traut sich daran herumzukritisieren. Damit das so bleibt, knebel Redmond die PC-Händler mit OEM Lizenzen, kauft Anzeigenseiten in Computerzeitschriften und hat auf Messen immer den größten Stand. Durch schiere Größe konnte Microsoft bisher immer seine Marktmacht behaupten. Zum Beispiel gegen Geoworks, Novell DOS, Borland, OS/2.

Youtube-Video, 17 Minuten, Anti-Linux, [youtube http://youtube.com/w/?v=IYT6Xczbs0M

Gentoo Linux vs. ROS

In der Hackerszene gibt es eine klare Rangfolge, bei der die Gentoo-Linux-User ganz weit oben stehen. Anders als die breite Masse, die sich einfach ein aktuelles Ubuntu installiert und fertig, sind Gentoo-Linux-User daran interessiert wie das System intern funktioniert. Ein netter Nebeneffekt davon ist, dass die Gentoo-Community manchmal auch Lösungen an den Upstream zurückgibt, d.h. Gentoo-User sind nicht einfach nur Anwender die froh sind, wenn ihr Firefox Browser läuft und sie Spiele spielen können, sondern Gentoo-Anwender sind zugleich auch Maintainer, also Leute die im Bau von Linux-Distributionen involviert sind und demzufolge eine Community-Builder-Funktion besitzen. Böse formuliert, sind Ubuntu-User entbehrlich, es macht keinen Unterschied ob 100 Leute dieses Betriebssystem bei sich zu Hause installieren, oder 100 Mio. Weil Ubuntu-User in der Regel nur vom Schlage „Nimm“ sind, d.h. sie verkonsumieren die Bandbreite des Ubuntu-Mirrors, verkonsumieren die investierte Zeit der Ubuntu-Maintainer und geben selbst nichts zurück.

Natürlich hat diese längere Einleitung einen Grund, es geht darum die Unterschiede von Ubuntu und Gentoo-Linux herauszustellen. Der Hauptunterschied dürfte vermutlich sein, dass die Benutzung von Gentoo als kompliziert gilt (nur die echten Super-Hacker bekommen das bei sich installiert) währenddessen Ubuntu-Installationen anspruchslos sind. Aber, sind Gentoo-User damit wirklich die heimlichen Experten innerhalb der OpenSource Software, oder gibt es nicht vielleicht noch viel viel anspruchsvollere Systeme mit denen man sich beschäftigen kann? In der Tat die gibt es. Denn egal wie man es dreht, Gentoo ist im Grunde auch nur ein Betriebsystem, was auf einem Kernel aufbaut der schon gut abgehangen ist und wozu im Laufe der Zeit sehr viele Bücher erschienen sind. In der Gentoo Community gibt es soetwas wie eine Routine, die man daran erkennt, dass die verwendeten Tools zum Bau von Paketen seit Jahren praktisch unverändert sind, und demzufolge man sich leicht in etwas hineinarbeiten kann, was auch noch 10 Jahren Bestand haben wird. Aber das gilt nicht nur für den Bau einer Distribution, sondern auch der Linux-Kernel selber, sowie die wichtigsten OpenSource Projekte wie Apache, Mysql oder PHP gelten als gesättigt. Im wesentlichen weiß man heute wie man ein Betriebssystem, eine Scriptsprache oder einen Webserver programmieren muss und wenn es Streit gibt, dann allenfalls über Details. Niemand bestreitet heute noch ernsthaft, dass eine LAMP Installation ungeeignet wäre um einen Webserver oder ein Blog zu hosten. Wirkliche Aufregung welche die Programmierer aufschreckt gibt es eigentlich nur noch dann, wenn irgendwelche schwerwiegenden Sicherheitslücken (in OpenSSL oder sonstwo) entdeckt wurden. Nur in solchen Ausnahmesitutation gibt es wieder einen grundsätzlichen Diskurs darüber, was Softwareentwicklung ausmacht, und wer möglicherweise Schuld ist, wenn sie versagt. Gäbe es keine Sicherheitslücken, wäre im Grunde das Linux-Projekt mehr oder weniger langweilig. Was soll man groß verändern an einem System was stabil läuft?

Weiter oben hatte ich versprochen, es gäbe noch etwas was anspruchsvoller als Gentoo-Linux ist. Und zwar ist es ROS. Der Unterschied zwischen beiden besteht darin, dass ROS noch mitten in der Entwicklung ist und keineswegs zum Produktiveinsatz geeignet ist. Allein um ein aktuelles ROS bei sich zu installieren muss man im Regelfall das System manuell kompilieren, so wie bei Gentoo auch nur mit dem Unterschied dass es dafür keine Scripte gibt, sondern man die Befehle einzeln auf der Command-Line eingeben muss. Und selbst wenn man das geschafft hat, ist keineswegs klar was als nächstes kommt. Im ROS Wiki heißt es dann lapidar: informiere dich über SWI-Prolog. Und im Grunde wird damit eine sehr große Hürde aufgebaut, wird doch damit angedeutet, dass Leute die keine Ahnung von Prolog haben, sich gar nicht näher mit ROS auseinanderzusetzen brauchen. Prolog ist sozusagen Grundlage um überhaupt weitere Dinge erläutern zu können. Ähnlich wie Java, Web-Ontologien, cognitive Robotik oder das Verständnis von 3D Physik-Engines. Und das macht die Arbeit an ROS um so vieles anspruchsvoller als die Arbeit an einer Linux-Distribution wie Gentoo. Bei Gentoo sind die Anforderungen an die User/Maintainer noch überschaubar: es reicht aus, wenn sie sich mit UNIX auskennen, wenn sie wissen wie make funktioniert und wenn sie Ahnung von Kernel-Treibern haben. Das ist zwar nichts, was man so nebenbei lernt, aber derartige Fachgebiete sind gut erforscht und es gibt dafür Lehrbücher, wo man das nötige Wissen sich im Selbststudium aneignen kann. Bei ROS hingegen sind sich selbst die Experten nochnichtmal einig darüber, was der richtige Weg ist, weil die Thematik von ROS noch gar nicht wissenschaftlich untersucht wird. Daher sind nicht nur die Anforderungen an die User höher, sondern sie ändern sich auch noch ständig.

Die meisten Aspekte innerhalb von ROS werden nicht als Fachwissen präsentiert, sondern als ein Vakuum. Damit ist gemeint, dass ROS beispielsweise Freiraum lässt für Leute die sich mit kognitiven Architekturen beschäftigen und das in ROS ausprobieren wollen. Keineswegs ist damit gemeint, das ROS eine kognitive Architektur wäre, sondern es verschließt sich diesem Ansatz nur nicht. Und so ist es auch mit vielen weiteren Themen wie z.b. Semantic Web, Java oder RRT-Algorithmen. Das macht es auch so schwer zu definieren, was ROS eigentlich ist: ist es eine Forschungsplattform? Ist es ein Roboterframework? Ist es ein Überwachungssystem für Menschen? Eine eigentliche Antwort darauf gibt es nicht. Es ist vielleicht alles davon ein bisschen. Aber eines ist ROS auf jeden Fall: eine sehr umfangreiche ISO-Datei die ungefähr 20 GB groß ist (wenn man alle Pakete installiert hat) und damit umfangreicher als eine Standard-Gentoo-Installation um einen Webserver zu betreiben (die maximal 1 GB groß wird).

Obwohl ROS relativ offen scheint für alle möglichen Einflüsse versperrt es sich derzeit jedoch gegen die Unterhaltungsindustrie, genauer gesagt gegen Animatronics. Das sind Anwendungsbereiche, die nichts mit Robotik und nichts mit Künstlicher Intelligenz zu tun haben, aber sehrwohl von ROS profitieren würden. Kurz gesagt, könnte man einen sprechenden Raben aus dem Disney-Park mit ROS steuern, wenn denn ROS nicht so sehr fixiert wäre auf wissenschaftlich-industriellen Fortschritt.

Sicherheitsprobleme häufen sich

In letzter Zeit gab es mehrere Meldungen [1] [2] die Anlass zur Sorgen geben. Einmal wurden Keylogger entdeckt und dann wurde Spyware nachgewiesen, die den Raum via Ultraschall scannt um Bewegungsprofile zu erstellen. Jetzt könnte man sagen, dass das Problem mit propritärer Software zusammenhängt aber das ist nicht wahr. Die Android Spyware wurde auf einem Linux System gefunden und Software wie Geoclue die ebenfalls sehr tief ins System eingreift wird als OpenSource entwickelt. Offenbar ist es also möglich dass vor unser aller Augen Hardware wie auch Software nicht das tut was der Anwender gerne hätte sondern die Hersteller, Programmierer und Hacker eine eigene Agenda verfolgen. Was kann man da tun?

Wenn man bereits OpenHardware plus OpenSource einsetzt kann man leider nicht viel tun, weil es ja nichts mehr gibt auf das man noch umsteigen könnte. Das Problem lässt sich also mit freier Software allein nicht lösen, sondern es hat etwas mit dem Wissensvorsprung zu tun. Das heißt, es gibt Leute in der Linux Community die wissen wie man den ALSA Treiber in eine Wanze verwandelt um den Raum akkustisch zu überwachen und die wissen welche Zero-Day-Exploits der Kernel hat und es gibt Leute die es eben nicht wissen. Diesen Wissensunterschied gibt es auch bei propritärer Microsoft Software aber eben nicht nur dort.

Ich glaube, der erste Schritt besteht zunächst einmal darin für Transparenz zu sorgen und zwar dahingehend dass man darüber aufklärt, dass Linux keineswegs das ultrasichere Betriebssystem ist, was uns die Debian Leute schmackhaft machen wollen, sondern man sollte ehrlich zugeben, dass Linux mindestens so leicht ausspioniert werden kann wie jedes andere Betriebssystem auch. Je mehr Leute am Code mitentwickeln und je mehr dieser Code öffentlich einsehbar ist, desto höher das benötigte Knowhow um dort Schadcode hineinzuschmuggeln, sogenannte unabsichtliche Fehler werden überall dort eingebaut wo man nicht offiziell eine Backdoor einsetzen kann. Das heißt, das Wissen was die Programmierer mitbringen wird genutzt um die Systeme unsicherer zu machen.

Wie man dieses Arms Race für sich entscheiden kann ist unklar. Vermutlich gewinnt am Ende jener, der am meisten Ahnung hat. Für den Anwender und Nicht-Programmierer bedeutet es, dass er weitestgehend den Interessen der Softwareentwickler ausgeliefert ist und hilflos mitansehen muss wie von seinem Gerät wichtige Daten abfließen. Fast schon ein wenig zynisch muten da Bestrebungen der Nutzer an, in vorauseilendem Gehorsam alle Daten zu veröffentlichen, also freiwillig das ins Netz zu stellen, was ein Trojaner sonst abgreifen müsste. Das heißt, anstatt darauf zu warten dass ein Computervirus die eigene Webcam kapert um das Signal anzuzapfen, lässt man die Webcam einfach 24/7 mitlaufen und streamt das ganze live zu Youtube. Das ist deshalb so makaber, weil eigentlich ja angestrebt ist, die Privatsphäre zu schützen und Trojaner als Bedrohung und nicht als Freund zu betrachten.

Über Windows-User wird häufig gelästert, dass sie sich mit ihren Computerschädlingen anfreunden würden. Es gibt nicht wenige User, die wissen dass auf ihrem Systemen mindestens 5 Viren gleichzeitig aktiv sind, mangels Computerkenntnisse können sie diese aber nicht entfernen und so leben Anwender und Virus in einer Koexistenz. Der Virus sorgt dafür, dass das System stabil läuft und Word immer gut hochfährt, während der Anwender dafür den Virus toleriert weil er ja nur wenig Schaden anrichtet.

Aus dem Linux-Universum ist über derartige pseudo-Paarbeziehungen nichts bekannt, es dürfte sie aber auch dort geben. Nur mit dem Unterschied, dass die meisten Linux-User glauben, dass der Rechner ihnen ganz allein gehören würde, weil sie wissen was sudo kann und wie man den Kernel kompiliert.

Linux für professionellen Videoschnitt

Linux wird nach wie vor als Toy belächelt. Auf einer Veranstaltung aus dem wissenschaftlichen Umfeld war neulich bevor die Präsentation losging ein aktuelles Ubuntu im Hintergrund zu sehen was deutlich gemacht hat, dass der Vortragende von Computern offenbar keine Ahnung hat. Aber, Linux ist zu mehr imstande als nur als Spielzeug. Man kann damit ausgezeichnet Videos schneiden. Das beste Programm dafür ist Kdenlive. Am besten ist es, wenn man sich zunächst ein Repositoy anlegt und von dort es aktualisiert. Dann hat man immer die neueste Version. In seiner aktuellen Iterationsstufe kann man mit Kdenlive bereits ordentlich arbeiten. Das heißt, im sogenannten Mehrspurediting können Video und Audio Clips übereinander gelegt werden. Ferner sind Spezialeffekte möglich wie überblenden oder Kanten abschneiden. Zum Schluss muss man ähnlich wie bei einem kommerziellen Videoschnittprogramm noch auf „Rendern“ klicken um das Video in das Ausgabeformat WEBM/VP8 zu exportieren.

Nun ist Kdenlive keineswegs die bekannteste Software um Videos zu schneiden. Gerade für MS-Windows und Mac OS gibt es unzählige Kandidaten. Aber, Kdenlive ist kostenlos und im Sourcecode verfügbar. Das macht es zu etws besonderem. Der eigentliche Clou in der Software ist, dass man sie häufig unterschätzt. Wenn man jedoch etwas genauer hinschaut wird man erkennen, dass sich sogar 4K Videoschnitt damit durchführen lässt, eine Anforderung wie sie normalerweise nur bei professionellen TV-Studios benötigt wird. Bedingung ist jedoch hier, dass die verwendete Hardware schnell genug ist. Damit man die Vorschau ruckelfrei abspielen kann, benötigt man eine High-End-CPU von Intel, sonst geht es nicht.

Fedora — eine erste Annäherung

Die derzeit bekannteste Linux-Distribution ist Ubuntu. Sie gilt als stabil wie sicher gleichermaßen und erfreut sich bei vielen Neueinsteigern einer großen Beliebtheit. Aber mit Ubuntu gibt es mehrere Probleme. Erstens, erinnert auch das normale Ubuntu sehr stark an ein Windows XP bzw an ein Linux Mint, wo man das Gefühl nicht loswird vor einem 5 Jahre alten System zu sitzen, was jeden Moment auseinanderfällt. Zweitens macht der Ubuntu CVE Tracker keine gute Figur, weil da sehr viele Bugs noch nicht gefixt sind und zu guter letzt scheint die Debian Gemeinschaft ein wenig der Welt entrückt zu sein. Was tun? Zu ArchLinux wechseln geht leider nicht, weil man hier von einem stable-Release zu einem Rolling-Release wechselt, was im Grunde heißt, dass man damit keine stabilen Server und vermutlich auch keine stabilen Workstations betreiben kann, sondern ArchLinux ist eher für jene Leute welche aktiv am Linux Kernel mitentwickeln wollen, also froh darüber sind, wenn ein neuer Bug auftritt, den man fixen kann.

Die nächste Alternative wäre dann schon Redhat. Redhat gilt es als extrem zuverlässig und basiert ähnlich wie Debian auf einer Stable-Release Veröffentlichung. Noch dazu nutzt Torvalds Redhat und viele interessante Projekte wie qemu werden dort entwickelt. Die kostenlose Redhat Version lauten CentOS und Fedora. Über beide Systeme ist in deutscher Sprache relativ wenig zu lesen. Es gibt auch kein umfangreiches ubuntuusers-ähnliches Wiki auf Deutsch, sondern scheinbar ist Fedora komplett auf den us-amerikanischen Markt hin zugeschnitten. Zumindest von der Selbstdarstellung verspricht es, professioneller zu sein als ein Ubuntu. Warum also nicht dem System eine Chance geben?

Fangen wir mal ganz langsam an und untersuchen die Pakete bei Redhat / Fedora. Hier https://apps.fedoraproject.org/packages/lyx ist beispielsweise das Schreibprogramm Lyx aufgeführt was in einer erstaunlich frischen Version daherkommt. Auch Eclipse ist anders als bei Ubuntu neueren Datums. Ein wenig kommt da ArchLinux Feeling auf, wo ebenfalls das Repository immer sehr gepflegt ist, allerdings mit dem Unterschied dass Fedora nicht als reine Rolling-Release Distribution daherkommt sondern (hoffentlich) voher noch ein/zwei Tests durchführt.

Um dieser Frage genauer nachzugehen, muss man sich die ISO DVD aus dem Netz herunterladen. Die Url findet man relativ einfach mittels Google und so reicht ein simpler wget Befehl um die 1,4 GB große Datei auf die heimische Festplatte zu schaufeln. Da der Download etwas länger dauert bleibt Zeit ein wenig darüber nachzudenken, was genau die Erwartungen an Fedora sind. Nun im Grunde soll Fedora das selbe können wie Ubuntu auch, also ein kostenloses Linux für einen PC liefern, aber mit dem Unterschied dass man neuere Software und weniger Fehler erhält. Die grundsätzliche Frage die man sich als Ubuntu Anwender immer stellt ist ob die vielen Baustellen in dem System ein Problem von OpenSource Software sind, oder ob man mit einer besseren Distribution die von kompeteteren Maintainern verwaltet wird da nicht noch was rausholen kann.

Dass Linux gegenüber Microsoft Vorteile besitzt ist unbestritten. Gegen eine Software die umsonst ist und noch dazu im Sourcecode verfügbar ist hat es Microsoft schwer dagegen anzukommen. Es stellt sich jedoch die Frage ob das was Debian/Ubuntu abliefern bereits der Weisheit letzter Schluss sind oder ob es noch ein Zwischending gibt zwischen ArchLinux und Ubuntu. Wo man also zwingend ein stable-Release System erhält was vorher schonmal getestet wurde, aber was noch halbwegs aktuell ist. Also nicht, dass Ubuntu kompletter Unfug wäre. Ubuntu ist eines der besseren Linux-Distributionen die sehr viel richtig gemacht hat. Das umfangreiche Wiki auf Deutsch gehört dazu. Auch ist die Ubuntu Community relativ groß und man kann es auf so gut wie jedem PC out-of-the-box installieren. Aber grundsätzlich besteht die OpenSource derzeit aus zwei großen Playern: Debian vs Redhat. Und man sollte beiden Systeme eine Chance geben. Gerade auf dem europäischen Markt ist Fedora nahezu unbekannt, selbst nach intensiver Recherche findet sich nur wenig Videomaterial auf Youtube zu der Thematik. Das kann bedeuten, dass es mit Ubuntu nicht mithalten kann, es kann aber auch bedeuten dass Fedora ein Geheimtipp ist für all jene Leute welche sich mit dem Cannonical Way of life nicht so recht anfreunden können. Ein Vorteil hat Fedora/Redhat zumindest: Geld ist offenbar überreichlich vorhanden, weil man schon relativ früh sich auf Unternehmenskunden fokussiert hat, und dort wohl Umsätze im Millionenbereich einfährt. Dort will Ubuntu erst noch hin.

UPDATES
Das Hauptproblem was alle Linux Distributionen haben sind Sicherheitsupdates. Wenn man davon ausgeht, dass diese zwingend als Stable-Release erscheinen weil man nur das auf einem Produktivserver tolerieren kann muss zwingend auf Seiten der Distribution eine Infrastruktur geschaffen werden wie man die Backports, Updates und Aktualisierungen pflegt. Sowohl bei RedHat als auch bei Debian gibt es Leute, die sich damit beschäftigen. Die Qualität einer Distribution ist davon abhängig wie gut die Updates erfolgen, also wie zahlreich, wie schnell und mit welchen Problemen. Gäbe es nicht die Update-Problematik könnte man theoretisch auch eine Ein-Mann-Distribution auf Basis von Linux-From-Scratch oder Damn-Small-Linux aufbauen, die einmal installiert stabil und sicher läuft. Wie aber die meisten Anwender ahnen ist der nächste Exploit nicht weit weg und so bedarf es einer laufenden Wartung am System wenn man Freude mit dem System haben will.

INSTALLATION
Anstatt den Sprung ins kalte Wasser zu wagen wird Fedora erstmal in Qemu installiert:

qemu-img create -f qcow2 BOOTSYSTEM.img 10G
kvm -hda BOOTSYSTEM.img -cdrom DATEINAME.iso -boot d -m 1024

Falls da schon Probleme auftreten kann man sich den Spaß mit dem USB Stick auch sparen. Nachdem die ISO-Datei gebootet ist, hat man wie bei Ubuntu auch die Auswahl zwischen Try und Install, ein Druck auf den Install Button öffnet ein weiteres Menü wo man die Sprache einstellt und die Zielpartition automatisch erstellen lassen kann, dann beginnt bereits die Installation selber und während man dem Statusbalken zuschaut muss man noch das Root-Passwort festlegen. Nach kurzweiligen 10 Minuten ist die Installation abgeschlossen und man kann neu booten.

Nach dem ersten Start kommt eine Oberfläche die stark an die Erstinstallation bei einem Apple Gerät erinnert. Man wird darüber informiert, dass die Ortungsdienste einen tracken und man soll sich mit seinem Google Konto verbinden, was man aber auch überspringen kann. Dann landet man auf einer weitestgehend leeren Gnome3 Oberfläche. Den ersten Bug kann man sehen, wenn die Karten-Applikation startet, dort erscheint die Meldung dass der Datenlieferant Mapquest seinen Dienst eingestellt hat. 1 zu 0 für Fedora. Ein weiterer Bug wird deutlich wenn man LibreOffice Writer startet. Obwohl bei der Installation explizit Deutsch als Sprache eingestellt wurde, ist LibreOffice komplett auf English. Jetzt sind es bereits 2 zu 0 für Fedora. Als nächstes wird das Schreibprogramm Lyx installiert, mal sehen ob das klappt. Unter dem Button Software versteckt sich der Gnome Paketmanager der auch bei Ubuntu verwendet wird, dort ist Lyx tatsächlich vorhanden und kann nach Eingabe des Root passwortes installiert werden. Um den weiteren Ablauf näher zu beschreiben, hier die Ist-Situation:

Derzeit läuft Lyx weder in Ubuntu noch in ArchLinux wirklich stabil. Wenn man eine Bibliographie verwendet und als Sprache Deutsch auswählt kommt eine böse Fehlermeldung dass irgendwas mit der Sprachdatei nicht funktioniert. Wollen doch mal sehen wie das bei Fedora gehandhabt wird. Antwort: nicht so gut. Bereits die Installation scheitert. Angeblich konnte das Package auf dem Server nicht gefunden werden. Tja, jetzt steht es bereits 3 zu 0 für Fedora.

PAKETMANAGER
Anders als bei Ubuntu gibt es bei Fedora offenbar keinen grafischen Paketmanager. Außer „Gnome Software“ wurde jedenfalls nichts angezeigt. Mit etwas suchen bei Google hat sich dann herausgestellt, dass

su -
dnf upgrade

das System auf den neuesten Stand bringt. Etwas ausfühlicher wird die Benutzung auf https://fedoraproject.org/wiki/Dnf/de erläutert. Was an Fedora nervig ist, dass man offenbar ein Fan von weißer Schrift auf schwarzem Hintergrund ist. Dieses Darktheme genanntes Konzept ist doch längst überholt, heute möchten es auch Hacker lieber etwas heller haben und bevorzugen einen leuchtend hellen Hintergrund mit schwarzer Schrift.

SELinux
Das schöne an der Ubuntu Community ist, dass es dort entspannt zugeht. Man findet dort Leute die ebenfalls gerne mit STEAM Games zocken, und aus Windows Ecke kommen. Bei Fedora hingegen scheinen einige einen Stock verschluckt zu hoben. Nicht nur, dass dort SELinux vorinstalliert ist, sondern wenn man auch nur einmal das falsche Root-Passwort eingibt, steht da gleich „Dieser Vorgang wird gemeldet“. Und weiter heißt es, „1 falscher Anmeldeversuch“.

UND WEITER GEHTS
Da beim ersten Anlauf die Installation von Lyx gescheitert ist, machen wir doch mit dem aktualisierten System noch einen zweiten Versuch.

su -
dnf search lyx
dnf install lyx

Nach „dnf search“ informiert uns Fedora dass sowohl auf Lyx als auch auf LaTeX das US-amerikanische Patentrecht gilt. Das war vorhin gemeint mit dem „Stock verschluckt“, so locker wie bei Debian ist man hier wohl nicht was das geistige Eigentum anbelangt. Anders als beim Gnome Software Center sieht man bei „DNF“ auf der Komamndozeile den konkreten Status, es erinnert ein wenig an Pacman aus dem ArchLinux Projekt. Bei Lyx dauert die Installation bekanntlich etwas länger, weil erstnoch die komplette Texlive Iinstallation durchgeführt werden muss. Es ist also Warten angesagt. Diesmal wird die Installation bis zu Ende durchgeführt aber trotzdem startet lyx nicht, es gibt ein Fehler mit einer Python-Applikation. Damit ist der Punktestand jetzt 4 zu 0 für Fedora.

Ein erneuter Check ob nach dem Systemupdate sich sonst etwas verändert hat, ergibt, dass plötzlich die Karten-App funktioniert. Auch der eigene Standort ist halbwegs genau. Wie sich Fedora aus einer Virtuellen Maschine heraus orten konnte ist unklar, WLAN SSID sind jedenfalls nicht vorhanden die man anzapfen könnte. Vielleicht wissen die Autoren von Geoclue2 mehr? Da aber die Karten-App tadellos funktioniert erhöht sich der Punktestand auf 4 zu 1.

Machen wir noch einen weiteren Installationsversuch. Das beliebte Echtzeitstrategiespiel OpenRA wäre sicherlich auch für Fedora Anwender ein Gewinn. Leider sagt der Paketmanager, dass OpenRA komplett unbekannt ist. Das ist der nächste Pluspunkt für Fedora, damit lautet der Gesamtpunktestand jetzt 5 zu 1.

FAZIT
Fedora macht einen sehr steifen Eindruck, man kann damit sicherlich gut auf dem Desktop arbeiten, aber viele Dinge funktionieren nicht. Lyx ist zwar auch in Ubuntu nicht ohne Fehler, aber zumindest startet dort die Applikation. OpenRA gibt es bei Fedora überhaupt nicht. Positiv fällt auf, dass bei Fedora alles gut strukturiert ist. Man hat eher den Eindruck mit einem professionellen Betriebssystem zu arbeiten. Einen klaren Vorteil von Fedora gegenüber Ubuntu ist jedoch nicht erkennbar. Es hat seine Gründe, warum Ubuntu und nicht Fedora das beliebteste Linux ist im Heimbereich.

Laut Selbstdarstellung ist Fedora die professionellste von allen Linux-Distributionen. Dass es keine deutsche Anleitung gibt — na gut, das kann man verschmerzen. Aber leider gibt es noch weitere Mängel. Es fehlt ein grafischer Paketmanager, stattdessen muss man mit dem Kuddelmuddel aus yum und dnf Vorlieb nehmen, wichtige Pakete wie OpenRA oder mplayer sind gar nicht in den Repositorys vorhanden sondern müssen manuell kompiliert werden oder über Zusatz-Repositorien. Lyx lässt sich zwar installieren startet aber nicht. Mag sein, dass Fedora und RedHat woanders ihren Stärken haben, aber dass man jeden Ubuntu User ermutigen sollte auf diese Distribution umzusteigen wäre verfrüht. Es scheint so zu sein, als ob alle Linux-Distributionen egal ob Ubuntu, Fedora oder ArchLinux mit den gleichen Problemen zu kämpfen haben: der Upstream gleicht eher einer Sharewaresammlung, die Maintainer der Packages sind überfordert und zusätzlich wollen die Anwender auch noch stabile Software. Jede Linux-Distribution setzt andere Prioritäten aber einen klaren Sieger gibt es nicht. Was man jedoch sagen kann ist dass Fedora in 5 Jahren vermutlich besser sein wird, als das heutige Fedora was aber auch für Ubuntu zutrifft.

Erinnern wir uns, wie Linux einmal gestartet ist. Es war nach GNU Hurd der zweite Anlauf um ein Betriebssystemkern unter einer freien Lizenz zu entwickeln. Zusammen mit dem bereits vorhandenen GNU Compiler und Xorg wurde daraus dann eine Sharewaresammlung welche inzwischen mit Microsoft mithalten kann. Das unfertige / amateuerhafte hat die Software nie so ganz loswerden können, auch heute noch werden wichtige Programme als Hobbyprojekte entwickelt. Wirklich uneingeschränkt zu empfehlen ist Linux nur im Server-Bereich also dort wo Apache und PHP gefragt sind. Sobald es jedoch um Smartphones, Desktops und Notebooks geht, ist Linux gegenüber Windows und Apple im Nachteil. Nicht nur, dass die Hardware nicht gut unterstützt wird, sondern es gibt auch unprofessionelle Software und schlampige Distributionen. Man merkt einem Ubuntu oder einem Android überdeutlich an, dass die Software umsonst ist. Bei Apple würde die Qualitätskontrolle sowas nicht akzeptieren.

Fedora — große Enttäuschung

Nach dem ersten Test der Fedora-Distribution bleibt ein bitterer Nachgeschmack übrig. Das Problem ist nicht so sehr die Distribution als solche, diese hat Bugs wie jede andere Distribution auch, sondern was unangenehm auffällt ist der große Unterschied zwischen Marketing-Versprechen wonach Fedora die beste Linux Distribution von allen sei und dann die Realität die das leider nicht einhält. Bei ketzerischer Betrachtung ist das Alleinstellungsmerkmal von Fedora eigentlich nur der dunkle Hintergrund mit der weißen Schrift plus einem SELinux von dem niemand so recht weiß was es genau macht. Hinzu kommt, dass Fedora außer Linus Torvalds und einige bezahlte Redhat-Angestellten keine echte Community besitzt und auch sonst wohl niemanden so recht interessiert. Es gibt zwar in der Fachpresse immer mal wieder Artikel wenn das neue Fedora erscheint, aber ob die Leute das OS wirklich installiert haben, oder einfach nur fertige Pressemeldungen von Redhat Inc. übernehmen ist unklar. Und mehr noch, man hat den Eindruck dass Feoora soetwas ähnliches ist wie Debian SID, eine Distribution welche nicht wirklich für den Produktiveinsatz gedacht ist, sondern nur als Testsystem genutzt wird um Bugreports zu erstellen. Wirklich gut in Fedora funktioniert der Bugtracker, der erstellt automatisch bei einem Crash ein Logfile und man kann mit wenigen Mausklicks diesen zu Bugzilla hochladen. Wirklich arbeiten mit Fedora kann man hingegen nicht. Meine Vermutung lautet, dass der Redhat Desktop die eigentlich stabile Umgebung ist, wo dann vermutlich auch Lyx anstandslos startet. Nur der Redhat Desktop wird eben nicht kostenlos angeboten.

Anders formuliert, die geringe Verbreitung von Fedora hat seine Berechtigung. Die User da draußen sind nicht doof, sie wissen schon warum sie lieber Ubuntu nehmen. Und wo der Name jetzt gefallen ist, Ubuntu hat wenigstens den Vorteil dass man da mit viel geringeren Erwartungen herangeht. Das Ubuntu nichts taugt, einem Windows XP zum Verwechseln ähnlich sieht und die Sicheheitsupdates mit der selben Verlässlichkeit erscheinen hat sich inzwischen herumgesprochen. Umso positiver überrascht ist man, wenn es doch gelingt mit Ubuntu eine Diplomarbeit zu schreiben oder wenn doch ein aktueller Firefox ausgeliefert werden, der wenigstens ein paar der Viren aus dem Internet fernhält.

Bei Fedora hingegen hat man den Eindruck als wäre das eine Software welche nur in der Vitrine ausgestellt ist, was man jedoch nicht selbst benutzen kann. Wirklich gut funktioniert Fedora nur, wenn man den hübschen Marketing-PDF-Flyern glaubt das Produkt selbst aber nicht testet. So bleibt der Zauber eines perfekten Betriebssystems erhalten und der Anwender wird nicht mit echten Problemen konfrontiert.