Wann wurde der erste Computer erfunden?

Noch immer ist der genaue zeitliche Ablauf der zur Erfindung des ersten Computers geführt hat ein ungelöstes Rätsel in der Geschichte. Im folgenden wird anhand der historischen Ereignisse zunächst die Zeitlinie rund um Ada Lovelace und Charles Babbage näher untersucht. Als gesichert gilt, dass Charles Babbage um das Jahr 1840 herum an der University of Turin eine Vorlesung über seine Analytical Engine entwickelt hat. Die Mitschrift zu dieser Vorlesung wurde zuerst in Französisch angefertigt, und später dann von Ada Lovelace ins Englische übersetzt. Das Paper schien 1843 http://history-computer.com/ModernComputer/thinkers/Ada.html

Das erstaunliche ist weniger die Tatsache, dass darin ein Computerprogramm zum Berechnen von Bernoulli Zahlen vorgestellt wird, sondern der Skandal ist die Tatsache, dass die Hauptprotagonisten Ada Lovelace und Charles Babbage gar keine echten Mathematiker waren. Wikipedia bezeichnet Ada Lovelace als Amateur Mathematiker: https://en.wikipedia.org/wiki/List_of_amateur_mathematicians Eine andere Quelle http://www.findingdulcinea.com/features/profiles/b/charles-babbage.html fällt dasselbe Urteil auch über Charles Babbage:

„Charles Babbage was a wealthy amateur mathematician“

Überlicherweise wird der Begriff Amateur-Mathematiker in einem abwertenden Zusammenhang verwendet um auszudrücken, dass die entsprechende Person nicht wirklich Ahnung von seinem Fach hat, sondern mehrere Jahren im Rückstand ist gegenüber der State-of-the-Art Mathematik. Wenn also ein Paper aus dem Jahr 1843 worin ein Programm zur Berechnung von Bernoulli Zahlen als Amateur-Mathematik gilt, was bitteschön war dann richtige Mathematik aus dieser Zeit?

Es gibt noch eine zweite mögliche Interpretation. Und zwar dass die Einstufung von Wikipedia und falsch ist, und sowohl Ada als auch Babbage ihrer Zeit weit voraus waren, sie jedoch fälschlicherweise nicht als Visionäre erkannt wurden. Das heißt, die Analytical Engine war keineswegs eine Spielerei sondern es war echte Mathematik während die echte Mathematik noch nicht so hochentwickelt war, um ihre Begrenzung zu erkennen.

Versuchen wir den Begriff des Amateur-Mathematikers näher einzugrenzen. Im 19. Jahrhundert brauchte man dafür Zeit um auf eigene Faust sich Wissen anzuzeignen, und Geld um eine Privatbibliothek aufzubauen. Beides trifft auf Ada und Babbage zu. Demzufolge ist das autodidaktische Lernen aus öffentlichen Literaturquellen die Voraussetzung für Amateurmathematik. Darüber erhält man indirekt auch eine Definition über das Gegenteil davon: und zwar das Lernen aus nicht-öffentlichen Quellen unter Anleitung wie es in Universitäten und Klöstern durchgeführt wird. Das ist keine Amtateur-Mathematik sondern richtige State-of-the-art Mathematik. Erstaunlicherweise fällt Charles Babbage nicht in diese Kategorie. Sein Wissen stammt aus öffentlichen Leihbüchereien und er hat es sich selber beigebracht.

Advertisements

Ist Apple noch cool?

Das neue iphone X ist genau seit 1 Tag online und wenn man den Mainstream-Medien glauben mag so hat Apple mal wieder richtig gute Arbeit geleistet und ein neues rahmenloses Super-Smartphone vorgestellt was die Konsumenten mitnimmt in eine schöne Zukunft. Nur ist Apple heute nochdasselbe was es damals war als das erste iphone vorgestellt wurde? Wohl eher nicht. Neben dem iphone gibt es unzählige andere Smartphones die alle in der Lage sind Youtube Videos abzuspielen und auch technisch ist das iphone nicht so innovativ wie es Apple gerne darstellt. Zunächst einmal ist das Betriebssystem iOS kein OpenSource Linux und überhaupt, ein Smartphone ist alles mögliche nur nicht die Zukunft. Schön dass es sowas jetzt auch gibt, aber aufregend oder neu ist daran nichts mehr.

Die wirkliche Zukunft liegt woanders. Moley Kitchen Robotics hat vor einiger Zeit eine Roboterküche vorgestellt, Apple selber arbeitet Gerüchten zufolge an einem selbstfahrenden Auto, IBM Watson hat Jeopardy gelöst und Google Scholar die akademischen Publikationen indiziert. Das ist die Zukunft. Der Unterschied zwischen einem iphone und einem Roboter besteht darin, dass ein iphone technologisch relativ leicht zu realisieren ist. Man braucht nur einen kleinen Prozessor wie den ARM, ein hochauflösendes Display, einige Customchips die H.265 abspielen und ontop noch ein multitasking OS, fertig ist das Gerät. Nichts davon ist Zukunftstechnologie, sondern es ist eher gut erprobte Hardware/Software der Gegenwart welche hauptsächlich dazu entwickelt wird, die Konsumenten abzuzocken und ihnen ein Gefühl zu verkaufen etwas besonderes zu sein. Anders formuliert, Apple ist heute ein ganz normales Unternehmen wie andere auch, was vor allem eines im Sinn hat: den Börsenkurs hochzutreiben, neue Märkte zu erobern und die Dinge zu verkaufen die es schon vor 10 Jahren erfolgreich verkauft hat.

Das Hauptproblem mit dem iphone ist, dass man damit nur telefonieren kann. Es ist eine Art tragbarerer Computer mit Internetanschluss. Nach wie vor ist das iphone Marktführer in dieser Gerätekategorie doch es ist nichts was noch jemanden begeistern könnte im Sinne einer komplett neuen Produktkategorie. Nehmen wir mal an, Apple würde die Moley Küche auf den Markt bringen, oder ein selbstfahrendes Auto, oder einen humanoiden Roboter wie in der Serie „Real humans“. Das wäre in der Tat eine Revolulition in dem Sinne dass es die Welt voranbringt, aber das iphone ist nur eine Randnotiz in den Wirtschaftsnachrichten. Technologisch ist es ungefähr so aufregend wie Tintenpatronen, die man wechseln kann. Die werden bekanntlich mit Farbe aus Nanopartikeln befüllt … https://www.tintenmarkt.de/Blog/Was-ist-eigentlich-Kodak-8211-Nano-8211-Pigment-8211-Tinte-1041

Holographische Fashion Shows

Beim Herumsuchen auf Youtube ist mir eine Kategorie von Clips aufgefallen welche betitelt sind mit „holographic Fashion Show“. Ab ungefähr 2015 gibt es derartige Darbietungen bei denen nicht reale sondern virtuelle Models über den Laufsteig laufen. Das Modebusiness ist nicht irgendein Business sondern ist medial relativ präsent, in dem Sinne dass sich darüber große Bekleidungsmarken refinanzieren, VIP Stars damit in Verbindung stehen und Mode gleichbedeutend ist mit Öffentlichkeit. Technisch gesehen sind die Vorführungen zwar imposant, aber sie werden bei absoluter Dunkelheit durchgeführt. Es sind also keine Tageslicht Hologram Projektoren im Einsatz sondern ungefähr das was auch in speziellen Hologram-Theatern die es weltweit gibt schon zu sehen war. Neu ist hingegen, dass mit dem Suject „Fashion“ diese Technologie erstmal seinen Durchbrauch im Mainstream erlangt.

Was gibt es sonst noch über Holographie zu erzählen? Nun man kann sich mit relativ wenig Aufwand und durch simples Plaxiglas was man zu einer vierseitigen Pyramide zusammenklegt und auf sein Smartphone stellt, selbst einen Mini-Holographie-Projektor improvisieren. Es handelt sich um eine Bastelausgabe eines 3D Displays, bei dem neben der xy-Koordinate noch die z-Koordinate angesteuert werden kann. Was man mit Holographie anstellen kann die professioneller durchgeführt wird liegt auf der Hand: Zauberei. Neben der reine Holographie-Technik benötigt man dafür noch eine weitere Spielart: computergenerierte Bewegtbilder. Diese sollten möglichst echtzeitfähig und in hoher Auflösung erzeugt werden.

Auf der Grafikmesse Siggraph werden immer mal wieder Paper zu dieser Thematik veröffentlicht. Aus dem Jahr 2005 dieses hier https://www.osapublishing.org/DirectPDFAccess/E5BFFF92-E502-B838-7BC9E2B258D9A3EF_87556/oe-14-2-603.pdf?da=1&id=87556&seq=0&mobile=no was beschreibt wie man auf einer Consumer GPU ein Hologram berechnet. Das bemerkenswerte an Holographie ist, dass durch die Grenzen zwischen Realität und Fiktion aufgelöst werden. Kritiker des Massenmediums Fernsehen haben schon länger davor gewarnt, dass Fernsehen die Welt verändern könnte, aber was ist dann erst mit Computergenerierten Hologrammen? Sie können auch außerhalb der Mattscheibe existieren, vorausgesetzt es befindet sich ein Projekter in Reichweite. Gewissermaßen wird die Phantasiewelt damit in die Realwelt hineinprojeziert.

Es gab mal einen bekannten Spielfilm (Falsches Spiel mit Roger Rabbit, 1988) wo das Prinzip ganz gut erläutert wurde. In dem Film geht es darum, dass Zeichentrick und Realfilm miteinander verschmelzen. Also man in die Welt der Toons hineingehen kann und die Toons in unsere Welt hinüberkönnen. Etwas thematisch ähnliches wurde auch bei Startrek diskutiert wo manchmal die Figuren des Holodecks den Wunsch verspüren auf die richtige Enterprise hineinüberzuwechseln und umgekehrt, manchmal sich Brückenmitglieder in einer Holosuite zu lange aufhalten. Wer schon glaubt, dass Robotik ein Problem für die Gesellschaft werden können, der sollte nicht vergessen dass Roboter noch relativ überschaubare Zeigenossen sind. Sie sind zumindest nicht in der Lage sich beliebig zu materialisieren sondern sind ähnlich wie Menschen auch an einen Körper gebunden.

Um nochmal auf die eingangs erwähnte Holographic Fashion Show zurückzukommen. Dort war zu sehen, wie ein Model mitten auf dem Laufsteg verschwunden ist, einfach so, ohne dass es ein Zaubertrick war. In einer anderen Darbietungen wurde das Bild eingefroren und das Model war plötzlich mehrmals da. Das die Zuschauer bei derlei Amüsement entzückt waren liegt auf der Hand, frenetischer Applaus war die Folge und vermutlich war das nicht die letzte Show dieser Art.

Arduino mit Fernbedienung koppeln

Manche Leute behaupten, ein MSP430 Microcontroller wäre bereits minimalistisch, andere sagen dass man zwingend Forth benötigt, wenn man wirklich sehr kleine Systeme haben will. Einen besseren und trotzdem sehr praktikablen Vorschlag hat ausnahmsweise einmal nicht Heise-Online sondern — man staune — Spiegel Online. Auf
http://www.spiegel.de/netzwelt/games/hardware-hacking-so-baut-man-einen-tentakel-roboter-fuer-100-euro-a-647596.html haben die eine Bauanleitung gepostet die es in sich hat. Anders als üblich wird kein Microcontroller verwendet um den Roboter zu steuern, stattdessen wird aus einem ferngesteuerten Spielzeugroboter die Fernbedienung mit einem Arduino gekoppelt und von einem PC aus angesteuert. Hut ab, das ist ziemlich advanced. Dreh und Angelpunkt ist die mitgelieferte Analog-Fernbedienung. Deren Stromkreis muss mit dem Arduino connected werden. Das Konzept ist deshalb so mächtig, weil es preiswert ist. Geht der Spielzeug roboter kaputt, kauft man einfach einen neuen für unter 20 EUR. Es gibt diese ferngesteuerten Robotern in allen Ausführungen: Als Spinne, als Micromouse und als UAV. Wichtigste Eigenschaft ist, dass sie eben nicht programmierbar sind sondern üblicherweise mit einer analogen Fernbedienung gesteuert werden.

Leider nimmt das Tutorial ab Teil 7 merklich an Qualität ab. Das ist die Stelle wo auf die Software zur Robotersteuerung eingegangen wird. Im Spiegel Online Artikel wird Processing vorgeschlagen um damit irgendwie ein Script zusammenzubauen. Für erste Gehversuche mag das ausreichen, aber wer High-End Robotik betreiben will sollte zu Python wechseln. Dort kann man objektorientiert Programmieren.

Bei Youtube ist es nicht gerade leicht vergleichbare Bastelprojekte zu finden. Arduino wird zwar sehr gerne für Robotik Projekte eingesetzt aber nur wenige verwenden es um eine Fernbedienung anzusteuern. Die meisten Videos findet man mit dem Suchwort „arduino hack rc transmitter“. Damit ist gemeint, dass man eben kein ferngesteuertes Auto bauen will, sondern lediglich die vorhandene mitgelieferte Fernbedienung modifizieren möchte.

All in one PC mit Ubuntu — Ist das die Zukunft?

https://www.youtube.com/watch?v=WbrAjfPWTjU Der PC-Markt ist extrem unübersichtlich. Es gibt unendlich viele Modelle von unterschiedlichen Herstellern. Die Frage ist: was ist das beste System? Notebooks erfreuen sich bei Privatanwender einer steigenden Beliebtheit, sind sie doch erschwinglich in der Anschaffung und sparsam im täglichen Verbrauch. In Firmen hingegen spielt der Stromverbrauch nur eine untergeordnete Rolle, weil dort der Kilowattstundenpreis niedriger ist (Großabnahme und keine Mehrwertsteuer). Firmen bevorzugen deshalb den klassischen Business-Desktop. Ein möglicher Hybrid hat Apple unter der Bezeichnung iMac vorgestellt, ein sogenannter All in One PC. Damit sind Notebook-Komponenten gemeint, die in einem Desktop eingebaut werden, mit dem Ziel den Gesamtstromverbrauch zu senken. Und in der Tat: ein All in One verbraucht nur wenig mehr als ein Notebook aber weniger als ein Desktop PC. Im dem obigen Video ist so ein System in Aktion zu sehen, und zwar mit Ubuntu als Betriebssystem. Ist das womöglich der Trend? Derzeit ist es unklar, weil auch All in one Geräte nur eine Bauform unter vielen sind. Gut möglich, dass sich ganz andere Systeme wie die Intel NUC, der Compute Stick durchsetzen oder in 5 Jahren nach wie vor der klassische Desktop nach wie vor beliebt ist, weil nur dieser die maximale Performance liefert. Einen Nachteil von All in One Systemen gibt es bereits: sie sind ungeeignet für Spiele. Weil wie erwähnt sowohl die CPUs als auch die Grafikkarten aus dem Notebook bereich stammen. Gleichzeitig gibt es das Problem, dass man ähnlich wie bei Notebook nur schlecht das System aufrüsten kann.

Hat die NSA einen Quantencomputer?

Die Forschungen zum Thema Superconducting Computer reichen sehr weit zurück bis zum Cryotron und Dudley Allen Buck. In den 1980’er hat IBM die Forschungen dann weitergeführt in einem josephson junction Projekt, was dann in das HTMT Suercomputercomputing Projekt überführt wurde und mit dem dwave 2x Quantencomputer in der Gegenwart angekommen ist. Das IARPA Cryogenic Computing Complexity (C3) Programm sieht vor, dass Exascale Computing realisiert wird, also Systeme die um den Faktor 1000 schneller sind als heutige Top500 Supercomputer. Aber hat die NSA das womöglich längst realisiert, gibt es im im Keller des Utah-Datacenter cryo-Supercomputer?

Diese Frage kann man relativ leicht beantworten. Und zwar mit Hilfe einer Hypothese. Nehmen wir mal an, es gibt solche Computer noch nicht. Nehmen wir mal an, dass die cryo-Quanten-Technik erst noch entwickelt werden muss. Nehmen wir mal an, dass in der Vergagenheit alle Bemühungen in diese Richtung gescheitert sind. Dann lässt sich zu dieser Hypothese sehr viel belastbares Material finden. Es gibt auf Youtube Vorträge in denen erläutert wird, wie man auf keinen Fall Exascale Computer baut, und es gibt Paper in denen erläutert wird, warum die Cryro-Computer nie über das Stadium eines Prototypen hinausgekommen sind. Mal gab es Kühlungsprobleme, ein anderes Mal war der Hauptspeicher der Firma Hypres nicht einsetzfähig und beim nächsten Mal waren die Schaltzyklen zu langsam. Anders gesagt, anhand der vorliegenden Informationen lässt sich die These „Es gibt derzeit nocht keine Cryo-Computer“ gut beweisen.

Daraus kann man wiederum schließen, dass beide Seiten Recht haben. Diejenigen Verschwörungstheoretiker welche behaupten, die NSA hat im Geheimen Supercomputer entwickelt haben Recht, genauso wie jene die sagen sowas liege außerhalb der Möglichkeiten. Der Unterschied besteht darin, dass sich für diese These „es gibt sie nicht“ weitaus mehr und detailiertere Informationen finden lassen. Anders formuliert, wenn es irgendwo auf dem Planeten eine Fälscherwerkstatt für wissenschaftliche Dokumente gibt, dann hat sie offenbar ein Interesse daran, darzulegen, dass Quantencomputer erst noch erfunden werden müssen.

Was man mit solchen Systemen anfangen kann ist derzeit noch offen. Einige sagen, man könne sich einen Superconduction Computer als Workstation auf den Schreibtisch stellen und hätte dann eine Maschine die ein Petaflops an Leistung besitzt und auf dem man GTA V in maximaler Auflösung spielen kann. Andere sagen, mit diesen Computern ließe sich Human-Level-AI realisieren und die nächsten wollen einfach nur heute übliche Supercomputer durch etwas ersetzen, was Strom spart und damit die Umwelt schont. Im Kern dürfte es darum gehen, Rechenleistung preiswerter zu machen.