Seit wann gibt es Computer?

Der erste Computer wurde in den 1930’er Jahren gebaut, oder etwa doch nicht? Schaut man sich die Geschichte der Rechenmaschinen an, so findet man bei sehr genauem Suchen viele Indizien die darauf hindeuten, dass schon weitaus früher Computer in Betrieb waren. Prominenter Fall dürfte wohl Ada Lovelace sein. Lange Zeit hat man angenommen, dass die Rechenmaschine von Charles Babbage entweder gar nicht gebaut wurde, oder aber noch kein Computer war. In neuerer Zeit hat sich jedoch herausgestellt, dass die alkohol- und spielsüchtige Ada Lovelace bereits Mini-Programme erstellt hat. So ähnlich ist es auch mit den Rechenmaschinen von Leibniz. Heute gibt es nur noch ungenaue Aufzeichnungen darüber, was Leibniz gebaut hat und was nicht. Schaut man jedoch etwas näher in die Vergangenheit so erkennt man, dass die Lochkartentechnik bereits vor dem Jacquardwebstuhl bekannt war und zwar hat sie nachweislich ein Herr Jean Baptiste Falcon verwendet. Es wäre also denkbar, wenn auch sehr unwahrscheinlich, dass Leibniz bereits die Analytical Engine konstruiert hat. Vom mechanischen Aufbau her wäre es möglich gewesen in der damaligen Zeit, bekanntlich reicht ein Meccano Spielzeugkasten aus, um eine derartige Machine zu bauen.

Das Problem ist nur, dass es im Grunde keine Rolle spielt ob der Computer schon früher bekannt war, dann aber wieder in Vergessenheit geriet. Denn die ersten echten Computer, die auch für nachfolgende Generationen nachvollziehbar realisiert wurden gab es erst von Konrad Zuse und späteren Bastlern. Es geht also nicht um die Maschine als solches, sondern es geht darum die Maschine zu veröffentlichen. Das hat Leibniz nachweislich nicht getan. Hätte er einen funktionsfähigen Computer gebaut und ihn der Nachwelt überliefert, dann würde er heute in einem Musum stehen, das tut er aber nicht. Vielleicht hat Leibniz ihn gebaut, vielleicht auch nicht, wenn man wissen will wie Computer funktionieren kann man sich nur an jenen Modellen orientieren die sehr viel später erfunden wurden. Aber das spielt eigentlich keine Rolle, weil das Konzept universell ist und unabhängig von Epochen, Erfindern und Überlieferungen funktionieren.

Nehmen wir mal an, es kommt zu einem 3. Weltkrieg und das komplette Wissen der Menschheit wird in einem Atomkrieg eingeäuschert. Natürlich würden alle Bibliotheken und alle Computer dabei vernichtet werden. Wäre damit die Idee des Computers auch erledigt? Wohl kaum, es würde nicht lange dauern, und die nachfolgende Generation würde das Konzept erneut für sich entdecken. Sie würde zuerst anfangen mit 10 Fingern zu zählen, dann würde sie eine Mathematik erfinden und wenig später die Notwendigkeit erkennen, diese zu automatisieren. Und schwubs wäre der Computer erneut in der Welt. Wenn überhaupt jemand als Erfinder für eine deartige Maschine in Frage kommt, dann nur der Herrgott selbst. Er hat sich das Konzept einmal ausgedacht als eine Art von Spiel, damit die Menschen wenn sie schon denken können sich nicht langweilen müssen, sondern immer etwas haben, an dem sie sich ausprobieren können. Man kann einen Computer wie eine Art von Geduldsspiel betrachten, vergleichbar mit einem Tangram oder einem Kreuzworträtsel. Es zu lösen bereitet Freude und deswegen hat dieses Spiel auch so viele Fans.

Advertisements

Vintage Computer shreddern

Aktuell schießen Computermuseuen wie Pilze aus dem Boden. Es gibt sogar eigene Festivals die sich mit älterer Computerhard- und Software beschäftigen. Ausgestellt sind dort Rechner von Commodore, Atari und IBM. Aber wie wäre es, wenn man zur Abwechslung alte Dinge nicht in einem Museum präsentiert sondern in einen Metall-Shredder zerkleinert? Ein sogeannanter E-Waste-Shredder ist der Höhepunkt eines echten Vintage Computer Festivals wo als Höhepunkt einige besonders wertvolle Sammlerstücke dem nimmersatten Zerkleinerer anvertraut wären. Leider gibt es dazu aktuell noch keine Videos auf Youtube. Was jedoch in einigen Videos aus dem Kontext „PC Shredding“ zu sehen ist, waren zerkleinerte MS-DOS 6.22 Disketten, und Platinen die aus den 1990’er stammen und noch mit Pentium Prozessor ausgestattet waren. Wer traut sich, und shreddert einen goldenen C-64 (davon wurden nur wenige Stück produziert), oder wer shreddert eine funktionsfähige DEC PDP11 inkl. aller Magnetbänder?

Man könnte dochmal mit einem mobilen Shredder vor ein Computermuseum fahren … Na ja, jedenfalls gibt es da gewisse Gemeinsamkeiten. Beide Male geht es um ausrangierten Elektroschrott aus dem Profit gemacht gemacht. Beim Museum werden Eintrittsgelder kassiert und beim Elektroschrott-Verwerten geht es um die Metall-Rohstoffe.

Blogrezension Simulationsraum

In der wagen Hoffnung, dadurch ein wenig die Blogosphäre zu vernetzen möchte ich heute einmal kein Kommentar in einem externen Blog schreiben, sondern stattdessen ein anderes Blog rezensieren. Ausgesucht habe ich mir dazu http://www.simulationsraum.de/ Es handelt sich dabei um ein relativ aufwendig gestaltetes WordPress-Blog von einem Autor, der parallel dazu auch noch in den klassischen Medien wie Heise Artikel schreibt. Inhaltlich geht es in dem Blog überwiegend um Vintage Computing welches in einem gesellschaftlichen Kontext erzählt wird. So findet man Artikel über Computer aus dem kalten Krieg oder die Ethik von Drohnen. Auch Berichte über das Vintage Computing Festival und Computerspiele aus den 1980’er finden sich auf den Webseiten.

Um ehrlich zu sein, gefällt mir dieser Ansatz nicht besonders. Gerade in Deutschland gibt es das Problem, dass eine derartige Auseinandersetzung mit der Computergeschichte Hochkonjunktur hat. Gerade wurde beispielsweise das weltweit größte Computerspielemusum eröffnet und es gibt Dutzende von Computermuseen und Lehrveranstaltungen die sich mit einer Rückschau in die Welt von gestern beschäftigen. Der Grund dürfte wohl darin bestehen, dass man dabei wunderbar mit dem erhobenen Zeigefinger und mit einem Erzieherischen Duktus klassische Pädagogik betreiben kann, bei der die Rollen klar verteilt sind. Vorne am Pult die gealterte Lehrkraft welche aus persönlichen Schilderungen von ihrer Computervergangenheit erzählt und im Klassenzimmer die Schüler welche interessiert zuhören sonst aber keine weitere Funktion haben. Es ist Ausdruck von einer grundsätzlichen Technikfeindschaft wenn man sich für alte und längst nicht mehr zeitgemäße Technik begeistert. Das ganze wird zu einem Selbstzweck erhoben mit dem Ansatz Computer nicht mehr als Computer sondern nur als Episode innerhalb von Gesellschaft zu verstehen. Die Idee ist das Chaos überschaubar zu gestalten, was jedoch nicht gelingen kann.

Bei Computern ist es eben nicht wichtig, was vor 20 Jahren einmal ein gewisser Herr Bill Gates oder vor 50 Jahren einmal die Firma DEC gebaut hat und es ist auch nicht wichtig, wieviel kb RAM der C-64 hatte, sondern es handelt sich dabei ausnahmslos um nutzloses Wissen. Alte Computer gehören auf den Müll, nicht in ein Museum. Und nein, die Ausrichtung von Simulationsraum.de sagt mir überhaupt nicht zu. Es handelt sich dabei um eines von denjenen Blogs die komplett überflüssig sind.

Offenbar sehen das zuviele Leute anders. Es gibt dort relativ viel Traffic und die Bücher verkaufen sich ebenfalls in größeren Stückzahlen. Das Blog trifft also durchaus den Zeitgeist und genau das sollte Anlass zur Sorge geben. Ich meine, welchen Sinn macht es Leuten die ohnehin ein Problem mit Fortschritt haben, auch noch zu erzählen, dass es gut ist auf einem Amiga 500 zu spielen oder dass damals in den 1970’er die Computer großartig waren? Was auf http://www.simulationsraum.de/ betrieben wird, ist eine Verherrlichung von Vergangenheit die es so nicht gab. Echte Computer mit denen man etwas anfangen kann, gibt es erst seit dem Jahr 2000, die Zeit davor ist dunkelstes Mittelalter wo es weder Software gab, noch SSD Festplatten. Wozu also die Verherlichung von Gestern? Vermutlich wird das betrieben aus einem Ohnmachtsgefühl gegenüber der Gegenwart. Wer Angst hat vor dem Hier und Jetzt der flüchtet in ein Computermuseum wo die Welt übersichtlich ist. Dort gibt es chronologische Einordnung, erklärende Hinweisschilder und eine Verknüpfung mit den Geisteswissenschaften. Als Technikblog kann man http://www.simulationsraum.de/ nicht bezeichnen, es ist eher Altertumswissenschaft.

Alternative Geschichte des Computers

Wie die Computerentwicklung verlaufen ist, darüber besteht heute weitestgehend Einigkeit. Sie führte dazu, dass ab den 1980’er Jahren Computer als Heimcomputer verfügbar waren und ab den 1990’er das Internet entstand. Aber wie sähe die Welt aus, wenn der Computer schon viel früher erfunden worden wäre? Diese Steampunk-Utopie soll im folgenden erzählt werden.

Ausgangspunkt ist die Hypothese, dass zu jeder Zeit alle Informationen zur Verfügung standen und die jeweiligen Erfinder keine Umwege in Kauf nehmen mussten, sondern mit einer besonderen Zielorientierung ans Werk gingen. Das würde dann dazu führen, dass Gottfried Wilhelm Leibniz nicht nur die Staffelwalze erfunden hätte, sondern auch gleich noch einen binären Speicher und den ersten Turing-mächtigen Computer gebaut hätte. Dieser hätte so ähnlich ausgehen wie die Zuse Z1, nur eben viele Jahre früher. Aufbauend auf dieser Erfindung hätte dann Charles Babbage die Erfindung des Transistors (1835) dazu verwendet, die Geschindigkeit dieser Maschine drastisch zu steigern. Später hätte Babbage dann die integrierte Schaltung und den Microchip verwendet um die Strukturbreite zu vekleinern. Jetzt befinden wir uns im bereits im Jahr 1880. Und dann kam Nikola Tesla. Er hätte sich ansgeschaut, was die Leute vor ihm erfunden hätten: den mechanischen turing-mächtigen Computer von Leibniz, den Microchip von Babbage und die nächste größere Erfindung wäre dann bereits der Quantencomputer gewesen. Tesla hätte also mit Supraleitung und Qubits einen Quantencomputer gebaut und auf diesem dann die komplette Welt simuliert. Und dann? Ab diesem Zeitpunkt wäre die Welt in einer Art von Matrix verschwunden, so wie in dem Film „Welt am Draht“. Das heißt, alles um uns herum ist nur noch ein Computerprogramm, es ist künstlich geschaffen auf dem Rechner von Nikola Tesla und unter Kontrolle der Ford-Programmiersprache.

Obwohl der eine oder andere vielleicht sagen wird: „Hey cool, genau so war es“ ist die Geschichte leider wertlos. Und zwar deshalb, weil man daraus nicht lernt, wie man einen Quantencomputer baut oder wie man mit den Hilfsmitteln aus der Babbage-Äre einen integrierten Schaltkreis baut. Die oben ausgebreitete Geschichte muss man deshalb anders erzählen und zwar indem man sie debunked. Damit ist gemeint, dass man anhand von zeitgenössischen Quellen nachweist, warum es eben nicht so abgelaufen sein kann. Das also Charles Babbage unmöglich hat einen Chip entwickeln können mit einer Strukturbreite von 180 nm weil zu der damligen Zeit das entsprechende Mikroskop noch gar nicht erfunden war. Leider ist es schwer, das Debunkung korrekt zu tun weil man dafür schon viel Detailwissen benötigt.

Wenn man sich die obige Steam-Punk Erzählung von der Computerentwicklung anschaut, wird man erkennen, dass die Abfolge korrekt ist, und lediglich alles um 100 Jahre früher stattgefunden hat. So wurde der echte integrierte Schaltkreis im Jahr 1980 massenhaft produziert, und nicht wie in der Erzählung schon 1880. Auch den echten Quantencomputer gibt es (DWAVE 2x), aber der war erst im Jahr 2016 einsatzbereit und nicht bereits 1916. Das heißt, verschiebt man einfach nur die Jahreszahlen um 100 Jahre nach hinten wird aus der eingangs höchst spekulativen Geschichte plötzlich eine Realität, die nicht nur als wahr bezeichnet wird, sondern sogar von sehr vielen Leuten als wahr bezeichnet wird. Aber warum sind diese 100 Jahre so entscheident, warum hat Babbage nicht schon 1830 mit Relais einen Computer gebaut? Denn immerhin gab es damals bereits Relais und die Idee einer Rechenmaschine gab es auch schon. Eine echte Antwort darauf geben kann man nicht. Man kann allenfalls wie weiter oben empfohlen, anhand von zeitgenössischen Quellen darauf hinweisen, dass es nicht passiert ist. Das heißt, wenn man tief genug in den Archiven des Jahres 1830 wird man nachweisen können, dass die Relais die damals in der Nachrichtentechnik verwendet wurden und den Erfordernissen die Babbage besaß es zu große Unterschiede gab, die letztlich dazu führten, dass es rund 100 Jahre dauerte, bis beides zusammengebracht wurde.

Obwohl die eingangs erzählte Kurze Geschichte der Computer komplett erlogen ist, bildet sich dennoch die Basis um ernsthafte Computerhistorienforschung zu betreiben. Alles, was man an Quellen zu dem Thema findet, wird im Grunde die obige steile These wiederlegen. Und deshalb habe ich sie erzählt. Weil es im Grunde keine Antithese ist, sondern es ist eine Art von Provokation. Man erzählt sie als Einstieg um dann im Detail herauszuarbeiten, wie es wirklich war.

Die Frage ist keineswegs, was ist wahr, sondern die Frage lautet: was lässt sich detailierter ausschmücken. Die These, dass Babbage im Jahr 1830 bereits mit Relais experimentiert hat, ist zwar schnell erzählt und vielleicht gibt es irgendwo auch eine Fußnote die sowas andeutet, doch wenn man alle Quellen studiert ist die These nicht haltbar. Es gibt zu vieles was dagegenspricht. Vielmehr handelt es sich um eine typische Verschwörungstheorie von der deren Verbreiter wissen, dass es gelogen ist und deshalb macht es ja auch soviel Spaß sie zu erzählen. Von 100 exstierenden Quellen aus der Babbage Forschung kann man vielleicht 0,1 Quellen dazu nutzen, um die Verschwörung zu belegen, aber 99,9 Quellen sprechen dagegen.

Andererseits kann man die Wahrheit über Babbage nicht erzählen, wenn man die Verschwörung unberücksichtigt lässt. Das ist so ähnlich als wenn die Hausfrau auf das Salz in der Suppe verzichten würde, es ist ein wichtiger Bestandteil des Ganzen. Die Synthese aus beidem ist dann ein Streit zwischen seriöser und spekulativer Babbage Forschung. Das also beide Positionen existieren und die Erklärung sich zwischen beiden Polen abspielt.

Alternativ-Geschichte des Computers

Schaut man sich die Geschichte der Künstlichen Intelligenz an, so findet man im Laufe der Historie immer wieder Erfinder, die ihrer Zeit scheinbar vorauswaren und an ihrer Zeit gescheitert sind. Dies wird als „verkanntes Genie“ bezeichnet. Als Erklärungsmuster findet sich dabei, dass die Kirche oder die Gesellschaft noch nicht so weit war, und die Erfinder verlacht hat und sie daran gehindert hat ihre Ideen zu realisieren. Aber sind das wirklich Einzelschicksale oder ist es vielmehr so, dass die Geschichtsschreibung das Stilmittel des Verkannten Genies einsetzt um zu begründen, warum die Technik erst mit einer gewissen Verzögerung bereitstand?

Nehmen wir mal an, dass man das Stilmittel des verkannten Genies aus der Geschichtsschreibung entfernt und stattdessen davon ausgeht, dass die Kirche als zentrale Insitution zu allen Zeiten fortschrittsfreundlich war und die Erfinder unterstützt und gefördert hat. Was wäre davon die Folge gewesen? Dazu müssen wir sehr in die Details gehen. Beginnen möchte ich bei Gottfried Wilhelm Leibniz (1646-1716). Wenn man sich mit neueren Untersuchungen seiner Schriften beschäftigt wird man erkennen, dass Leibniz nicht nur die vier Speziesrechenmaschine in Binärdarstellung erfunden hat, sondern auch das Prinzip der Staffelwalze in einer kryptographischen Maschine angewendet hat. Aus heutiger Perspektive würde man sagen, dass Leibniz den ersten turing-mächtigen Computer gebaut hat, der so ähnlich ausgesehen hat, wie die Orgel-Maschine von Konrad Zuse (gemeint ist die Zuse Z3). Aber dazu später mehr.

Gehen wir also davon aus, dass im Jahr 1716 im Geheimkeller vom Vatikan eine funktionierende Turing-mächtige Rechenmaschine existierte, die einfache mathematische Operationen in Gleitkomma-Arithmetik ausführen konnte. Die nächst logische Erfindung wurde dann von Jacques de Vaucanson (1709-1782) getätigt und zwar die Anwendung dieser Technik auf die Automatisierung von menschlicher Arbeit. Die Zeit in der er lebte entspricht ungefähr dem, was Gibson/Sterlin als Steampunk bezeichnen. Also eine Epoche in der der Computer bereits erfunden war, Lochkarten das gebräuchliche Speichermedium waren, und auf dieser Basis dann einfache Roboter möglich wurden.

Charles Babbage (1791-1871) hat dann den Kelch des Wissens genommen und weiterentwickelt. Er hat die Elektrifizierung des Computers vorangetrieben. Also mechanische Walzen durch Relais und integrierte Schaltkreise ersetzt. Als Babbage im Jahr 1871 gestorben ist, verfügte der Vatikan bereits über einen vollfunktionensfähigen elektronischen Supercomputer der ungefähr der Rechenleistung eines Cray-Supercomputers entsprach.

Der nächste große Erfinder war Nikola Tesla (1856-1943). Er hat nahtlos dort weitergemacht wo Babbage aufgehört hat. Anders als viele Verschwörungsparanoiker behaupten, hat Tesla keineswegs die freie Energie erfunden, sondern er hat ein Gerät erfunden, mit dem man freie Energie messen kann. Schaut man sich die Patentzeichnungen von Tesla genau an, so ist dort nichts geringeres als ein Quantum Logic Gate enthalten (also ein Quantencomputer der ungefähr dem entspricht, was gerade die Firma dwave nachzubauen versucht).

Wie bereits in der Einleitung angedeutet, ist das nur eine Alternativ-Geschichte. Sie würde dann entstehen, wenn man aus der Geschichte alle gescheiterten Genies entfernt und unterstellt, dass sie zu Lebzeiten die volle Unterstützung ihrer Zeit erhielten. Wir alle wissen, dass das jedoch so nicht wahr ist. Wie wissen, dass Leibniz, Vaucanson, Babbage und Tesla von der Obrigkeit bekämpft wurden, weil sie Dinge entwickelt haben, welche zu fortschrittlich waren. Der eigentliche Motor der Geschichtsschreibung war also nicht die Wissenschaft, sondern es war das poltisch/religiöse Klima, was zu jeder Zeit in den letzten 400 Jahren die Weiterentwicklung des Computers erschwert hat. So dass es eben nicht zur Realisierung kam, sondern alles mit einer Verzöerung von rund 100 Jahren umgesetzt wurde. Babbage hätte zwar den ersten Mikrochip bauen können, es hat dann aber erst Intel gemacht. Tesla hätte zwar den Quantencomputer bauen können, realisiert wurde er aber erst von dwave.

Die Frage ist: Wenn Tesla bereits den Quantencomputer gebaut hat was wurde dann ab 1945 entwickelt? Das wird in dem Film Metropolis (1927) erläutert. Der Film endet damit, dass die geknächteten Arbeiter ihr Schicksal erkennen und die Maschinen zerstören (Luddismus). Schaut man sich die Geschichte der Technik an, so wurde das zwar bereits häufiger thematisiert (Weberaufstand), doch es ist bisher nicht als tatsächlicher Fakt eingetreten. Das heißt, es gibt bisher keine Gesellschaftsordnung welcher sich als anti-technisch versteht also das Zerstören von Robotern als ihre wichtigste Aufgabe versteht. Insofern könnte man die Zeit nach Erfindung des Quantencomputers als Neoluddismus prognostizieren.

kRITIK
Nachdem im ersten Teil dieses Blog-Postings eine alternative Zeitlinie erläutert wurde, so soll dazu noch ein Gegenentwurf ausgebreitet werden. In der obigen beschleunigten Zeitlinie wurde bereits 1716 der erste Turing-mächtige Computer konstruiert (von Leibniz). Aber was ist, wenn man sich damit noch etwas Zeit lässt und selbst im Jahr 2016 noch vor diese Erfindung zurückgeht? Auf dem letzten Vintage Computer Festival wurde eine Maschine vorgestellt, die nochnichtmal in der Lage war, ein Programm auszuführen. Gemeint ist ein Differential Analyzer, also ein Analog-Computer. Zumindest auf dem Festival war man mehrere Jahrhundert hinter der eigentlichen Zeitlinie zurück. Und wer weiß, vielleicht gibt es nächstes Jahr sogar einen Abacus Tischrechner zu sehen, der noch älter ist.

Ada Lovelace und die Erfindung des Computers

War die Analytical Engine zu Babbage Zeitens wirklich nur eine Utopie oder gab es womöglich echte Computer die funktioniert haben? Das herauszufinden ist nicht ganz einfach. Man muss sich damalige Zeit so ähnlich vorstellen wie im „Planet der Affen“. Das heißt, es gab zwei Wahrheiten, einmal die für das normale Volk und dann noch die eigentliche Wahrheit. Um die Fakten besser einordnen zu können zunächst ein kleiner Exkurs was ein Computer eigentlich ist.

Ein Computer ist ein Gerät, was einen Algorithmus abarbeiten kann. Dazu benötigt man die Funktion, Programmteile zu wiederholen und mit if-Schleifen woanders hinzuspringen. Dies wird als turing-Mächtigkeit bezeichnet. Eine sogenannte Piano-Roll wie sie ab dem Jahr 1900 auf vielen Jahrmärkten zu sehen war ist kein Computer. Dort wird zwar auch mittels Lochkarten ein Muster vorgegeben, allerdings läuft dieses Muster linear von Anfang bis Ende durch. Das Programm kann nicht abzweigen oder in Schleifen arbeiten. Nach der derzeitigen Forschung ist die Zuse Z3 die erste Maschine gewesen, welche turing-mächtig war. Aber ist das so korrekt?

Um einen Computer zu bauen benötigt man zwei Dinge: einmal die Hardware die mechanisch oder elektrisch realisiert werden kann. Wie primitive Computer in Hardware realisiert werden können, wird von Hobbyentwicklern demonstriert. Es gibt auf Youtube zahlreiche Videos welche mit Hilfe von Meccano mechanische Rechenmaschinen bauen oder mit Hilfe von Relais einen 4-bit Prozessor aufsetzen. Soetwas zu bauen ist erstaunlich simpel. Wenn die Bauteile vorhanden sind, kann eine Einzelperson einen vollständigen Prozessor aufbauen und braucht dafür weniger als 1 Jahr. Von der Größe her sind derartige Computer ungefähr so groß wie ein Tisch bis hin zu einem Schrank. Das zweite wichtigste Element für einen Computer ist die Software. Also einmal der Programmcode (genauer gesagt der Microcode damit die Programmiersprache implementiert werden kann) und das Wissen darüber wie man die Zahnräder / Relais miteinander verschalten muss.

In der offiziellen Geschichtsschreibung wird unterstellt, dass dieses Wissen zu Zeiten von Babbage noch nicht exisistierte. Es wird unterstellt, dass erst mit Alan Turing und John von Neumann ab den 1930’er dieses Wissen verfügbar war. Aber, wenn die Geschichtsschreibung ehrlich wäre zu sich selber würde sie zugeben, dass traditionell das höhere Wissen zu allen Zeiten kontrolliert wurde. Damit ist gemeint, dass es eine lange Tradition darin gibt, Fortschritt zu kontrollieren und zu zensieren. Nicht nur im Mittelalter gab es Klosterbibliotheken sondern auch später gab es Adelsbibliotheken und selbst in der Gegenwart ist das Wissen was wirklich wichtig ist, nicht allgemein zugänglich (Stichwort: Microsoft Sourcecode). Das heißt, es ist naiv anzunehmen, dass die frei publizierten Unterlagen aus dem Zeitalter von Babbage das vollständige Wissen wiederspiegeln was damals existierte. Vielmehr muss man davon ausgehen, dass es sehr viele Aufzeichnungen gab, die bis heute nicht offengelegt wurden.

Es gibt konkrete Indizien dafür, dass zu Babbage Zeitens der Computer nicht nur bekannt sondern auch eingesetzt wurde. Schauen wir uns beispielsweise die Logarithmentafeln aus der damaligen Zeit an. Die offizielle Version lautet, dass diese von menschlichen Computern erstellt wurden. Also von Menschen die an einem Tisch saßen und mit Rechenstäben Zahlenkollonnen aufaddiert haben und sie dann in ein Buch übertragen haben. Aber was ist, wenn das nicht die vollständige Wahrheit ist? Gehen wir einen Schritt zurück und überlegen was man benötigt um eine Logarithmentafel automatisch zu erzeugen. Man benötigt dafür eine Maschine wie die analytical Engine, also einen Computer der programmiert wird. Heute würde man ein Programm in Java schreiben, was über eine Schleife die Werte ausrechnet.

Normalerweise wird den Mathematikern und Logikern der damaligen Zeit unterstellt, dass sie soweit unmöglich schon dachten, weil der Computer noch gar nicht erfunden war. Aber, das ist die Interpretation aus unserer Zeit. Es wird als wahr angenommen, dass der Computer in den 1930’er erfunden wurde, und damit wird dann der Schluss abgeleitet, dass er früher noch nicht bekannt war. Mit Geschichtsschreibung hat das nichts zu tun, eher mit einem Vorurteil. Fragen wir doch einmal die berühmte Ada Lovelace, was sie zu der Thematik gesagt hat. Es gibt eigentlich nur eine einzige echte Quelle die zitierfähig wäre: Federico Luigi Menabrea: Sketch of The Analytical Engine. Ada Lovelace hat diesen Text übersetzt und Anmerkungen verfasst https://www.fourmilab.ch/babbage/sketch.html Das wichtigste Zitat lautet: „The power of repeating the cards, alluded to by M. Menabrea, and more fully explained in Note C., reduces to an immense extent the number of cards required.“

Ada Lovelace spricht her explizit von einer Wiederholung der Karten. Das ist das wichtigste Kriterium einer turing-mächtigen Maschine. Rückwirkend wurde in die Lovelace-Notizen häufig hineininterpretiert, dass es sich dabei um eine Vorwegnahme der Zukunft handelt. Das also Ada sich überlegt habe, was man alles mit so einer Maschine anstellen könne, wenn sie gebaut werden würde. Aber auch diese Interpretation beweist gar nichts, sondern unterstellt, dass es zur damaligen Zeit noch keine Analytical Engine gab. Bleiben wir doch einmal bei den Fakten. Das elektrische Relais wurde von Joseph Henry im Jahr 1835 erfunden. Die Firma Siemens sowie der elektrische Strom war im 19. Jahrhundert ebenfalls vorhanden. Weiterhin gab es wie Ada Lovelace zeigt auch die Vorstellung davon, was ein Computer ist. Nimmt man diese Fakten zusammen, so hätte man um 1850 sehr bequem und ohne große Anstrengung einen elektrischen Computer bauen können und auf diesem Logarithmentafeln ausrechnen.

Richtig ist, dass so ein Rechner in keiner Aufzeichnung erwähnt wird. Aber, waren die Leute damals wirklich so dumm, dass sie die Möglichkeit nicht in Betracht zogen? War es wirklich so, dass Babbage bereits beim Bau eines mechanischen Rechners gescheitert ist und das Ada Lovelace sich alles selber ausgedacht hat? Wäre es nicht viel wahrscheinlicher, dass die Technologie zum Bau von elektronischen Rechenmaschinen zwar existisierte, diese aber ähnlich wie bei der Tempel-Zauberei der Antike als Geheimwissen weitergegeben wurde. Anders formuliert: um nachzuweisen, dass Babbages Computer nicht existierte müsste man zunächst einmal nachweisen, dass es damals kein Geheimwissen gab. Das also sämtliches Wissen explizit publiziert wurde. Eine Unterstellung die weder für das 19. Jahrhundert zutrifft und für das 21. Jahrhundert auch nicht. Es bleibt noch die Frage wer solche Rechner hat bauen können. Ungebildete Bauern vom Lande wohl kaum. Wohl eher ist anzunehmen, dass die aristokratische Oberschicht der damaligen Zeit nicht nur Wissenschaft betrieben hat, sondern darüberhinaus sich auch für Algorithmen und denkende Maschine interessiert hat.

Die Annahme, dass zu Zeiten von Babbage bereits Computer existierten wird normalerweise als Steampunk bezeichnet. Um genauer zu sein, war das Dampfzeitalter damals schon lange vorbei. Die Zeit von Babbage glich eher einem Elektropunk. Das heißt, der elektrische Strom war bereits erfunden und er wurde genutzt um damit Computer anzutreiben. Interessant in diesem Zusammenhang ist noch der Name Alois Senefelder, der hat ebenfalls in dieser Epoche gelebt und die Lithographie erfunden. Er bezeichnete sein Verfahren als Stone Printing. Wäre es zu forsch, wenn man unterstellt, dass Stone-Printing eine Umschreibung war für Halbleiter-Belichtung? Auch heute noch wird selten der korrekte Ausdruck verwendet, so sprechen die Experten beispielsweise von „Wafer backen“. Gemeint ist das Belichten von ultrakleinen Strukturen mit dem Ziel Transistoren in Silizium zu erzeugen.

Die wichtigste Technologie um zu Zeiten von Babbage elektrische Computer, integrierte Schaltkreise und Computerprogramme zu entwickeln war ein Wissen generale. Also nicht nur ein bestimmtes Fachwissen wie es Alois Senefelder oder Ada Lovelace besaßen, sondern die Fähigkeit dieses Fachwissen miteinander in Beziehung zu setzen. Häufig wird unterstellt, dass diese Querverbindungen nicht existierten und es noch 100 Jahre dauerte, bis man soweit war. Fakt ist jedoch, dass das Einzelwissen zum Bau und zur Programmierung von Mikrocomputern damals existierte. Ist es so falsch anzunehmen, dass es eine zentrale Stelle gab, welche dieses Wissen in Beziehung setzte und damit verstärkte?

Die einzige Möglichkeit dass zur damaligen Zeit das Wissen nicht verknüpft wurde, wäre, wenn all diese Einzelerfinder für sich isoliert gearbeitet hätten. Es also keinerlei Austausch gab. Das heißt, Ada Lovelace wusste nicht, was ihre Kollegen machen und umgekehrt. Schaut man sich jedoch einmal die Realität des 19. Jahrhunderts an, so war das genaue Gegenteil davon der Fall. Es wurde damals die Telegraphie entwickelt, es entstanden wissenschaftliche Vereinigungen, es wurden wichtige Werke in andere Sprachen übersetzt. Es kann jedoch nicht beides gleichzeitig wahr sein: einmal ein wissenschaftlicher Austausch über alle Disziplinen hinweg und zweitens die Unmöglichkeit eines Computers, welcher das Resultat diesen Austausches war.

Wichtig ist noch auf die Technik des Mikroskops hinzuweisen. Um sehr kleine Wafer zu fertigen muss man sie betrachten können. Die Details wie weit die damaligen Forscher hinunterblicken konnten sind bekannt. Unterhalb die Auflösung des Lichtes (Abe-Limit, 200 Nanometer) konnte man erst mit Erfindung des X-Ray Teleskopes schauen. Leider ist der zeitliche Ablauf nicht ganz geklärt. Das erste Elektronen-Mikroskop wurde 1931 erfunden. Also muss das X-Ray Telescope ungefähr ab 1910 zur Verfügung gestanden haben. Das heißt, zu Zeiten von Babbage gab es nur Lichtmikrospie. Das heißt, angenommen damals wurden bereits integrierte Schaltkreise entwickelt, so waren sie vermutlich wesentlich größer als 200 nm. Vorstellbare wäre ein Technologie auf Basis des 6502-Mikrochips oder sogar besser.

Kehren wir nochmal zurück zu der Fragen, was die Wissenschaftler der damaligen Zeit wussten oder nicht wussten. Fakt ist, dass der Unterschied zwischen dem Bau eines Computer und dem Nicht-Bauens einer solchen Maschine einzig das nötige Fachwissen ist. Hat man es, gelingt das Kunststück, fehlt es so gelingt es nicht. Die Kardinalfrage lautet daher: was wussten die Wissenschaftler zu Babbage Zeitens über Rechenmaschinen? Diese Frage zu beantworten ist nicht ganz simpel. Wenn man heute dazu Untersuchungen anstellt, so gleicht die Suche eher einer archäologischen als einer Recherche. Normalerweise müsste man denken, dass das 18. Jahrhundert gut ausgeleichtet wäre, weil es damals bereits Bücher gab und sogar Ton und Bildaufzeichnungen existieren. Die Wahrheit ist jedoch, dass bis heute diese Zeit nicht erforscht wird. Im Grunde ist nicht klar, was Babbage oder andere Forscher damals schon wussten und was noch unklar war. Was man jedoch sagen kann ist, dass im 18. Jahrhundert Bildung ein Luxusgut war. Es gab damals keine öffentlichen Bibliotheken sondern es gab Salons, zu denen nur wenige Zutritt hatten. Leider können wir heute niemanden mehr fragen, der damals gelebt hat. Es gibt nur die überlieferten Schriften und biographische Erzählungen. Man sollte jedoch nicht den Fehler machen, die damalige Zeit zu unterschätzen. Also davon ausgehen, dass die Leute damals noch an Gott geblaubt haben.

NOCHMAL ZU ADA LOVELACE
Auf den einzigen Text von Ada Lovelace (Anmerkungen zu Federico Luigi Menabrea: Sketch of The Analytical Engine) wurde bereits hingewiesen. Meist wird dieser Text so interpretiert, dass Ada die Analytical Engine beschreibt. Aber was ist, wenn sie uns darin etwas ganz anderes beschreibt, und zwar eine viktorianische Chipfabrik in der integrierte Schaltkreise hergestellt wurden? In Note B heißt es dazu:

„It contains an indefinite number of the columns of discs described by M. Menabrea.“

Die übliche Übersetzung dafür lautet, dass Ada damit auf ein Rechentableu referiert, in der ein Algorithmus entwickelt wird. Aber disc kann kann auch als Wafer übersetzt werden, also eine Siliziumscheibe. In der „Note C“ heißt es dann:

„A method was devised of what was technically designated backing the cards in certain groups according to certain laws.“

Damit könnte das „Backen eines Microchips“ gemeint sein.

LITERATUR
The Computer. The Key to an instrument whereby questions in arithmetic, mensuration, … are worked with … accuracy and … speed. Invented by J. E. Fuller 1871

Ada Lovelace und die ENIAC Girls

Ada Lovelace wird heute gerne als erste und einzige Programmierin bezeichnet. Aber stimmt das auch mit den Quellen überein? Nehmen wir mal an, dass die alternative Zeitlinie des Electropunk wahr ist und zu Babbage Zeitens integrierte Schaltkreise belichtet wurden und damit Supercomputer verfügbar waren mit mehreren Gigaflops. Wie hätte man diese Maschine programmieren sollen? Dazu benötigt man sogenannte Programmer, also Menschen die in der Lage sind in einer formalen Sprache ein Problem zu beschreiben. Es gibt Berichte wonach im 19. Jahrhundert menschliche Computer eingesetzt wurden. Oftmals waren es Frauen, die manuell Logirthmentafeln erstellten. Aber haben die Frauen selber gerechnet oder war ihre Rolle nicht vielmehr die der ENIAC Girls, die bekanntlich Programme erstellt haben, welche dann auf einem Computer berechnet wurden?

Wikipedia https://en.wikipedia.org/wiki/Human_computer definiert „Human computer“ als:
„The term computer, in use from the early 17th century (the first known written reference dates from 1613),[1] meant „one who computes“: a person performing mathematical calculations, before electronic computers became commercially available.“

Nehmen wir mal an, zu Babbage Zeiten haben tatsächlich Frauen Computerprogramme erstellt, so wäre es wahrscheinlich dass man dieses Detail systematisch aus der Computergeschicte entfernt hätte. Bekanntlich ist die Informatik bis heute durch Männer dominiert welche aus Ego-Gründen die Rolle des weiblichen Geschlechtes abwerten. Wenn tatsächlich Frauen damals schon Algorithmen auf Lochkarten gestanzt haben, dann würde die männliche Geschichtsschreibung vermutlich diese wichtige Aufgabe dahingehend beschreiben, dass die Frauen keine Programmer waren sondern dass sie nur niedrige Aufgaben erledigt haben und eher unterstützende Hilfsarbeiten ausgeführt haben. Das könnte eine Erklärung sein warum außer von Ada Lovelace keine weiteren Briefe oder Texte von programmierenden Frauen erhalten geblieben sind.

Schauen wir dochmal was die Literatur zu Ada Lovelace sagt. https://adainitiative.org/2013/08/24/deleting-ada-lovelace-from-the-history-of-computing/ erläutert dass die Rolle von Ada Lovelace als erste Programmierung lange nicht bekannt war. Erst relativ spät wurde erkannt, dass sie Programme ersteltt hat. Aber womöglich ist das nur die halbe Wahrheit. Womöglich hat sie nicht nur Programme geschrieben, sondern womöglich war sie nicht die einzige Frau die sowas getan hat. Unklar ist bis heute, wie Ada Lovelace im Verhältnlis zu Babbage einzuordnen ist. War sie wirklich intelligenter als Babbage, hat also bereits in die Zukunft gedacht und die Anwendungen des Computers betrachtet, oder war Ada lediglich vorlaut, hat also etwas verraten was eigentlich geheim bleiben sollte?

Aus den historischen Quellen kann man nachweisen, dass Ada Lovelace ein tiefes Verständnis für Computer entwickelt hat. Das kann aber nur funktionieren, wenn die Welt in der sie lebte, bereits dieses Verständnis besaß. Niemand kann einfach aus dem Nichts heraus, sich einen Algorithmus ausdenken oder sich programmgesteuerte Computer vorstellen. Computerscience ist eine gesellschaftliche Erfindung, die nicht an bestimmte Personen gebunden ist. Wie also kann Ada Lovelace einerseits ein tiefes Verständnis von angewandter Rechentechnik entwickelt haben, wenn Babbage und andere Männer mit denen sie zusammenwar es offenbar daran mangelte? Die einzig mögliche Erklärung lautet, dass das Wissen von Ada Lovelace nichts besonderes war, sondern dass es damals zur Allgemeinbildung gehörte. Und das Babbage und andere Wissenschaftlicher der damaligen Zeit dieses Wissen nutzten und weiterentwickelten, offenbar jedoch ohne die Nachwelt im Detail darüber in Kenntnis zu setzen.

Fragen wir nochmal Wikipedia was der Status-Quo in der Ada Lovelace Forschung ist https://de.wikipedia.org/wiki/Ada_Lovelace Darin heißt es, dass Ada Lovelace ein Programm veröffentlicht hat (Bernoulli Berechnung) für die nicht fertiggestellte Analytical Engine. Als Grund warum diese Maschine nicht einsatzbereit war, wird angeführt, dass die Feinmechanik der damaligen Zeit noch nicht weit genug entwickelt war. Nur, dafür gibt es keine Beweise. Aber gehen wir weiter im Text. Bei Wikipedia steht, dass Babbage als Problem die Bernoulli-Formel vorgegeben hat, und Ada Lovelace dafür dann den Computercode erstellt hat. Soweit die Darstellung der Wikipedia. Unbeantwortet ist die Frage, ob Babbage möglicherweise diese Formel auch anderen Programmiererinnen gegeben hat und diese ebenfalls Computercode aufschrieben. Der dann dazu diente einen Supercomputer zu füttern. Demnach wären die Programmierfähigkeiten von Lovelace allenfalls Durchschnitt gewesen.

Es bleibt noch die Frage zu klären, was dann auf den Plänen zur Analytical Engine zu sehen war? Eine Möglichkeit wäre, dass Babbage keine Maschine sondern eine Factory skizziert hat. Hier http://history-computer.com/Babbage/Images/analitical_engine_general_v.jpg ist ein Scan des Bauplans zu sehen. Und jetzt zum Vergleich die Zeichnung http://patentimages.storage.googleapis.com/US20050287813A1/US20050287813A1-20051229-D00003.png Es handelt sich dabei um ein Abbildung aus einer Patentschrift zum „Manufacturing method of semiconductor device and semiconductor manufacturing apparatus US 20050287813 A1“. Beide Zeichnungen zeigen ungefähr das selbe (eine Chipfabrik), nur die Details unterscheiden sich geringfügig. Die Frage lautet: woher wusste Charles Babbage wie eine Halbleiterfabrik im Grundriss aussieht?

Da es unwahrscheinlich ist, dass Babbage in die Zukunft blicken konnte oder ein Genie war, dass seiner Zeit um 100 Jahre voraus war, bleibt als einzige logische Erklärung nur übrig, dass die gesammte damalige Epoche über außergewöhnliche Fähigkeiten verfügte, die bis heute nicht vollständig herausgearbeitet wurden.