Strong AI vs. Weak AI


Im Umfeld von Künstlicher Intelligenz scheint es egal zu sein, um welches Gebiet es sich dabei handelt, weil ja alles irgendwie „Strong AI“ ist, so könnte man zumindest glauben. Und tatsächlich, immer geht es darum künstliche Systeme zu erfinden die ungefähr das können was auch Menschen vermögen nur eben viel besser und schneller. Und so ist es fast natürlich anzunehmen, dass „Strong AI“ die einzig mögliche Representation von Künstlicher Intelligenz wäre. Aber ist sie das wirklich? Schauen wir doch einmal auf das Grundparadigma was „Strong AI“ zugrundeliegt. Es gibt dort in der Tat einige Annahmen, die nur selten thematisiert werden, die es jedoch wert sind, dass man sie kennt. Zum einen die Hypothese, dass Computer so denken müssten wie es auch Computer tun. Das beste Beispiel hierfür ist sicherlich die Software „SOAR“ welche innerhalb der „Strong AI“ Community häufig als Vorzeigeprojekt hin zu „Strong AI“ zitiert wird und die auf einem psychologischen Modell des menschlichen Verhaltens aufbaut.

Die Absicht hinter SOAR lautet, dass man im Computer eine virtuelle Maschine installiert, die nicht nur in der Lage ist Programmiersprache wie C oder Forth zu interpretieren, sondern im Grunde soll die virtuelle Maschine wie ein menschliches Gehirn funktionieren und man programmiert sie nicht anders als würde man zu einem Menschen etwas sagen. Sozusagen eine natürliche Programmierung. Aber damit nicht genug, innerhalb der „Strong AI“ Community wird darüberhinaus diskutiert, dass man überhaupt nicht mehr programmiert. Das also die Systeme über sehr wissenschaftlich anmutende Formeln (Machine Learning) in die Lage versetzt werden, beinahe Automatisch den nötigen Quellcode zu „lernen“. Hier ist beispielsweise die Software AIXI zu nennen, welche nach Aussage ihres Erfinders genau das kann.

Bei näherer Betrachtung kann „Strong AI“ die selbstgesteckten Ziele nicht erfüllen. Bis zum heutigen Tagen gibt es keine Software die man als „Strong AI“ bezeichnet. Selbst Algorithmen die tatsächlich ihren eigenen Quellcode zur Laufzeit selbst erstellen (BusyBeaver Wettbewerbe beispielsweise) gelten nicht als Strong AI, sondern sind nichts anderes als manuell erstellte Optimierungsverfahren die keinerlei Eigenintelligenz besitzen. Und dadurch drängt sich der Verdacht auf, dass „Strong AI“ alle Aspekte einer Pseudowissenschaft erfüllt. Da diese Unterstellung ziemlich scharf ist, dazu einige Details.

Eine Pseudowissenschaft ist dabei alles, was aus inneren Widersprüchen besteht die sich nicht auflösen lassen und die es schwer machen das aufgestellte Gedankensystem näher zu überprüfen. Wenn man beispielsweise fragt „Was ist das Klatschen einer Hand?“ dann mag dieses Zen-Rätsel mitunter interessant sein oder zum Nachdenken anregen, Sinn vermittelt es jedoch nicht. Auch andere Pseudowissenschaften wie die Radionik (Energiemedizin) ist intellektuell durchaus anspruchsvoll und besitzt eine ästhetische Schönheit, damit praktisch irgendetwas anfangen kann man jedoch nicht. Und diese Kriterien treffen (leider) auch auf „Strong AI“ zu. Nicht einer der Vorträge der letzten „AGI-conferences“ war albern oder banal, aber einen substanziellen Beitrag zu Themen wie:

– machinelles Sehen
– Softwareentwicklung
– Programmiersprachen
– Softwareagenten

haben sich jedoch nicht geliefert. Vielmehr funktioniert „Strong AI“ wie eine Art von Gehirnwäsche, man kann sich damit intensiv befassen ohne dabei über wirkliche Probleme nachdenken zu müssen. Insofern kann man AGI als das Zen der Informatik bezeichnen, es bedeutet im Grunde dass man das Nachdenken unterbricht, dass man zur Ruhe kommt, dass man über das große Nichts philosophiert, dass man sich nicht länger mit Künstlicher Intelligenz beschäftigt.

Einen wichtigen Anhaltspunkt dafür ist die These von „Strong AI“, dass man einerseits zwar intelligente Systeme erstellen möchte, andererseits dies aber nicht auf konventionellem Wege tun möchte, und sich auch nicht an technischen Fragestellungen orientiert. Das bedeutet, wenn man nach der „Strong AI“ Methode einen Roboter programmiert, dann bitteschön nicht etwa indem man den Roboter in Java programmiert und ein Bildverarbeitungsmodul einbaut, sondern der AGI way of life besteht darin, ein Metamodell zu entwickeln was philosophisch/psychologisch orientiert ist, und nichts mehr mit Robotik oder Programmieren zu tun hat. Im Grunde lautet die Zielstellung nichts geringeres als dass man Informatik betreibt ohne dafür Informatik zu verwenden. Klingt paradox und ist es auch, was in der Praxis nichts anderes bedeutet als dass man damit scheitern wird. So ähnlich wie auch die Software SOAR oder AIXI nicht in der Lage ist für ein tatsächliches Problem eingesetzt zu werden. Die Programme dienen stattdessen als eine Art von Kunstprojekt die ähnlich wie die Wirkung von Astrologie keinen nachweisbaren Nutzen erfüllt.

Kann man daraus folgern, dass Künstliche Intelligenz insgesamt nicht möglich ist und automatisch unwissenschaftlich sein muss? Nein, sondern man kann lediglich folgern dass die Unterscheidung zwischen „Weak AI“ und „Strong AI“ historisch betrachtet Sinn macht. Weil zumindest die „Weak AI“ an wissenschaftlichen Resultaten interessiert ist. Weak AI bedeutet beispielsweise, dass man ein Roboter in die Lage versetzt wird, bei Robocup Soccer zu gewinnen. Und die dafür verwendeten Mittel orientieren sich an traditioneller Informatik: also Programmiersprachen, Robotik, Algorithmen usw. Weak AI ist etwas, was man falsifizieren kann, und was bei kritischer Betrachtung mehr ist als ein paradoxes Zen-Koan sondern einen Ausgang besitzt.

Von der Wissenschaftstheorie her ist „Strong AI“ die ältere der beiden Disziplinen, es ist eine pseudowissenschaft vor der wissenschaftlichen Künstlichen Intelligenz. Bei „Strong AI“ sind ähnlich wie bei der Alchemie Vorformen des wissenschaftlichen Denkens enthalten allerdings haben diese eher episodischen Charakter. Sehr oft geht es bei den „AGI Conferences“ beispielsweise um persönliche Erzählungen. Das also jemand der Vortragenden seine Lebensgeschichte erzählt wie er ganz persönlich mit Hilfe von neuronalen Netzen oder ähnlichem ein Problem gelöst hat. Wirklich verallgemeinerbar sind derartige Erzählungen leider nicht, vielmehr geht es um subjektive Schilderungen die herausstellen, dass es um persönliche Charakterbildung geht. Das man also durchh AGI zu einem besseren Menschen geworden ist und seinen Mitmenschen gegenüber Nachsicht walten lässt.

Dieser Aspekt findet bei „Weak AI“ nicht statt. Dort stehen eher sachliche Fragestellungen im Vordergrund, also beispielsweise ob man C++ oder Java zur Robotikprogramierung einsetzen soll oder ob ein Canny-Edge-Detector oder eine Laplace-Edge Detektor das effizientere Mustererkennungsverfahren ist. Es mag auch innerhalb der Weak AI Community Leute geben, die sich aus rein persönlichen Gründen mit der Thematik beschäftigen, im Kern dürfte jedoch der Fokus auf Software zur Realisierung von konkreten Aufgaben liegen.

Ebenfalls wissenschaftstheoretisch interessant ist der Ansatz von „Strong AI“ einen integrativen Ansatz zu verwirklichen, also Einzeldisziplinen zu vereinen. Dieser Anspruch wurde auch von einer anderen Wissenschaft verfolgt die heute ihre einstige Vormachtstellung abgeben musste, der Philosophie. Bekanntlich war Philosophie die Wissenschaft des Geistes, innerhalb derer dann Einzeldisziplinen wie Biologie, Mathematik und Sprache verhandelt wurden, bevor es diese Subdisziplinen als solche gab. Heute hingegen ist die Philosophie entbehrlich geworden.

Es stellt sich die Frage ob dies inzwischen auch mit „Strong AI“ der Fall ist. Denn jeder Teilaspekt wird heute in spezialisierten Wissenschaften verhandelt. Beispielsweise wird die Erstellung von Sourcecode (das eigentliche Programmieren) unter dem Begriff „Softwareenginering“ diskutiert, oder das Planen als mathematisches Planen im Bereich „Optimierung“ untersucht. Wozu also noch noch eine integrative Disziplin, welche sich zur Aufgabe gemacht hat, Singularity erreichen zu wollen oder zumindest zu begleiten?

Ironischerweise wird „Strong AI“ heute an vielen Hochschulen noch gelehrt, weil es einen Mangel an „Weak AI“ gibt. Das bedeutet, einerseits gibt es einen Bedarf sich auf wissenschaftliche Weise mit künstlicher Intelligenz auseinanderzusetzen, andererseits mangelt es jedoch an Erfahrung dies im Bereich „Weak AI“ zu tun. Nichts desto trotz gäbe es natürlich Möglichkeiten und in den letzten Jahren wurde Weak AI von unterschiedlichen Stellen auch vermehrt gefördert. Beispielsweise seien hier einige Roboterwettbewerbe wie „Darpa Challange“, Starcraft AI oder Mario AI zu nennen, welche allesamt sich mit „Weak AI“ auseinandersetzen und damit prinzipiell ein Ersatz sind für das was davor als Künstliche Intelligenz untersucht wurde. Tatsächlich kann man an konkreten Beispielen / an konkreten Spielen viel besser erkennen was Künstliche Intelligenz ist, wie man sie programmiert und was mögliche Grenzen sind.

Die Beschäftigung mit „Weak AI“ ist in aller Regel zielführender weil es dort nur um konkrete Software geht nicht jedoch um Philosophie. Bei Weak AI untersucht man beispielsweise die Spielstärke von Schachprogrammen und wie man diese erhöht. Das ist etwas, was sich objektiv beweisen lässt und nichts woran man glauben müsste.

Das interessante an der „Weak AI“ ist, dass man damit sehr viel mehr erreichen kann. Im Grunde ist „Weak AI“ und „Nouvelle AI“ ein und dasselbe. Beide Male geht es darum, von einer computerzentrierten Sichtweise aus von unten anzufangen (Bottom up) und damit dann immer leistungsfähigere Systeme zu entwickeln. Im einfachsten Fall könnte „Weak AI“ einfach ein lokales Tool wie „grep“ sein, mit dem man auf Dateien auf ihren Inhalt untersucht. Wenn man so einen Ansatz jedoch noch oben skaliert erhält man eine Internet-Suchmaschine a la Google die weltweit alle Dateien indizieren kann. Und so ähnlich ist es auch bei anderen Beispielen. Die einfachste Weak AI für einen Roboter besteht vermutlich aus einen kurzen Programm geschrieben in der Sprache NQC (Not quite C, Lego Mindstorms) mit 10 Lines of Code, das nichts anderes macht als wenn der Roboter an ein Hinderniss gelangt eine Ausweichbewegung auszuführen. Skaliert man diese Weak AI nach oben hin zu einem Großprojekt wie dem Stanley Robot Car (1 Mio Lines of Code, inkl. ausgewachsenem SLAM Algorithmus und 3D Simulator) dann erhält man ein Auto was allein im Straßenverkehr fährt. Und so geht es immer weiter. In sehr vielen Bereichen lässt sich über problemzentrierte Programmierung eine derartige Skalierung nach oben erreichen auch bei Bereichen die man traditionell eher der Strong AI zuordnen würde wie z.b. Chatbot. Mit nur wenigen Zeilen Code lässt sich ein Chatbot mit den Merkmalen von Eliza (siehe Weizenbaum erzeugen) der relativ primitiv daherkommt. Erweitert man das Konzept, und beschäftigt sich näher mit der Thematik, erhält man eine Software wie Watson, welche nicht nur sprechen kann, sondern zusätzlich auch noch bei Jeopardy gewinnt. Auch aus anderen Bereichen die heute noch nicht zufriedenstellend gelöst wurde wissen wir, dass eine derartige Skalisierung möglich ist. Beispielsweise kann mit relativ wenig Quellcode ein 2D Bild auf Objekte hin untersuchen und beispielsweise alle Kreise herausfiltern. Ein typisches Beispiel für Weak AI. Aber es ist zumindest wahrscheinlich, dass man mit etwas Mühe auch ein vollausgewachsenes „Image parsing“ Programm erstellen könnte, was beispielsweise in der Lage ist, Youtube-Video zu schauen und auszuwerten, also zu erkennen was darauf zu sehen ist, um entweder 3D Modelle zu erzeugen oder die Handlung in Sprache umzuwandeln. Derartige Forschungen laufen bereits und ein baldiger Durchbruch ist wahrscheinlich.

Aus diesen Beispielen kann man ablesen, dass „Weak AI“ die Künstliche Intelligenz der Gegenwart darstellt, die anders als „Strong AI“ zu konkreten Ergebnissen führt und damit mehr ist, als nur Alchemie. Wichtiges Kennzeichen von Alchemie und anderen Pseudowissenschaften ist es, dass sie folgenlos bleiben, dass sich damit also Leute 100 Jahre und länger beschäftigen, ohne dass am Ende etwas erreicht wurde. Beispielsweise diskutieren im Bereich Astrologie ihre Anhänger bereits seit mehr als 500 Jahre über den Einfluss von Tierkreisen, ohne dass bis heute sich dadurch irgendwas verändert hätte. Bei „Weak AI“ hingegen sind die Ergebnisse nicht nur wissenschaftlich interessant sondern sind sogar für kommerziellen Produkte umsetzbar. Beispielsweise ist Google heute einer der weltweit größten Konzerne und selbstfahrende Autos dürften das große Ding in den nächsten Jahren werden. Insofern ist „Weak AI“ alles andere als folgenlos.

Advertisements

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s