Ben Goertzels neues Buch


Vor kurzer Zeit hat Ben Goertzel unter http://goertzel.org/TenYearsToTheSingularity.pdf sein neues Buch veröffentlicht was man auch über Amazon kaufen kann. Darin findet sich ein spannendes Kapitel mit der Überschrift „AGI via Narrow AI?“ Wie nicht anders zu vermuten äußert sich Goertzel kritisch:

„Unfortunately, I’m rather skeptical of this approach as a road to powerful AGI – basically because none of the narrow AI programs have the ability to generalize across domains, […]“

Weiter bezeichnet Goertzel den Ansatz sogar als albern (ludicrous) weil heutigen „Narrow AI“ Systeme die Fähigkeit fehlt zu wachsen. Weiter heißt es, dass dass es nicht möglich wäre, die unterschiedlichen „Narrow AI“ Systeme miteinander zu kombinieren weil sie gänzlich inkompatibel zueinander wären.

Und tatsächlich, folgt man Goertzel’s Ausführungen wird eine Kombination aus heutiger Software wie „Apple Siri“, „Google Maps“, „IBM Watson“ und „Google driverless Car“ in der Tat keine human-like AGI ermöglichen. Aber, bei näherer Betrachtung scheint der Ansatz von Goertzel ein anderer zu sein. Ist es nicht eher so, dass er so ähnlich argumentiert wie damals in den 1970’er Jahren im Zuge des Lighthill Reports, als es hieß dass Künstliche Intelligenz niemals wird erfolgreich sein? Ist es nicht so, dass Goertzel (angeblich ein Vordenker für Künstliche Intelligenz) sich hier aufschwingt zu jemandem der vor Künstlicher Intelligenz warnt, sie ins lächerliche zieht und ihr die Zukunftsfähigkeit abspricht?

Fakt ist zumindest eines, die sogenannten „Narrow AI“ Systeme haben in der Vergangenheit meßbar an Qualität gewonnen, in der Art dass die Software einen Leistungszuwachs erbrachte. Die Triebfeder dahinter waren natürlich Programmierer von IBM, Google usw. und derzeit sieht es ganz danach aus, als ob dieser Zuwachs auch in der Zukunft möglich sein wird. In der Art, dass ein selbstfahrendes Auto des Jahres 2020 vermutlich ausgereifter sein wird als aktuelle Modelle.

Man kann sagen, dass „Narrow AI“ derzeit der erfolgversprechenste Ansatz ist um AGI zu erreichen und ausgerechnet dieser Ansatz wird von dem Vordenker der Singularity Bewegung als „ludicrous“ bezeichnet? Da stimmt doch was nicht. Offenbar geht es hier um etwas anderes, offenbar geht es hier um einen Konflikt zwischen klassischer Strong AI und moderner Weak AI. Es geht um die Deutungshoheit darüber auf welcher Methode Künstliche Intelligenz realisiert wird und welche der falsche Weg dorthin ist. Ben Goertzel als Spaltpilz sozusagen …

Advertisements

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s