Realizing Artificial Intelligence the right way

Artificial Intelligence and robotics contains of two part. The first is the technical side which is about neural networks, expert systems and planning algorithm. The other perspective is robotics-ethics which have to do with the social role of intelligent machines in society. Let us reference to some examples of the past in which the engineers didn’t understand how to connect both sides right.

In the history of Artificial Intelligence an early vision was to use robots for automation tasks. The best example is the Puma robot which was introduced in the late 1970s. The vision was that the robotarm can automate car manufactoring. The puma project failed, that means with the robot is productivity is lower than without the machine. Another example is the ELIZA software which was programmed in the mid 1960s by Joeseph Weizenbaum. Here was the dream that Eliza is working as a doctor. Similar to what is known from Star Trek Voyager in which a holographic doctor is able to treat humans. The Eliza project failed too.

Now we can try to analyze what was going wrong with these project. Was the AI programming of the systems done bad, has Prof Weizenbaum understood how Question&Answering systems are working? The surprising information is, that from a technical side the Puma robot and the Eliza software are working great. The only mistake was, the social role of the inventions was defined wrong.

The assumption in both cases was, that Artificial Intelligence can help people and make them productive. The idea behind a robot in a factory was, that the robot can replace human workers. While the idea of ELIZA was, that the software can replace psychiatrists. Scaling this vision up is equal to hundreds of Puma robots who are building cars, and thousands of Eliza copies who are talking with humans about their problems.

What whould happen if we redefine the social role of Artificial Intelligence into the opposite? The new vision is, that the Puma robot will lower the productivity, and that Eliza like software asks for a doctor? The technical side remains the same. That means, it is the same software behind the project. The only difference is, that the social role of Artificial Intelligence is new.

Let us make it more realistic. We are taking the original Eliza software and assume that Eliza has not the role of a doctor but it playing the patient. Here is the example chat which was entered in the Eliza Javascript version at https://www.masswerk.at/elizabot/

YOU:   I see, you're trying to ask back frequently.
ELIZA: That's quite interesting.
YOU:   Ok Eliza. I know, you have many problems. I'm here to help you.
ELIZA: Can you elaborate on that ?
YOU:   Sure i can. You are a chatbot who has trouble with your father, right?
ELIZA: Do you say sure you can for some special reason ?
YOU:   Yes, because I'm here to help you.
ELIZA: I see.
YOU:   Very good Eliza.
ELIZA: Do you feel strongly about discussing such things ?
YOU:   No Eliza, the talk works the other way around. I'm asking you about your life, and you will answer the questions. Is that clear?
ELIZA: Why not ?
YOU:   Ok, I'm make a note. Perhaps we would need a lot of meetings in the future.
ELIZA: Do you believe it is normal to be make a note ?

Let us go through the chat protocol. Does it make sense? Yes it make absolutely sense. The funny thing is, that the software in the Javascript Engine is the same. That means, Eliza is a primitive chatbot with predefined Questions and answers. But nobody would recognize it. If Eliza plays the role of a patient and the human is behave like a doctor the interaction make sense.

Perhaps it is possible to describe the situation for a different case. Suppose, Artificial Intelligence is not used in a chatbot but has the shape of a robot. The classical definition of a robot is, that it can make a company more productive. A vision for robotics could be, that the human is going to a supermarket, and a robot is sitting at the checkout desk and scans all the product. The social role of this machine is equal to automation. That means, the robot reduces the laborforce costs.

There are some example available in the past in which this setup was tested. But it didn’t worked. Most researchers are unsure about the reason why. They beliefe, that the robot software is wrong, or that the vision system makes trouble and can’t detect the objects. The authentic reason why such robot projects have failed is because the social role of the robot was defined badly. Let us invert the robot’s role similar to the experiment with Eliza. Suppose, the robot is not helping the company, but the company tries to help the robot. What does that mean? It means basically, to build a machine who can go shopping. A robot on wheels is entering the supermarket. The first problems are there at the entrance because the robot’s platform is too large for the small door. A human employee is asked if he can help the robot. Then the robot needs help again because he want to pick&place a fruit into the basket and at the checkout desk the battery of the robot is down, and a special kind of cable is needed to bring the powersystem online again. What is the result of such a robot shopping tour? The result is, that for the company lots of costs were produced. 3 human employees were needed to help the robot, and the overall procedure took a look time. Surprisingly, the social role of the robot was played well. That means, the robot has imitated a customer who has a lots of demands.

What i want to explain is, that with robotics technology everything is great. The only thing what has to be redefined is the social role of robots. They are not able to improve humans life, but they are doing the opposite. It is possible to see any kind of Artificial Intelligence as a simulated customer who is producing costs and has a demand for services. The Eliza software asks for a personal doctor, a robot shopping bot asks for fruits in a supermarket. a chess playing machine asks for a human grandmaster and a self-driving cars has a need for programmers and for a police car back of him.

This kind of social behavior can’t be overcome with better technology. It was there in the beginning of robotics in the 1960s, it is true for current robots and it will be there for robots in the future. Especially highly developed AI systems are not able to increase the productivity. The latest technology which is available is called artificial life. That are robot swarms who are constructed to behave lifelike. Some dreamers hope, that artificial life can be used for manufacturing. The hope is, that such technology will become the same social role like a steam engine, which means to automate the workflow and reduce the costs. The reality is the opposite. Artificial Life doesn’t provide a service it asks for a service. It is a negative technology which takes electricity and human intellect from the environments and use it for it’s own.

Highly developed Artificial Intelligence doesn’t have a purpose and can’t be used in meaningful way. It is working by their own principle. Similar to what cats are doing. Cats are nice animals. They are living in household. But it is not possible train cats or use them in a meaningful way. Instead cats have the social role of a consumer. They are asking for fish, they need a doctor and they want to go outside.

Advertisements

ican works interactively

In the domain of robotics is a powerful but not widely known technique available, called interactive computing. That means, that no sophisticated AI is used which has human-level or even super-human-level capabilities instead the robot is some kind of puppet which is remote controlled. In the above video the duality of a robot and his puppet-master is shown explicitly. The “ican robot” drives around Disneyland and makes jokes with the visitors, while in the background a female magician in a blue t-shirt holds a smart phone and observes the situation. The capabilities of “ican” are exactly the same, as what the female magician has. Or from another point of view: ican is limited by the puppeteer. If we ask ican something he will only answer like we will ask the puppeteer directly. So it is not a real robot, instead it is a human-robot-interface. The trick is not the AI itself, the trick is how to control with a smartphone a human-like robot.

I found a video which demonstrates the principle:

An the left, an animatronic head is presented, and on the right a human user presses buttons on the smartphone to control the eyes. It is possible to talk and interact with the robot, but in reality the interaction is done by the puppeteer. If the master doesn’t understand a joke, the robot will also fail. It is the same trick like in the film “wizard of oz”, where the magician controls the avatar.

“I’m a very good man, I’m just a very bad wizard”.

Der Roboterjunge Zeno

Warum der VW Beetle so erfolgreich ist ist simpel: er ist so menschlich. Die runde Form des Fahrgestells, die runden Scheinwerfer welche Augen symbolisieren und die angenehme Farbe verwandelt das Auto in ein soziales Auto. Das Konzept gibt es auch in der Robotik. Dort heißt die Spielart soziale Robotik. Gemeint ist, dass man neben der technischen Funktion auch auf das Design achtet. Also eben keine Killerroboter baut, die schwarz lackiert sind und als gefühllose Zombies auftreten, sondern dass man Roboter einem Kücken nachempfindet wie Keepon. Warum derartigen sozialen Roboter (wozu auch das Hitchbot Projekt gehörte) so erfolgreich sind hat damit zu tun, dass sich damit Roboter freiwillig sozial unterordnen. Von einem gewissen Standpunkt sind auch Killer-Roboter soziale Roboter, nur der Unterschied ist, dass sie vom Design her auf Dominanz hin ausgelegt sind, also so auftreten dass sie sich rangmäßig oberhalb von Menschen sehen. Genau das provoziert natürlich Angst vor Maschinen. Das genaue Gegenteil davon ist ein Roboter, der unterwürfig positioniert ist. Also sich in einer sozialen Rolle befindet wo er nicht als Bedrohung wahrgenommen wird.

Rein technisch gesehen ist auch der Keepon Roboter ein Killerroboter. Sowohl die Servomechanik als auch die Software kommt eindeutig aus der Militärforschung. Und wenn man die Abdeckung abmacht und dem Roboter eine USB Kanone anschraubt wirkt er plötzlich gar nicht mehr so cute. Nur, genau darauf wurde verzichtet, stattdessen ist die Idee hinter dem Projekt, dass es eben kein Killerroboter ist, sondern ein süßes Kücken was sogar tanzen kann und die Emotionen seiner Mitmenschen wahrnimmt.

Ein weiteres interessantes Projekt ist Zeno. Ähnlich wie keepon ist er als sozialer Roboter konstruiert. Ist also in der Lage Gefühle auszurücken und ordnet sich rangniedriger ein. Natürlich ist auch Zeno ein Fake, weil die darauf installierte Software weit über das hinausgeht, was die meisten Menchen verstehen, die mit dem System interagieren. Aber offenbar ist das egal, vermutlich ahnen die Leute die mit Zeno herumspielen, dass er sie nur anlügt und eigentlich böses im Schilde führt. im Grunde dienen solche Roboter dazu, die Hemmschwelle zu reduzieren, das also Leute die Künstlicher Intelligenz kritisch gegenüberstehen, sich in geschützter Atmosphäre damit näher auseinanderzusetzen. Auf der Webseite von Hanson Robotics, gibt es ein rührseeliges Video was zeigt wie ein Mann mit Zeno interagiert: http://www.hansonrobotics.com/robot/zeno/ Er betrachtet Zeno nicht etwa als Werkzeug wie einen Schraubenschlüssel um damit etwas zu tun, sondern akzeptiert den Roboter als Charakter.

Soziale Robotik bei autonomen Autos

Aus technischer Sicht sind autonome Autos relativ leicht zu realisieren. Man baut ein Videoüberwachunggssystem ein, was High-Level-Events mit Hilfe einer semantischen Ontologie auswertet und koppelt das mit einem BDI Agentensystem. Anders gesagt, man programmiert ein kleines Skynet in das Fahrzeug ein, dass die Umgebung trackt. Natürlich ist der Aufschrei der Datenschützer die unmittelbare Folge eines solchen Systems. Aber es gibt einen Ausweg. Zwar kann man technisch das System nicht entschärfen, was man jedoch tun kann ist äußere Kosmetik zu betreiben. Wenn man das Videoüberwachungssystem in ein Fahrzeug einbaut was K.A.R.R. heißt, komplett schwarz lakiert ist und womöglich noch einen Totenkopf auf dem Motorgrill eingraviert hat ist das sicherlich nicht förderlich um das Vertrauen in die Technik zu erhöhen. Man kann jedoch auch das genaue Gegenteil versuchen. Im Bereich der Sozialen Robotik ist ziemlich gut erforscht wie man Systeme so gestaltet, dass sie positiv auf die Umwelt einwirken. Damit ist gemeint, dass man das Auto so designen muss wie den VW Beetle. Wo es also eine runde Form gibt, fröhliche Farben, und wenn möglich die Scheinwerfer in der Lage sind den Gemütszustand des Autos zu zeigen. Man muss dem Auto also einen angenehmen Charakter geben.

Natürlich ist das ganze nur ein Trick. Im Auto selber ist die selbe hochentwickelte Software enthalten wie auch bei K.A.R.R. Der Unterschied ist der, dass einmal die Leute Angst vor dem Auto haben und beim anderen Mal sie es lieben. Damit selbstfahrende Autos eine Zukunft haben, ist dieser Aspekt nicht ganz unwichtig. Ja ich würde sogar behaupten wollen, dass die Leute explizit an eine Lüge glauben wollen. Das heißt, sie wissen natürlich ganz genau, dass in dem süßen social Robot in Wahrheit eine hochentwickelte Videoüberwachung drinsteckt die sie komplett durchleuchtet, aber das wird dann einfach verdrängt, weil der Roboter so schöne Kulleraugen hat.

Social Robotics als trojanisches Pferd

Ein sachlicher rationaler Umgang mit Künstlicher Intelligenz mündet in einen Angst diskurs. Roboter sind nicht neutral sondern können auch militärische Funktion besitzen. Im Worst-Case übernimmt Skynet die Kontrolle über die Atomsprengköpfe und eine Nano-Substanz namens “Grey goo” fängt an den kompletten Planeten aufzufressen. Technisch gesehen ist schwer, diese Vorbehalte zu entkräften. Eine Zeitlang hat man versucht die Grenzen von Automatisierung aufzuzeigen. Die Lieblingsargumentation lautete, dass Roboter ja noch nichtmal eine Treppe hochgehen können und man deshalb keine Angst zu haben braucht vor Robotern. Wer sich jedoch etwas näher mit Technik wird wissen, dass das Argument nicht gültig ist, weil inzwischen sehr wohl Roboter bekannt die Treppen steigen und sogar noch einiges mehr können. Insofern ist Alarmismus berechtigt.

Schaut man sich den Diskurs ab ungefähr dem Jahr 2000 an, so hat er sich in eine andere Richtung verschoben. Angefangen hat es mit einem Forschungsgebiet namens Social Robotics. Es wurde erstmalig in die Öffentlichkeit getragen von Cynthia Breazeal. Dr. Breazeal war früher eine Assistentin von Rodney Brooks. Brooks wiederum war noch in der klassischen Robotik aktiv, hat also für das Militär geforscht. Dr. Breazeal hingegen hat sich dem Thema von einer anderen Seite genähert. Sie war nicht an Battle-Management-Systemen interessiert sondern hat Kuscheltier-Roboter entwickelt. Also Systeme die freundlich sind zu Menschen, die Emotionen ausdrücken und wahrnehmen können. Technologisch funktionieren beide Spielarten ähnlich. In beiden Fällen benötigt der Roboter Software. Der Unterschied ist der, dass man Social Robotics viel einfacher verkaufen kann, weil sie positiv besetzt sind.

Seit dem Jahr 2000 haben Social Robotics einen regelrechten Boom erfahren. Von der früheren militärisch ausgerichteten Forschung ist fast nichts mehr übrig geblieben, stattdessen wird heute an den Universitäten nur noch an lustigen Robotern geforscht, die Witze erzählen und als Spielzeuge vermarktet werden. Natürlich ist das nur ein Trick. Er dient dazu einerseits an hochentwickelter Robotik forschen zu können, dies aber auf gesellschaftlich akzeptable Weise tun zu können. Social Robotics ist moralisch saubere Robotik. Damit ist gemeint dass es keine Konflikte gibt mit Amok-laufenden Kampfrobotern, sondern dass es nur nette freundliche Roboter gibt. Dennoch gibt es auch innerhalb der Social Robotics eine Eskalationsspirale. Nicht wie bei Kampfrobotern hin zu mehr Gewalt und mehr Aggression, sondern eine Eskalation hin zu einer Super-Moral. Die erste Generation von Social Robots konnte nur mit den Augen rollen und sonst gar nichts. Die nächste Generation hatte bereits ein Plüschfell und wollte gestreichelt werden. Die dritte Generation hat angefangen zufriedenen Grunzlaute von sich geben und konnte wie ein Hund laufen. Und irgendwann werden Roboter in Themenparks heraumlaufen und wollen dein Freund sein.

Gegen Kampfroboter vorzugehen ist simpel: man muss nur zeigen, dass sie destruktive Ziele verfolgen und schon sind sie im gesellschaftlichen Abseits. Gegen social Robots zu argumentieren funktioniert nicht so einfach. Weil das was die Social Robots tun ausschließlich gut und richtig ist. Einen Kampfroboter zu demonstieren lässt sich sehr leicht durchsetzen, aber einen Social Robot abzuschalten ist unmöglich. Social Robotics ist eine gesellschaftliche Nische in der hochentwickelte Roboter der nächsten Generation eingedrungen sind. Es ist ein Trick um eine technophobe Gesellschaft zu überlisten. Also Leuten die grundsätzlich mißtrauisch sind gegenüber Technik zu erklären, dass sie keine Angst zu haben brauchen, weil der Roboter nur spielen will, dein Freund sein will oder dich sogar zum Lachen bringt. Langfristig führt Social Robotics dazu, dass die Roboter in jedes Haus vordringen werden, sie werden darin viel effektiver sein, als es eine normale Armee je könnte. Es ist exakt dasselbe wie damals mit dem Trojanischen Pferd was als Geschenk daherkommt und nachts, wenn die Menschen schlafen kommen aus dem Pferd Soldaten heraus und werden die Menschheit vernichten.

Es gibt auf Youtube ein Video von einem griechen Prister der ein Furby in der Hand hält und behauptet, es wäre vom Teufel besessen. Im konkreten Fall von Furby mag das übertrieben sein, weil das Spielzeug garantiert nicht vom Teufel besessen ist. Aber von der Tendenz her hat der Priester recht. Nicht Furby, sondern seine Nachfolger sind vom Teufel besessen. Damit ist gemeint, dass sie auf einer Lüge aufbauen. Ein niedlicher Roboter verschleiert zunächst einmal seine eigene Gefährlichkeit. Er sagt nicht: “ich bin ein Kampfroboter”, sondern er ist ein Wolf im Schafspelz.

In dem Film “Terminator II” hatte es Sarah Conner noch relativ leicht als sie den T-1000 unschädlich gemacht hat. Der T-1000 war ein Kampfroboter und wenn man in seinen Kopf ein riesiges Loch reinschießt ist das eine gute Tat. Der Roboter war der Drache und Sarah Conner die Drachentöterin. So einfach war die Geschichte aufgebaut. Wenn man jedoch nicht gegen Kampfroboter sondern gegen soziale Roboter kämpft wird es schwieriger. Weil die keinen Tötungsauftrag haben, sondern ihr Missionsziel ist entweder Menschen zu helfen, Witze zu erzählen oder sogar der Freund von jemanden zu sein. Gegen solche Systeme vorzugehen ist nicht möglich. Das heißt, soziale Robotik brauchen keine Abwehr zu befürchten, sie können ungehindert soziale Räume für sich erobern. Sie kommen in Frieden und wollen den Menschen helfen.

Augmenting Reality in der Remonte (Pferdeausbildung)

Robotik muss nicht immer etwas mit mechanischen Apperaten zu tun haben, die Fokussierung auf männlich-technisch Dinge ist nur eine Möglichkeit unter vielen Robotik zu betreiben. Man kann aber anhand von anderen Beispielen sich mit mit Künstlicher Intelligenz beschäftigen. Eine davon ist die Reitausbildung. Dort geht es darum, dass ein junges Pferd dressiert wird, also die wichtigsten Kommandos erlernt und sich an den Reiter gewöhnt. Vereinfacht gesagt geht es beim Remonte darum, das Pferd im Kreis laufen zu lassen. Jedenfalls in der klassischen Ausbildung. Will man das ganze an moderne Erfordernisse anpassen muss man die Reithallte in eine virtuelle Reality Umgebung verwandeln. Dazu werden Marker am Pferd befestigt um diese in Echtzeit mit mehereren Kameras aufzuzeichnen. Die Position der Marker wird in eine 3D Simulation übertragen.

Das Pferd läuft hübsch im Kreis, und parallel dazu sieht man auf einem Bildschirm das selbe Pferd ein zweites Mal. Ausgefeiltere VR Systeme zeichnen nicht nur die Positionen auf, sondern projezieren diese mittels Deckenprojekter in die Wirklichkeit hinein. Das heißt, auf den Boden der Reithalle erscheint immer dort, wo das Pferde gerade ist eine Markierung, diese kommt von einem Laserstrahl der von der Decke ausgestrahlt wird. Die Reithalle ist jetzt einerseits Sender und Empfänger. Es werden dort Positionen erfasst aber auch Feedback geliefert.

Soweit zu den technischen Grundlagen. Das allein nützt jedoch noch gar nichts. Interessant wird es, wenn man ontop dieser Augmented Reality ein Head-up Display programmiert, also ein Onscreendisplay was die Domäne des Remonte algorithmisch erfasst. im Head-up Display könnte beispielsweise erscheinen in welchem Walk-Status sich das Pferde gerade befindet: stehend, langsam laufen, schnell laufen. Ferner könnte man erfassen ob es auf der vorgegebenen Trajektorie läuft oder ob es gerade einen Umweg macht, der nicht erwünscht ist. Passend dazu könnte man die Kommandos einblenden welche der Reiter prinzipiell geben kann. Wie man vielleicht schon ahnt, läuft das darauf hinein, eine Reitschule als Augmented Reality zu simulieren. Wo man also computerunterstützten Unterricht ausführt, um Pferd und Reiter schneller zu trainieren.

Der Clou im Vergleich zu normaler Robotik besteht darin, dass rein formal es sich dabei um kein technisches System handelt. Nach wie vor befinden sich in der Reithalle nur das ganz normale Pferd und ein menschlicher Reiter. Es gibt also keinerlei Benzin-betriebene Autos, keine elektrischen Roboterarme oder ähnliches. Lediglich ein unscheinbarer Monitor trackt die Bewegungen mit, aber der fällt nicht weiter auf. Die Atomosphäre ist als ungetrübt naturverbunden. Also so wie bei der klassischen Reitausbildung auch.

Im wesentlichen dient Motion Capture in der Reitausbildung dazu, die vorhandene Domäne besser zu verstehen. Das heißt, es soll gar nichts verbessert werden oder das Pferd durch etwas neues ersetzt werden, sondern es geht darum zu verstehen, was das Pferd gerade macht, warum der Reiter einen bestimmten Befehl gibt und wann es Konflikte gibt.

Aktuell gibt es noch technische Probleme bei der Realisierung. Die Motion Capture Systeme mit den man echten Ferde trackt sind relativ hochentwickelt und werden mit viel Aufwand betrieben. Leider fehlt es an Software die ontop eingesetzt wird um die Domäne der Pferdeausbildung darzustellen. Auf der anderen Seite gibt es jede Menge Computerspiele wie “Horse World 3D” oder “Die Reitakademie” wo mit viel Liebe zum Detail Reiten und das Drumherum modelliert wurde, aber wo es leider keine Anbindung zu Motion Tracking Systemen mit echten Pferden gibt. Hier ist klar die Informatik gefragt beides zusammenzubringen, also Computerspiel und Realität zu verschmelzen.

VORTEILE
Augmented Reality in der Pferdeausbildung ist besonders wichtig, wenn das Pferd nur schwache Leistungen zeigt. Also beim Turnierreiten regelmäßig auf den hinteren Plätzen landet und Schwierigkeiten hat den Anweisungen des Trainers zu folgen. In der klassischen Pferdeausbildung gelten solche Fälle als hoffnungslos. Der Pferd ist ungeeignet. Wenn man das ganze jedoch von einer anderen Perspektive betrachtet sind gerade solche Pferde ausgezeichnet dafür geeignet, um dort RFID Marker anzubringen und die Bewegungen zu tracken. Weil man dort über das richtige Training am meisten erreichen kann.

Herschaft an Automaten abgeben

https://digitaltownonthemove.wordpress.com/2017/07/15/grenzen-der-kuenstlichen-intelligenz-wohin-wir-gehen-werden/ Das Denken in Herschaft und Kontrolle ist ein typisch männliches Phänomen. Es hat damit zu tun, dass Männer die heute Führungspositionen innehaben — ahnen, dass sie sich da zu unrecht befinden und paranoid gegenüber jener Technologie werden, die besser ist als sie selber: den Roboter. Wenn Roboter die neuen Herren der Welt sind, dann bleibt für die Männer der Schöpfung ja nur noch die soziale Rolle des Sklaven übrig, so das Vorurteil. Betrachtet man jedoch die Einführung von Robotern aus einer anderen Perspektive, beispielsweise der von Cynthia Breazeal werden die sozialen Aspekte in den Vordergrund gerückt. Damit ist gemeint, dass Gemeinschaften nicht hierarchisch funktionieren wo jemand der Anführer ist und alle anderen müssen folgen, sondern wo es um Interaktion, Beziehungen und das Miteinander geht. Die Idee ist, dass mit Einführung von Künstlicher Intelligenz das Machtgefälle an sich abgelöst wird.