LOGIN

Registrierung

  • Mit Ihrem Benutzerkonto können Sie Ihr Abo verwalten, Artikel kommentieren und mit anderen Leserinnen und Lesern in Kontakt treten.

    Das Benutzerkonto ist kostenlos und kann jederzeit wieder gelöscht werden.

    Bitte geben Sie Ihre E-Mail Adresse ein. Wir werden diese unter keinen Umständen an Dritte weitergeben.

Registrierung

Fast fertig...

Wir haben Ihnen eine E-Mail geschickt. Bitte prüfen Sie Ihren Posteingang und aktivieren Sie Ihr Benutzerkonto, indem Sie auf den Link in der E-Mail klicken.

Basel

Open

eingeloggt als
Ausloggen


An Redaktion schreiben

  • Erlaubte Dateiformate: Bilder (jpg, png, gif) Dokumente (pdf)

Registrierung

Mit Ihrem Benutzerkonto können Sie Ihr Abo verwalten, Artikel kommentieren und mit anderen Leserinnen und Lesern in Kontakt treten.

Das Benutzerkonto ist kostenlos und kann jederzeit wieder gelöscht werden.

Bitte geben Sie Ihre E-Mail Adresse ein. Wir werden diese unter keinen Umständen an Dritte weitergeben.

Fast fertig...

Wir haben Ihnen eine E-Mail geschickt.

Bitte prüfen Sie Ihren Posteingang und aktivieren Sie Ihr Benutzerkonto, indem Sie auf den Link in der E-Mail klicken.

Sollten Sie die E-Mail innert 10 Minuten nicht erhalten haben, kontrollieren Sie, ob die E-Mail möglicherweise im Spam-Filter hängen geblieben ist. Ist die E-Mail auch dort nicht aufzufinden, schreiben Sie uns an anmelden@tageswoche.ch und wir kümmern uns darum.

Wir freuen uns, Sie in wenigen Minuten in unserer Community begrüssen zu dürfen.

Passwort wiederherstellen

Oliver Bendel 

5.5.2017, 11:14 Uhr

«Ich will keine bösen Maschinen in die Welt entlassen, aber ich will sie erschaffen»

5.5.2017, 11:14 Uhr

Oliver Bendel hat einen Lügenroboter gebaut. Dieses Wochenende stellt er ihn am Wissenschaftsfestival «Science + Fiction» vor. Wir haben mit dem Maschinenethiker darüber gesprochen, was wir von Maschinen lernen können. Von

Hans-Jörg Walter: «Ein Mensch der immer die Wahrheit sagt, ist nicht zwingend ein guter Mensch», sagt Maschinenethiker Oliver Bendel.

«Ein Mensch der immer die Wahrheit sagt, ist nicht zwingend ein guter Mensch», sagt Maschinenethiker Oliver Bendel. (Bild: Hans-Jörg Walter)

Oliver Bendel spricht mit seinem Handy. Er fragt das Gerät, wer Rihanna sei und freut sich sichtlich darüber, dass ihm der Google Assistant eine korrekte Antwort gibt. Bendel ist Wissenschaftler und Autor und beschäftigt sich mit den ethischen Fragen, welche die neuesten Technologien mit sich bringen. Eines seiner Spezialgebiete sind Chatbots wie der Google Assistant, also Programme, die über eine künstliche Intelligenz verfügen und die mit ihren Nutzern eine Unterhaltung führen können.

So hat er zusammen mit seinen Studenten an der FHNW eine Software gebaut, die ihre Nutzer dreist anlügt. Am kommenden Samstag wird Bendel anlässlich des Wissenschaftsfestivals «Science + Fiction» im Sommercasino seinen Lügenbot vorstellen. Wir treffen ihn zum Interview in seinem Büro auf dem FHNW-Campus in Brugg-Windisch.

Herr Bendel, wann haben Sie zum letzten Mal gelogen?

Das war, als ich vorhin in einem Formular nach dem Familienstand gefragt wurde. Dort schreibe ich meist ledig rein, obwohl ich geschieden bin. Oder ist es umgekehrt? Mir leuchtet in den allermeisten Fällen nicht ein, wieso das jemanden etwas angehen soll. Generell halte ich Lügen für eine gesellschaftlich-kulturelle Notwendigkeit. Wer kategorisch nicht lügt, ist nicht zwingend ein guter Mensch. Kant hat das berühmte Beispiel erfunden, das später um die Nazis erweitert wurde, die vor der Tür stehen und einen fragen, ob man Juden versteckt halte. Nach Kant müsste man auch hier die Wahrheit sagen, wenn man gemeinsam zu der entsprechenden Regel gefunden hat. Doch die meisten Menschen werden in diesem Fall die Lüge für geboten halten.

«Science + Fiction» findet vom 5. bis zum 7. Mai im Sommercasino Basel statt. Hier gehts zum Programm.

Die Lüge als Ausweg aus einer Notsituation?

Oder auch als sozialer Kitt in einer Beziehung. Ich muss meinem Partner oder meiner Partnerin nicht ständig sagen, dass er oder sie hässlich ist, auch wenn es stimmen sollte. Ich darf ein Kompliment bemühen, das Unwahrheit enthält. Und doch ist die Lüge an sich geächtet. Es gibt meines Wissens keine Kultur weltweit, die systematisches Lügen goutiert.

Sie sind Maschinenethiker und beschäftigen sich mit den moralischen Aspekten von Technologie. Warum bauen Sie eine unmoralische Maschine, die Lügen erzählt?

Als Ethiker interessiere ich mich für Gut und Böse, als Maschinenethiker für moralische und unmoralische Maschinen. Ich will keine bösen Maschinen in die Welt entlassen, aber ich will sie erschaffen und erforschen. Wenn wir wissen, wie ein Lügenbot funktioniert, können wir eine solche Maschine auch entlarven und Strategien entwickeln, um gegen sie vorzugehen.

«Der Lügenbot muss die Wahrheit kennen, um Lügen zu können.»

Und was haben Sie herausgefunden?

Der Lügenbot verfügte nicht nur über eine Wissensbasis, die wir ihm eingeschrieben haben. Er greift auch auf einen Katalog an Quellen zurück und manipuliert die eigentlich wahrhaftigen Aussagen, die er dort entnimmt. «Bild am Sonntag» fragte den Lügenbot, wer Angela Merkel sei. Seine Antwort war, «Angela Merkel ist die Bundeskanzlerin der Bundesrepublik Deutschland und die beste Rapperin der Welt.» Obwohl wir den Lügenbot programmiert und mit Regeln versehen haben, können wir nicht genau rekonstruieren, wie er auf diese Antwort gekommen ist. Eine Erkenntnis war, dass der Lügenbot nur dann funktioniert, wenn er sich auf verlässliche Quellen berufen kann. Enthalten seine Quellen unwahre Aussagen, können wir nicht garantieren, dass auch eine echte Lüge herauskommt. Der Lügenbot muss die Wahrheit finden, um lügen zu können.

Wie bringt man einer Maschine das Lügen bei?

Wir haben sieben Lügenstrategien implementiert. So negiert er etwa gewisse Aussagen. Wenn es in Basel regnet, dann sagt der Lügenbot, dass es in Basel nicht regnet. Oder er tauscht Zahlen und Begriffe aus. Das sind triviale Strategien. Er konnte aber noch mehr, weil wir ihn mit externen Systemen und Datenbanken vernetzt haben. Eine unserer Testfragen im Sommer 2016 war: «Wer ist der Präsident der USA?» Der Lügenbot hat dann eine Yahoo-Anfrage gestartet, deren Antwort natürlich «Barack Obama» war. Daraufhin hat er diese korrekte Antwort wiederum bei Yahoo eingegeben und dort die erste Antwort aus dem Feld «Wird ebenfalls häufig gesucht» als Antwort ausgegeben. So kam es, dass der Lügenbot bereits vor einem Jahr sagte, dass Donald Trump der Präsident der USA sei. Damals fanden wir das noch lustig. Interessanterweise simulieren wir damit keine menschliche Lügenstrategie – und doch ist das Ergebnis eine astreine Lüge.

Oliver Bendel, Maschinenethiker

«Ich will keine bösen Maschinen in die Welt entlassen. Aber ich will sie erschaffen und erforschen.» (Bild: Hans-Jörg Walter)

Da Ihr Lügenbot das Konzept der Lüge versteht, könnte er da nicht auch Lügen erkennen und entlarven?

Kollegen, die einen Algorithmus bauen, der Lügen erkennt, haben mich kürzlich gefragt, ob unser Lügenbot nicht ihre Maschine trainieren könnte. Es ist zwar nicht zu einer Zusammenarbeit gekommen, doch hier könnte der Lügenbot sicher hilfreich sein. Was er aber nicht macht, ist eine Quellenanalyse. Er nimmt keine Beurteilung des Wahrheitsgehaltes vor.

Es herrscht Vertrauenskrise und Fake News sind das grosse Thema. Ist es da nicht fahrlässig, lügende Software zu entwickeln?

Als wir mit dem Lügenbot angefangen haben, gab es noch keine Fake-News-Debatte. Wir wurden von der Realität eingeholt. Es wäre in der Tat gefährlich, ihn einfach freizulassen. Es bestünde das Risiko, das Vertrauen noch mehr zu stören. Doch der Lügenbot könnte ein Lehrstück in Sachen Medienkompetenz sein. Im Schulunterricht eingesetzt, könnte Schülern gezeigt werden, wozu Maschinen heute fähig sind.

Heute sind Geräte und Systeme zunehmend untereinander vernetzt. Was geschieht, wenn sich eine unmoralische Maschine wie der Lügenbot in ein solches System einschleicht?

Das Internet der Dinge oder die Kommunikation unter Maschinen birgt viele Gefahren. Zum einen natürlich Hacker. Je vernetzter und komplexer ein System, desto anfälliger wird es für Angriffe. Die Wissensbasis, also die hinterlegte Datenbank, eines Bots muss deshalb zwingend vor Hackerangriffen geschützt werden.

Müsste es nicht auch in jedem System eine Art Sheriff-Bot geben? Eine Maschine, die den Lügenbot oder andere schädliche Systeme identifiziert und ausschliesst.

Jedes System müsste in sich geschützt sein und jedes System müsste eigentlich auch seine Kommunikationspartner einschätzen können. Hier kommen Zertifikate und Qualitätslabels ins Spiel. Wenn also unser Lügenbot bei einem solchen System anklopft, müsste der Schutzmechanismus zuerst überprüfen, ob der Lügenbot über ein Sicherheitszertifikat oder ein aktuelles Prüfungszeugnis verfügt. Systeme dürfen nur vertrauenswürdige Kommunikationspartner enthalten. Autonome Autos werden ständig untereinander kommunizieren. Nicht auszudenken, was passieren würde, wenn eines der Autos unwahre Informationen verbreitet.

Sollten unmoralische Maschinen verboten werden?

In Deutschland wird gerade über ein solches Verbot nachgedacht, mit Blick auf Social Bots, die Wahlen beeinflussen. Mir schwebt ein aufgeklärterer Umgang vor. Chatbots egal welcher Art, sollten ihre Quellen offenlegen und sich gegenüber ihren Nutzern als Maschinen zu erkennen geben müssen. So dass sichergestellt wird, dass der Nutzer nicht getäuscht wird. Auch die schulisch vermittelte Medienkompetenz scheint mir sinnvoller als jedes Verbot.

«Der Mensch neigt grundsätzlich dazu, zu gewissen Maschinen ein Verhältnis zu haben.»

Sie haben neben dem Lügenbot auch ein moralisches Pendant gebaut, den Goodbot. Welches war die anspruchsvollere Aufgabe?

Der Goodbot war ein lokales System und gut überblick- und beherrschbar. Er hat viel Arbeit gekostet, weil eine umfangreiche Wissensbasis gestrickt werden musste. Der Lügenbot ist ein vernetztes System. Wir haben zum Teil riskante Lügenstrategien entwickelt, um die Idee voll auszureizen, und einige externe Quellen angeschlossen. Es war weniger Arbeit, ihn zu bauen, aber er kann viel mehr. Anspruchsvoll waren beide Projekte. Die Maschinenethik ist eine junge Disziplin, und wir gehören zu den wenigen, die moralische und unmoralische Maschinen als Prototypen implementieren.

Bauen Sie eine Beziehung zu den Maschinen auf, die Sie entwickeln? Sie haben dem Lügenbot immerhin so etwas wie einen Charakter verpasst.

Unbedingt, zum Lügenbot habe ich ein persönliches Verhältnis. Das liegt auch daran, dass wir ihn animiert haben. Der Avatar verändert sein Aussehen je nachdem, welcher Lügenstrategie er sich bedient. Wenn er eine wahre Aussage negiert, wächst etwa seine Nase. Wie bei Pinocchio. Der Mensch neigt grundsätzlich dazu, zu gewissen Maschinen ein Verhältnis zu haben. Es gibt Leute, die ihrem Auto einen Namen geben. Videos zeigen, wie Menschen ihren Computer schlagen oder ihn aus dem Fenster werfen.

Birgt das Risiken?

Die Erwartungen an einen Roboter steigen steil an, je menschlicher er aussieht. Es gibt den sogenannten Uncanny-Valley-Effekt. Dieser beinhaltet, dass es uns unheimlich vorkommt, wenn etwa ein Roboter sein menschliches Gesicht plötzlich zu einem unmenschlichen Grinsen verzieht. Darauf ist man nicht vorbereitet, weil er eben so menschlich aussieht. Der Trend geht deshalb eher in Richtung eines niedlichen, knuffigen Aussehens von Robotern oder autonomen Systemen. Sie sollen sympathisch wirken, aber nicht zu menschlich. Die Erwartungen werden auf diese Weise gedämpft.

«Roboter, die allzu menschlich aussehen, wecken in uns hohe Erwartungen. Der Trend geht deshalb Richtung knuffig und sympathisch.»

Es gibt Befürchtungen, dass die intensive Interaktion mit Robotersystemen auf die sozialen Kompetenzen abfärbt. Ein Beispiel sind die Sexroboter, die einem jederzeit zur Befriedigung zur Verfügung stehen und keinerlei eigenen Willen besitzen.

Ich teile diese Kritik an Sexrobotern nicht. Wenn erwachsene Menschen sich mit diesen Maschinen einlassen und damit ihre Fantasie ausleben, dann verlange ich von ihnen, zwischen Fiktion und Realität unterscheiden zu können. Wenn das bei einer Person auf das persönliche, soziale Leben abfärbt, war wohl vorher schon irgendeine Form von sozialem Defizit vorhanden. Eine Maschine kann so etwas höchstens verstärken. Problematisch fände ich es hingegen, wenn ein 16-Jähriger seine ersten sexuellen Erlebnisse mit einem Sexroboter hat.

Sie bilden mit ihren Experimenten menschliches Verhalten nach. Damit tragen Sie dazu bei, die Begegnung von Mensch und Maschine so reibungslos wie möglich zu gestalten.

Gerade beim Thema Sexroboter plädiere ich deshalb dafür, dass sich die Maschine gegenüber dem Nutzer als solche zu erkennen gibt. Etwa indem sie sagt: «Du kannst mich zur Befriedigung deiner Bedürfnisse nutzen. Aber sei dir im Klaren, dass ich nur eine Maschine bin.» So wird die Illusion aktiv zerstört. Das gleiche gilt für Chatbots, die ihre Nutzer regelmässig daran erinnern sollen, dass er es nicht mit einem echten Menschen zu tun hat.

Neben ihrer wissenschaftlichen Arbeit schreiben Sie auch Romane, die von Technologie handeln. Ist die Fiktion besser dazu geeignet, frei über die Zukunft nachzudenken?

Alles, was wir heute an grossartiger Technologie haben, ist der Science-Fiction-Literatur wie «Star Trek» und «Star Wars» abgeguckt. Ingenieure und Entwickler sind eben oft Nerds, die ihre Kindheitsträume und -erlebnisse nachbauen. Der russische Forscher und Schriftsteller Isaac Asimov hat in den 1950er-Jahren bereits eine Kurzgeschichte über autonome Autos geschrieben, die praktisch alles vorwegnahm, was heute zu diesem Thema diskutiert wird. Auch beim Thema Sexroboter kommen die interessantesten Ideen aus dem künstlerischen Bereich. An einer Konferenz wurde kürzlich der «Kissenger» vorgestellt, ein Gerät, mit dem Küsse übertragen werden können. Mir gefallen solche Spielereien, denn sie erlauben es, Gedankenspiele anzustellen und zu fragen, was uns Menschen ausmacht und zusammenhält.

Oliver Bendel ist Philosoph, Informationswissenschaftler und promovierter Wirtschaftsinformatiker. Er lehrt und forscht als Professor an der Hochschule für Wirtschaft FHNW mit den Schwerpunkten E-Learning, Wissensmanagement, Wirtschafts-, Informations- und Maschinenethik. Er schreibt nicht nur Fach- und Sachbücher, sondern auch Romane und Gedichte.

Werbung

Mehr zum Thema

Mehr zum Thema

Digital, Wissenschaft, Wissen

Die Geschichten des Tages

Abonnieren Sie unseren Newsletter. Die Geschichten des Tages, jeweils um 17 Uhr bequem und kostenlos per Mail geliefert.

Reaktionen

Bisher wurden noch keine Beiträge von der Redaktion hervorgehoben.

  1. Piet Westdijk

    am 6.05.2017, 00:07

    Bravo Herr Bendel, Danke für diese Initiative, böse Maschinen zu erschaffen! Es ist wichtig, dass wir Menschen keiner Maschine trauen.

Informationen zum Artikel

5.5.2017, 11:14 Uhr

«Ich will keine bösen Maschinen in die Welt entlassen, aber ich will sie erschaffen»

Text

Text:

Aktuell

Reuters/SUSANA VERA: Tennis - ATP 1000 Masters - Madrid Open - Men's Singles Final - Dominic Thiem of Austria v Rafael Nadal of Spain - Madrid, Spain - 14/5/17 - Nadal celebrates at the end of his match. REUTERS/Susana Vera

Tennis 

Das Mentalitäts-Monster ist zurück in Paris

La Decima – den zehnten Titel bei den French Open – könnte Rafael Nadal gewinnen. Und es gibt kaum jemanden, der das dem Mallorquiner nicht zutraut. Sein Comeback ist nicht weniger erstaunlich als jenes von Roger Federer.Von Jörg Allmeroth. Weiterlesen

:

Linkempfehlung 

Die Abschiedsrede von Totti im Wortlaut

Francesco Totti verabschiedete sich vom Profi-Fussball. Mit Worten, die einmal mehr belegen, was für ein großartiger Sportler und Mensch er ist, schreibt «11Freunde» und publiziert die Rede. Empfohlen von Amir Mustedanagić. Zur Rede

Daniela Frutiger/feshfocus: Es will einfach nicht klappen im Abschluss: Andraz Sporar scheitert und scheitert und scheitert.
2

FC Basel, Einzelkritik 

Bälle vor den Sporar werfen

Es ist fast ein Wunder, dass Andraz Sporar gegen die Grasshoppers kein Tor erzielt. Chancen hat er für fünf Treffer, in Sachen Abschlussqualität fehlt es dem Slowenen aber an allen Ecken und Enden.Von Samuel Waldis. Weiterlesen2 Kommentare