direkt zum Inhalt springen

direkt zum Hauptnavigationsmenü

Sie sind hier

TU Berlin

Inhalt des Dokuments

Forschung

„Wir müssen heute die Weichen stellen“

Montag, 29. Juli 2019

Die Künstliche Intelligenz entwickelt sich rasant. KI-Experte Toby Walsh, der mit einem ERC-Grant an der TU Berlin forscht, über Möglichkeiten und Risiken für die Zukunft

Mensch und Maschine. Toby Walsh beschäftigt sich mit der Zukunft der Künstlichen Intelligenz. Hautnahen Kontakt mit echten Robotern können Besucher*innen auch im OpenLab der Nachwuchsforschergruppe MTI-engAge der Fakultät IV Elektrotechnik und Informatik der TU Berlin erfahren.
Lupe [1]

Professor Walsh, in Film und Literatur wimmelt es von intelligenten Computern mit menschlichen Persönlichkeiten, die plötzlich die Macht übernehmen, und von Killer-Maschinen, die außer Kontrolle geraten. Müssen wir die Künstliche Intelligenz fürchten?
Vor zwei Jahren fragte die „Times Higher Education“ 50 Nobelpreisträger, was die größte Bedrohung der Menschheit sei. An erster Stelle wurde der Klimawandel genannt, doch auch die Bevölkerungsexplosion, ein Atomkrieg, Ignoranz und Terrorismus wurden als weitaus bedrohlicher eingeschätzt als die Entwicklung der Künstlichen Intelligenz. Wir müssen uns natürlich sehr bewusst sein, dass KI unsere Lebenswelt verändern wird, denn sie wird in allen Bereichen präsent sein: in Verkehr, Gesundheitssystem, Kommunikation, Haushalt und Militär. Und wir müssen uns bewusst sein, dass sie, wie jede Technologie, für Gutes und für Böses genutzt werden kann. Im Jahr 2062 wird die Welt ganz anders aussehen als heute. Deshalb müssen wir heute die Weichen dafür stellen, dass es eine lebenswerte Welt ist. Wir müssen sicherstellen, dass die Menschen noch eine Aufgabe haben, ein Einkommen, dass sie ihre Zukunft selbst gestalten. Philosophen müssen bei der Weiterentwicklung der Maschinen eine Rolle spielen, denn es sind viele ethische Fragen zu lösen. Dann kann uns die KI dienlich sein. Was spricht dagegen, wenn wir nur noch drei statt fünf Tage die Woche arbeiten, um genauso produktiv zu sein, wenn wir dann Zeit haben für Sport, Familie und andere Dinge, die uns wichtig sind?

Computer und Roboter haben besonders die Wirtschaft heute schon effizienter gemacht. Welche weiteren Auswirkungen werden die intelligenten Maschinen der Zukunft auf die Spezies Mensch haben?
Roboter werden uns immer autonomer schwere, schmutzige und gefährliche Arbeit abnehmen. Wenn einer im Krisengebiet auf eine Mine tritt, wird der nächste geschickt. Sie können Krebszellen oder minimale Gefäßverengungen zuverlässiger und schneller detektieren als der Mensch. Sie können Gesichter erkennen, Übersetzungen anfertigen, einfache Konversationen führen, ohne dass man den Unterschied zum echten Menschen leicht feststellen kann, für Terminbuchungen beim Arzt zum Beispiel. Und sie können uns durch zuverlässige und schnelle Berechnungen bei der gerechten und effizienten Verteilung von Waren und Ressourcen helfen. Mit wachsender Weltbevölkerung ist das eine immer dringlichere globale gesellschaftliche Herausforderung. Zu diesem Thema arbeiten wir speziell in unserem Projekt AMPLify (siehe Kasten unten). Darin wollen wir mit Hilfe der mathematischen Spieltheorie und der Verhaltenstheorie ein umfassendes Modell zur effizienten und fairen Verteilung von Gütern und Ressourcen entwickeln. Erste Fallstudien zeigen bereits ein mögliches Einsparpotenzial für Unternehmen von rund zehn Prozent – das können bereits mehrere zehn Millionen Dollar sein.

Maschinen können schon jetzt vieles besser und schneller als Menschen, weil sie schneller, fehlerloser und pausenlos rechnen können. Doch können sie auch irgendwann die gleichen Entscheidungen treffen wie der Mensch? Oder bessere?
Das ist eine faszinierende Frage. Es liegt in unserer Hand, den Computer mit Daten zu füttern, auf deren Grundlage er rational entscheidet. Wir können ihn so programmieren, dass er nicht rassistisch, sexistisch oder anders interessengeleitet entscheidet. Menschen entscheiden nicht zwangsläufig rational. Bei der Verteilung von Organen für Transplantationen zum Beispiel spielen viele ethische und humanitäre Komponenten eine Rolle, man kann nicht einfach Fragen abhaken wie: Wie ist der Mensch versichert? Wie lange hat er natürlicherweise noch zu leben? Ist er vorbestraft? Welchen wirtschaftlichen Wert hat er noch für die Gesellschaft? Doch je mehr Entscheidungen wir an Maschinen delegieren, desto höher ist das Risiko, ethische Grundlagen zu verletzen, denn der Computer unterscheidet nicht zwischen gutem und kontraproduktivem Wissen. Wir sind also diejenigen, die die Weichen stellen für eine bessere und nicht gefährlichere digitale Zukunft. Und wir müssen sie jetzt stellen. Die Künstliche Intelligenz entwickelt sich rasant. Erstens leben heute mehr Wissenschaftler*innen als jemals zuvor – und es werden immer mehr –, und zweitens optimieren sich Roboter durch Maschinelles Lernen selbst und geben neuestes Wissen im Co-Learning-Verfahren an andere Computer weiter.

Was schlagen Sie vor?
Ein sehr wichtiger Punkt ist, autonome Waffen weltweit zu bannen. Eine Maschine sollte nicht die Entscheidungen treffen, wer zu töten ist und wer leben darf. Auch wenn Maschinen irgendwann in der Lage sein sollten, ethisch und nach humanitären Gesichtspunkten zu entscheiden, werden sie niemals vor Hacker-Angriffen geschützt sein. Und eine derart für unethische Zwecke manipulierte Maschine in den Händen von Terroristen und verantwortungslosen Menschen wäre eine riesige Gefahr für die Menschheit. Ich habe daher bereits in den vergangenen Jahren „Offene-Briefe-Kampagnen“ organisiert, um Unterschriften bei politisch verantwortlichen Leuten, bei Wissenschaftler*innen und bei einflussreichen Unternehmen dafür zu sammeln. Ich konnte bewirken, dass das Thema bei den Vereinten Nationen auf die Tagesordnung kam. 28 Nationen haben bereits ihre Zustimmung signalisiert, Deutschland arbeitet derzeit daran.

Vielen Dank!

Das Gespräch führte Patricia Pätzold

Infos unter: www.mti-engage.tu-berlin.de/openlab [2]

Buchtipp - Wird der Homo digitalis dem Homo sapiens ebenbürtig?

Lupe [3]

Werden Roboter ein Bewusstsein entwickeln? Wie kann die Künstliche Intelligenz uns helfen, künftige Herausforderungen für die Menschheit zu lösen? Und: Wie werden in Zukunft Kriege geführt? In seinem populärwissenschaftlichen Buch „2062. Das Jahr, in dem die Künstliche Intelligenz (KI) uns ebenbürtig sein wird“ erklärt der australische Professor Toby Walsh, ein weltweit führender Wissenschaftler im Bereich Künstliche Intelligenz und TU-Gastwissenschaftler, warum die KI-Entwicklung einen Wendepunkt in der Menschheitsgeschichte darstellt. Bis zum Jahr 2062, so prognostiziert er, werden wir Maschinen entwickelt haben, die so intelligent sind wie wir. Der „Homo digitalis“ wird dem „Homo sapiens“ ebenbürtig sein. „Es wird nicht morgen sein“, so Toby Walsh, „aber auch nicht erst in 1000 Jahren.“ Das Jahr 2062 ist vielmehr die durchschnittliche Erwartung von 300 seiner Fachkolleg*innen. Da autonome Maschinen zu diesem Zeitpunkt aber, so Toby Walsh, bereits fester Bestandteil unseres Alltags sein, uns gefährliche, schwere und langweilige Arbeiten abnehmen werden, müssten diese bis dahin auch in der Lage sein, ethisch zu handeln. „Dieses Buch zu schreiben“, so Toby Walsh, „fiel mir nicht besonders schwer. Denn es war die Antwort auf die vielen Fragen, die die Menschen, die Journalist*innen, hatten, nachdem mein erstes populärwissenschaftliches Buch 2017 herausgekommen war: „It‘s Alive!: AI from the Logic Piano to Killer Robots“ (2018 auf Deutsch erschienen unter dem Titel: „It‘s Alive – wie Künstliche Intelligenz unser Leben verändern wird“). „Dort habe ich erklärt, wie sich KI in der Menschheitsgeschichte entwickelt hat, was sie heute kann, und vor allem, was sie nicht kann.“ Das neue Buch, „2062“, stellt die Frage nach der Zukunft und zeigt auf, wohin sich die Superintelligenzen entwickeln könnten, wohin sie sich entwickeln sollten. Es unterstützt vor allem Toby Walshs Plädoyer, heute politisch und gesellschaftlich die Weichen dafür zu stellen, dass wir zukünftig die Vorteile der KI für die menschliche Gesellschaft nutzen können und möglichen Risiken aus dem Weg gehen.

Toby Walsh: 2062 – Das Jahr, in dem die Künstliche Intelligenz uns ebenbürtig sein wird,
riva-Verlag, 2019. ISBN: 978-3-7423-0860-3

Effizienz und Fairness – in seinem ERC-Projekt untersucht Toby ­Walsh, wie Spiel- und Verhaltenstheorien Modelle zur gerechteren Ressourcen- und Kostenverteilung liefern können

„AMPLify – Allocation Made PracticaL“ heißt das Projekt, mit dem Prof. Dr. Toby Walsh die Grundlagen dafür schaffen will, ein dringliches gesellschaftliches Problem zu bewältigen: die gerechte globale Verteilung von Ressourcen und Kosten. Er arbeitet an einem computergestützten umfassenden Modell als rechnerisches Werkzeug für die sogenannte „Zuordnungsforschung“. Diese bezieht Erkenntnisse der Verhaltens- und der Spieltheorie ein. Denn, so Toby Walsh, die aktuellen Mechanismen und einfachen, abstrakten Modelle zur Zuweisung von Ressourcen und Kosten berücksichtigen nicht, wie sich die Menschen tatsächlich verhalten. Dabei geht es um die Zuordnung und Verteilung von vielerlei Gütern, um Wohlstand, Energie, Nahrungsmittel weltweit oder – ganz aktuell – um Organe für Transplantationen. Regional wird die Verteilung von Schul- oder Studienplätzen in den Blick genommen, die Organisation der gemeinsamen Verwendung von Großgeräten oder klinischer Ausrüstung für Wissenschaftler*innen und Mediziner*innen, Transportmöglichkeiten zur Warenverteilung und mehr.
Der Experte für Künstliche Intelligenz Professor Toby Walsh, Mitglied der Australian Academy of Science, leitet das Fachgebiet „Artificial Ingelligence“ an der University of New South Wales (UNSW) in Sydney sowie die Forschung zu Künstlicher Intelligenz des australischen Exzellenzzentrums für Informations- und Kommunikationstechnologien „Data61“. Dort beschäftigt er sich mit Optimierung, Spieltheorie und Sozialwahltheorie (Social Choice Theory). 2016 erhielt er einen Advanced Grant des European Research Council ERC (Europäischer Forschungsrat) in der Programmreihe „Exzellent Science“ in Höhe von rund 2,5 Millionen Euro. Damit hat er an der TU Berlin das Fachgebiet Algorithmic Decision Theory am Institut für Softwaretechnik und Theoretische Informatik aufgebaut, wo das Projekt „AMPLify“ angesiedelt ist.
In der Lehre bietet er Module zu Künstlicher Intelligenz sowie Sozialwahl- und Spieltheorie an, der „AI Summer of Research“ 2019 befasste sich mit den Theorien fairer Verteilung von Ressourcen, mit Spieltheorie, Wirtschaft und Maschinellem Lernen. Im kommenden Wintersemester wird ein entsprechendes Programm angeboten.

www.tu-berlin.de/?176928 [4]

Patricia Pätzold, "TU intern" Juli 2019
------ Links: ------

Zusatzinformationen / Extras

Direktzugang

Schnellnavigation zur Seite über Nummerneingabe

Diese Seite verwendet Matomo für anonymisierte Webanalysen. Mehr Informationen und Opt-Out-Möglichkeiten unter Datenschutz.
Copyright TU Berlin 2008