Inhalt des Dokuments
TU- und Fraunhofer-Wissenschaftler machen maschinelles Lernen interpretierbar
- Prof. Dr. Klaus-Robert Müller und Dr. Wojciech Samek vor dem von ihnen entwickelten System, bei dem ein spezieller Algorithmus anhand von Gesichtsfotos Alter und Geschlecht ermittelt
[1]
- © TU Berlin/PR/Christian Kielmann
Autonom fahrende Autos
werden es nutzen, in der Medizin gibt es bereits erste Anwendungen und
heute schon setzen Facebook, Alexa und Co. das sogenannte Machine
Learning (maschinelles Lernen) in vielen Bereichen ein. Go-Weltmeister
werden von maschinellen Lernsystemen besiegt und man will sie
einsetzen, um zum Beispiel sogenannte Gewebe-Schnellschnitte auf
Krebszellen zu untersuchen.
Woran genau erkennen künstliche
neuronale Netze einen umstürzenden Baum, oder wie identifizieren sie
eigentlich Krebszellen?
„Maschinelle Lernsysteme waren bislang eine Art ,Black Box‘“, gesteht Prof. Dr. Klaus-Robert Müller, Fachgebietsleiter für Maschinelles Lernen an der TU Berlin.
„Gerade bei sicherheitsrelevanten oder medizinischen Fragen legen die Anwender aber Wert darauf, zu verstehen, worauf ein Lernsystem seine Entscheidung begründet“, weiß Dr. Wojciech Samek, Gruppenleiter am Fraunhofer Heinrich-Hertz-Institut, der gemeinsam mit Klaus-Robert Müller und anderen die „Layer-wise Relevance Propagation“ (LRP), eine Methode zum Verständnis neuronaler Netze, entwickelt und patentiert hat. Bleibt die hochkomplexe Mathematik dahinter den Nicht-Mathematikern meist verschlossen, lässt sich doch das Prinzip erahnen: Im übertragenen Sinne bestehen tiefe neuronale Netze aus verschiedenen Schichten untereinander verbundener, selbstlernender algorithmischer Elemente, die ähnlich wie menschliche Neuronen im Gehirn aufgebaut und stark vernetzt sind. Werden diese Lernsysteme trainiert, zum Beispiel Bäume zu erkennen, macht man das mit Bildern, auf denen – unter anderem – die verschiedensten Bäume zu sehen sind. Für das Training der Lernmaschinen wird aber nicht der Baum „rot eingekreist“, sondern das gesamte Bild erhält das Label Baum oder Nicht-Baum. Das System bekommt immer wieder Rückmeldungen, bis alle Entscheidungsbäume sich selbstständig so angepasst und verschoben haben, dass möglichst jeder Baum auf jedem Bild erkannt wird.
„Mit LRP zerlegen wir die einzelnen Entscheidungen sozusagen im Rückwärtsgang und betrachten, welche Neuronen welche Entscheidung getroffen haben und wie stark diese Entscheidung zu dem Endergebnis beigetragen hat“, beschreibt Dr. Wojciech Samek.
Das Ergebnis kann optisch in einer sogenannten „Heatmap“ dargestellt werden. „Diese zeigt, welche Pixel in dem Bild ganz besonders stark zu der Eingruppierung des Bildes beigetragen haben. Diese Methode, Ergebnisse neuronaler Netze zu interpretieren, ist ein ganz entscheidender Schritt nach vorn, vor allem, da das System nicht nur bei der Bilderkennung, sondern universal einsetzbar ist. Es macht den Einsatz von datengetriebenen Lern-Algorithmen in vielen Fällen (vor allem in den lebenswichtigen) überhaupt erst sinnvoll möglich“, weiß Prof. Klaus-Robert Müller.
www.heatmapping.org [2]
00710/TU_intern/Bilder/2017/Oktober/2017_10_10_TU_Berli
n_vlnr_Wojciech_SAMEK_Klaus_Robert_Mueller_Fakultaet_IV
_Copyright_Christian_Kielmann-0565.jpg