direkt zum Inhalt springen

direkt zum Hauptnavigationsmenü

Sie sind hier

TU Berlin

Inhalt des Dokuments

Forschung

Einblicke in die „Black Box“ ­maschinelle Lernsysteme

TU- und Fraunhofer-Wissenschaftler machen maschinelles Lernen interpretierbar

Prof. Dr. Klaus-Robert Müller und Dr. Wojciech Samek vor dem von ihnen entwickelten System, bei dem ein spezieller Algorithmus anhand von Gesichtsfotos Alter und Geschlecht ermittelt
Lupe

Autonom fahrende Autos werden es nutzen, in der Medizin gibt es bereits erste Anwendungen und heute schon setzen Facebook, Alexa und Co. das sogenannte Machine Learning (maschinelles Lernen) in vielen Bereichen ein. Go-Weltmeister werden von maschinellen Lernsystemen besiegt und man will sie einsetzen, um zum Beispiel sogenannte Gewebe-Schnellschnitte auf Krebszellen zu untersuchen.
Woran genau erkennen künstliche neuronale Netze einen umstürzenden Baum, oder wie identifizieren sie eigentlich Krebszellen?

„Maschinelle Lernsysteme waren bislang eine Art ,Black Box‘“, gesteht Prof. Dr. Klaus-Robert Müller, Fachgebietsleiter für Maschinelles Lernen an der TU Berlin.

„Gerade bei sicherheitsrelevanten oder medizinischen Fragen legen die Anwender aber Wert darauf, zu verstehen, worauf ein Lernsystem seine Entscheidung begründet“, weiß Dr. Wojciech Samek, Gruppenleiter am Fraunhofer Heinrich-Hertz-Institut, der gemeinsam mit Klaus-Robert Müller und anderen die „Layer-wise Relevance Propagation“ (LRP), eine Methode zum Verständnis neuronaler Netze, entwickelt und patentiert hat. Bleibt die hochkomplexe Mathematik dahinter den Nicht-Mathematikern meist verschlossen, lässt sich doch das Prinzip erahnen: Im übertragenen Sinne bestehen tiefe neuronale Netze aus verschiedenen Schichten untereinander verbundener, selbstlernender algorithmischer Elemente, die ähnlich wie menschliche Neuronen im Gehirn aufgebaut und stark vernetzt sind. Werden diese Lernsysteme trainiert, zum Beispiel Bäume zu erkennen, macht man das mit Bildern, auf denen – unter anderem – die verschiedensten Bäume zu sehen sind. Für das Training der Lernmaschinen wird aber nicht der Baum „rot eingekreist“, sondern das gesamte Bild erhält das Label Baum oder Nicht-Baum. Das System bekommt immer wieder Rückmeldungen, bis alle Entscheidungsbäume sich selbstständig so angepasst und verschoben haben, dass möglichst jeder Baum auf jedem Bild erkannt wird.

„Mit LRP zerlegen wir die einzelnen Entscheidungen sozusagen im Rückwärtsgang und betrachten, welche Neuronen welche Entscheidung getroffen haben und wie stark diese Entscheidung zu dem Endergebnis beigetragen hat“, beschreibt Dr. Wojciech Samek.

Das Ergebnis kann optisch in einer sogenannten „Heatmap“ dargestellt werden. „Diese zeigt, welche Pixel in dem Bild ganz besonders stark zu der Eingruppierung des Bildes beigetragen haben. Diese Methode, Ergebnisse neuronaler Netze zu interpretieren, ist ein ganz entscheidender Schritt nach vorn, vor allem, da das System nicht nur bei der Bilderkennung, sondern universal einsetzbar ist. Es macht den Einsatz von datengetriebenen Lern-Algorithmen in vielen Fällen (vor allem in den lebenswichtigen) überhaupt erst sinnvoll möglich“, weiß Prof. Klaus-Robert Müller.   

www.heatmapping.org

Katharina Jung, "TU intern" 9. Oktober 2017

Zusatzinformationen / Extras

Direktzugang

Schnellnavigation zur Seite über Nummerneingabe

Diese Seite verwendet Matomo für anonymisierte Webanalysen. Mehr Informationen und Opt-Out-Möglichkeiten unter Datenschutz.