Machinelles Lernen ist kein Kinderspielzeug

Bei der Jahrestagung wurde Hype von Substanz getrennt

Maschinen können lernen. Wenn sie das in tief gestaffelten Netzwerken tun, die der Verschaltung menschlicher Neuronen nachempfunden sind, spricht man von „deep learning“. Vor zehn Jahren kannte man diesen Begriff noch nicht, mittlerweile sei er aber „unheimlich en vogue“ und auch „in der Medizin ein Buzzword“ geworden, sagte Moderator Stefan Schmitt, stellvertretender Leiter des Ressorts Wissen der ZEIT, zu Beginn der Podiumsdiskussion, die die Möglichkeiten analysierte, die maschinelles Lernen für Diagnostik und Therapie bietet. Auf dem durchaus seriösen Hype Cycle der Unternehmensberatung Gartner stehe Deep Learning ganz oben auf dem Gipfel der überzogenen Erwartungen, den neu aufkommende Technologien in der Regel passieren, bevor sie durch ein tiefes Tal der Enttäuschung gehen, um eventuell eines Tages ein Plateau der Produktivität zu erreichen. „Wir haben uns vorgenommen, Hype von Substanz zu trennen“, gab Schmitt die Richtung der Diskussion vor, zu der er drei Experten begrüßte, die ausgewiesene Grenzgänger zwischen Informatik und Medizin sind: Professor Thomas Berlage, der den Forschungsbereich Life Science Informatik am Fraunhofer Institut für Angewandte Informationstechnik leitet; Sergey Biniaminov, Chef des 2015 von ihm gegründeten Start-ups HS-Analysis und Professor Christian Lippert, der an der gemeinsamen Digital-Engineering-Fakultät der Universität Potsdam und des Hasso-Plattner-Instituts gerade den Studiengang Digital Health aufbaut.

Stark in Bildanalyse und Mustererkennung

Jeder Technologie-Hype verdanke sich medial weit verbreiteten Erfolgserwartungen, sagte Christian Lippert. Die erste Erfolgsgeschichte des maschinellen Lernens sei das individuell gezielte Platzieren von Online-Werbeanzeigen gewesen, womit die großen Internetkonzerne sehr viel Geld verdienten. Andere Unternehmen, die solchen Erfolg in ihrem Geschäftsfeld hätten kopieren wollen, seien aber bald mit der Tatsache konfrontiert worden, dass es „nicht so leicht ist, diese Methoden anzuwenden“. Selbst wenn die Technologie in manchen Bereichen „absoluten Mehrwert“ bringe, seien anderswo für ihre Anwendung noch keine lohnenden Geschäftsmodelle gefunden worden. „Das trifft besonders auch auf den Gesundheitsbereich zu.“ Dort überzeugen lernende Maschinen bisher vor allem durch ihre Fähigkeit zur Bildanalyse, wie Sergey Biniaminov am Beispiel der Auszählung eines Blutbildes mit Hilfe der Software „yolo 3“ veranschaulichte. Die Abkürzung steht für „you look only once“, denn diese Technik erlaubt eine sehr schnelle und zuverlässige automatische Echtzeit-Detektion und Quantifizierung von Objekten in Gewebeproben, sei es für die medizinische Diagnostik oder für die Analyse der Effekte von Wirkstoffkandidaten in der Pharmaforschung.

Die Wissensbasis und Lernziele für ihre Softwarelösungen entwickelt Biniaminovs Firma in Workshops mit Anwendern aus medizinischer Forschung und Praxis kontinuierlich weiter. Im Bereich der Mustererkennung würden Systeme wie beispielsweise die von HS-Analysis schon in absehbarer Zeit dem besten menschlichen Beobachter überlegen sein, prophezeite Christian Lippert. „Letztendlich sind wir aber daran interessiert, Krankheiten zu diagnostizieren und Prognosen über deren Verlauf zu erstellen. Das ist deutlich schwieriger als reine Mustererkennung.“ Theoretisch sei maschinelle Bilderkennung der menschlichen schon heute überlegen, ergänzte Thomas Berlage, „aber wir müssen. noch lernen, den gesamten Prozess so zu gestalten, dass die daraus gewonnenen Erkenntnisse nicht nur einfachZusatzinformationen sind, sondern tatsächlich einen klinischen Benefit haben“. Maschinelles Lernen sei ein Enabler, garantiere aber kein sinnvolles Ergebnis. Früher sei Bilderkennung etwas für „Superspezialisten“ gewesen, heute könne es eigentlich jeder – mit der Konsequenz, dass „beliebig viel Unsinn dabei herauskommen“ könne. So habe etwa IBM kürzlich eine Firma gekauft, die über radiologische Daten von Millionen Patienten verfügte, und auf diese dann die künstliche Intelligenz ihres „Dr. Watson“ angesetzt. 30 Prozent dieser Daten seien jedoch völlig falsch zugeordnet („gelabelt“) gewesen. Erst nach dem richtigen Zuordnen der Daten durch menschliche Experten habe „Dr. Watson“ damit etwas Sinnvolles anfangen können.

Prioritäten für das Thema Medical Dataspace

„Dr. Watson“ sei zwar eine „wunderbare Technologie im Bereich Information Retrieval und Text Mining“, sagte Christian Lippert, werde in seinen Fähigkeiten aber insgesamt überschätzt. „Viele Krankenhäuser haben Watson für extrem viel Geld gekauft, ohne viel von ihm zu haben, zum Teil auch deshalb, weil ihnen die richtigen Daten dafür fehlen.“ Tatsächlich mache die Beschaffung der Daten und deren Qualitätssicherung 85 Prozent des Aufwandes bei Deep-Learning-Anwendungen aus, bekräftigte Berlage. „Deshalb hat für uns bei Fraunhofer das Thema Medical Dataspace hohe Priorität.“ Medizinische Daten kämen ja aus ganz unterschiedlichen Quellen. Sie zu einer konsistenten „Datenpipeline“ zu verknüpfen, sei unbedingt notwendig. „Sie werden Deep Learning nicht produktiv einsetzen können, wenn sie eine solche Pipeline nicht haben.“ Maschinelles Lernen sei eben kein Kinderspielzeug. „Die Vorstellung, durch Deep Learning einfach Nuggets in irgendwelchen Datenmengen zu finden, ist vollkommen naiv.“ Vielmehr bedürfe es einer ständigen Steuerung und Kon trolle durch Datenwissenschaftler.

Noch fünf Jahre bis zur Anwendung?

Auch Mediziner müssten entsprechend aus- und fortgebildet werden. „Data Science ist eine Aufgabe für Menschen, die über Nutzerschnittstellen mit der Maschine verbunden sind und dadurch zu Managern der Maschinenarbeit werden. Das werde in Zukunft zum Beispiel auch für Pathologen gelten, für die Maschinen die routinemäßige Befundung erledigten. Sie müssten sich dann um die Sicherung der Datenqualität und die Weiterentwicklung der Software kümmern. Sergey Biniaminov verfolgt mit seiner Firma nicht nur das Ziel, die Subjektivität aus der Diagnostik zu verdrängen, damit Menschen nicht „ein und dasselbe sehen und es unterschiedlich beschriften“. Er ist auch überzeugt davon, dass man „in die Tiefe von Krankheitsbildern hineingehen kann, deren Ursache noch weitgehend unbekannt ist“, wenn man Deep-Learning- Verfahren auf umfangreiche Datenmengen anwendet, zum Beispiel in der Krebsforschung.

Abgesehen von manchen technischen Hürden, die zu überwinden seien, hält Christian Lippert die Zusammenarbeit zwischen Informatikern und Anwendern für „eine der „Hauptherausforderungen“ auf dem Weg dorthin. „Diese Zusammenarbeit werden wir in unserem neuen Studiengang in den Mittelpunkt stellen“. Deep Learning sei jedoch „kein Allheilmittel“, betonte Lippert. Es könne einem aber viel Arbeit abnehmen. „Mustererkennungen, die simpel und repetitiv sind, sollte kein Mensch machen müssen, Ärzte haben Besseres zu tun."

Mindestens fünf Jahre werde es noch dauern, schätzte Professor Berlage, bevor Unternehmen Deep Learning breit einsetzen würden. Ratsam sei es aber, die Expertise dafür schon heute Schritt für Schritt aufzubauen, auch im Gesundheitswesen. Zunächst würden lernende Maschinen dort wohl vor allem in der Forschung verwendet wer den, vermutete Berlage. „Erst wenn die Technologie ausgereift ist, wird sie auch routinemäßig in der medizinischen Diagnostik eingesetzt werden.“