Schlaglichter

Schlaglicht der Schweizerischen Gesellschaft für Dermatologie und Venerologie

Lernende Computeraugen – ­Ersetzen sie uns oder ­verleihen sie uns diagnostische Superkräfte?

DOI: https://doi.org/10.4414/smf.2019.03456
Veröffentlichung: 02.01.2019
Swiss Med Forum. 2019;19(0102):10-12

Prof. Dr. med. Dr. sc. nat. Alexander Navarini

Dermatologische Klinik, Universitätsspital Basel

Schätzen Sie diesen Moment, wenn Sie das Konsultationszimmer betreten und es kommt Ihnen sofort eine Verdachtsdiagnose in den Sinn? Dann lesen Sie jetzt weiter.

fullscreen

Hintergrund

Wer möchte denn nicht den blitzschnellen Durchblick des bekannten Meisterdetektivs Sherlock Holmes besitzen, der im Handumdrehen aus Indizien die richtigen Muster erkennt? Aber wo hat der Meisterdetektiv diese Fähigkeiten wohl gelernt? Kaum einer weiss, dass sein Lehrer ein Arzt war. Der Sherlock-Holmes-Autor, Sir Conan ­Doyle, war Assistent beim bekannten Chirurgen Joseph Bell gewesen, der sein Umfeld täglich mit scharfsinnigen Beobachtungen überraschte [1]. Auch der Dermatologe Ferdinand von Hebra aus Wien erriet jeweils sekundenschnell den Beruf der Patienten, indem er klinische Muster suchte wie zum Beispiel einen Kallus am Daumen, der typischerweise bei Schneidern auftrat.

In dieser Tradition versuchen wir Dermatologen, möglichst gute Beobachter zu sein – wissen wir doch, dass dies für uns bildbasierte Kliniker der Schlüssel zum Erfolg sein kann. So wird jede/r Patient/in augenblicklich von Kopf bis Fuss gemustert und mentale Verdachts­diagnosen werden in den Raum gestellt, bevor überhaupt die Anamnese begonnen wird. Diese kann dann gezielt die Diagnose bestätigen oder die falsche Fährte aufzeigen.

Dieser Moment der Erkennung ist ein Höhepunkt unserer täglichen Tätigkeit. Das visuelle Erkennen in der klinischen Situation wurde sogar hirnphysiologisch studiert [2] und es findet sich zwischen Laien und Experten ein Unterschied im Elektroenzephalogramm im Moment der Erkennung. Es liegt nahe, dass auch ein kleiner Endorphinschub hinzukommen könnte. Jedenfalls macht uns das Suchen nach diesen Mustern erfahrungsgemäss grosse Freude. Es gibt übrigens auch recht viele Dermatologen, die ornithologisch interessiert sind – wo auch wieder eine Mustersuche im Vordergrund ist. Es wundert also niemanden, dass die Dermatologen von allen Spezialisten die höchste Zufriedenheit aufweisen [3], denn ein Grund ist: Wir lieben das Muster der Dermatosen!

So ist es umso besorgniserregender, dass uns Computer den Rang abzulaufen drohen bei der Erkennung der Hautkrankheiten. Wird uns dadurch diese Kompetenz genommen und müssen wir uns in eine reine Beratungsfunktion zurückziehen? Ich glaube nicht, dass die aktuellen Entwicklungen soweit gehen werden – hingegen lohnt es sich, einen zweiten Blick auf die aktuelle Technologie zu werfen.

Maschinelles Lernen

Künstliche Intelligenz ist die Fähigkeit einer Maschine, menschliches Verhalten zu imitieren [4]. Dies kann von grosser Nützlichkeit sein. In der Luftfahrtindustrie ist der Autopilot als Paradebeispiel schon früh unverzichtbar geworden. Wenn diese Computer nun auch noch dazulernen können, sind wir im Bereich des maschinellen Lernens (ML).

ML bedeutet, dass man dem Computer beibringt, mittels Beispielen Regeln zu definieren und diese daraufhin zu verallgemeinern [5]. Es handelt sich also nicht um einfaches Auswendiglernen, sondern um das graduelle Erkennen von Mustern und Gesetzmässigkeiten in einem Datensatz. Das Spannende daran ist, dass man dem Computer ganz neue Daten vorsetzen kann und er dann selbstständig entscheiden kann.

Diese Ansätze sind keineswegs neu – nur die Art und Weise, wie der Computer lernt, hat sich kontinuierlich verändert. Die relativ simplen ersten ML-Modelle werden zunehmend durch komplexere ersetzt, die im Aufbau einem neuronalen Netzwerk ähneln sollen. ­Obschon ein funktionierendes ML dem Laien als High-Tech erscheint, gab es schon in den 50er Jahren beispielsweise einen Mechanismus, der das Geschlecht von Personen erkennen konnte anhand simplem Vorzeigen eines Passfotos vor die Linse eines Detektors.

Nach einer längeren Ruheperiode aufgrund mangelnder Rechenkapazität für die Weiterentwicklung kam es in den letzten Jahren zu einem technologischen Schub bei der verfügbaren Hardware. Nun konnten ML-Systeme in nützlicher Frist trainiert werden. Der Erfolg spricht für sich – fast jeder Wirtschaftsbereich wurde mittlerweile in verschiedenen Aspekten durch ML verändert und alle unter uns sind mittlerweile mit lernenden Maschinen konfrontiert worden.

Diese Ansätze stecken im Vergleich zu den eigentlichen Möglichkeiten auch heute noch in den Kinderschuhen – aber können teilweise trotzdem schlicht Unglaubliches erreichen. Als ich kürzlich in Hongkong war, übersetzte die «Google Word Lens» live mit der Smartphone-Kamera die Schriftzeichen auf der Speisekarte und zeigte direkt im Videobild überlagert die Übersetzung. Allerdings bei Weitem nicht perfekt; es gab noch viele amüsante Fehler wie zum Beispiel ein Gericht namens «Treibsand-Hühnchen». Dies ist vielleicht bezeichnend für die ersten Ansätze, die wir aktuell sehen. Es ist nicht mehr so schwer, eine ungefähre Erkennung hinzubekommen und für Demonstrationen und triviale Werkzeuge reicht das häufig auch aus.

Hingegen ist es noch sehr aufwendig, ein ML-System mit sehr hoher Genauigkeit zu bauen – und diese Genauigkeit braucht es gerade für kritische Situationen wie die Medizin oder autonomes Autofahren. Deshalb sind hier erst seit Kurzem Fortschritte erzielt worden, die konkret nützlich erscheinen. In der Dermatologie ist das Beurteilen von Nävuszellnävi (Muttermalen) und die Erkennung von Melanomen ein ganz wichtiges Thema. Hier liegt das Anwenden von ML auf der Hand und so wurden seit den 80er Jahren auch immer wieder Studien dazu publiziert. Im 2017 aber kam eine grosse Arbeit im Nature Journal heraus [6], die anhand von mehr als 129 000 Digitalbildern ein ML-System konstruierte, das im Schnitt ­besser war als 21 (amerikanische) Dermatologen bei der Unterscheidung Nävus versus Melanom und ­seborrhoische Keratosen versus spinozelluläres Karzinom. Diese Arbeit steht nicht allein, sondern ist als prominentestes Beispiel für die fortgeschrittenen technischen Möglichkeiten zu werten, die nun in der Klinik validiert und bezüglich Nützlichkeit evaluiert werden müssen.

Sollten sich diese Ansätze als robust erweisen bezüglich Anwendung ausserhalb einer klinischen Situation, dann könnte jeder Konsument mit dem Smartphone seine Muttermale überprüfen. Tatsächlich gibt es jetzt schon viele Apps dafür – die natürlich jede Haftung ausschliessen. Diese könnten trotzdem die Medizin verändern – nur schon, da sie auch als Zweitmeinung genutzt werden könnten.

Unsere Forschung in diesem Bereich konzentriert sich auf das Erkennen und Messen von entzündlichen Haut­erkrankungen. So haben wir zusammen mit der Hochschule Luzern ML-Systeme für Ekzeme [7, 8], Psoriasis und andere Krankheiten erstellt. Hier haben wir Bilder von gesunden Händen und Ekzemen von Dermatologen beurteilen lassen, die angezeichnet haben, wo das Ekzem zu sehen war. So konnten wir dem Computer beibringen, welche Regionen einem Ekzem, gesunder Haut oder Hintergrund entsprechen. Derartige Systeme sollen irgendwann zur Früherkennung und Quantifizierung von beispielsweise Handekzemen genutzt werden (Abb. 1). Sie haben den Vorteil, dass die Variabilität zwischen Ärzten wegfällt.

fullscreen
Abbildung 1:A) Digitalphotographie eines Patienten mit chronischem Handekzem. 
B) Differenzierung der Hände vom Hintergrund. C) Segmentierung der von Ekzem 
betroffenen Areale und Flächenmessung.

Der Lernprozess ist sehr aufwendig und braucht Hochleistungs-Computer, die parallel prozessieren können und eine Lernmodell-Datei fabrizieren. Diese Strategie birgt einen entscheidenden Vorteil: Man kann das Lernmodell dann unbegrenzt kopieren und in viel kleineren Computern einsetzen, teilweise auch im Smartphone.

Einer der aktuell wichtigsten Schwachpunkte des ML ist die fehlende Erklärungsmöglichkeit. Wenn zum Beispeil ein Nävuszellnävus als Melanom eingestuft wird, dann gibt es keine konkrete Rückmeldung vom ML-Modell, warum dies geschehen ist. Das ist natürlich nicht besonders vertrauenserweckend und zudem intellektuell unbefriedigend. Trotzdem ist die Information je nachdem sehr wertvoll und wird im Regelfall klinische Konsequenzen nach sich ziehen.

Am Problem der fehlenden Erklärbarkeit wird aktuell intensiv gearbeitet, um mit aufwendigen Umwegen mindestens die Bildregion anzeigen zu können, die für die Entscheidung Melanom/Nävus relevant war. Ideal wäre natürlich, wenn wir die einzelnen klinischen Zeichen angezeigt bekämen wie zum Beispiel grauer Schleier, irreguläre Pigmentstruktur, fehlende Symmetrie. Allerdings sind diese Zeichen eventuell nicht das Wichtigste für die korrekte Diagnose, denn die gelernte Erkennungsfähigkeit ist etwas Quasi-Rationales. So gab es auch schon, bevor klinische Zeichen beschrieben worden waren, sehr gute Dermatoskopie-Spezialisten. Diese konnten mit guter Treffsicherheit ein Melanom von ­einem Nävus unterscheiden. Das bedeutet, sie konnten das pathologische Muster erkennen, ohne dies im Detail logisch begründen zu können.

Vielleicht werden wir mit ML-Systemen, welche die entscheidungsrelevanten Zonen anzeigen, plötzlich neue klinische Zeichen identifizieren können, die der Mensch gar nicht sieht. Oder es könnten auch ganz neue Schlüsse gezogen werden. Je mehr Daten vorhanden sind, desto kraftvoller sind ML-Ansätze, denn sie können Informationen berücksichtigen, die der Mensch nicht nutzen kann. So kann etwa aufgrund eines hochauflösenden Retina-Scans der Computer nicht nur gleich gut wie Ophthalmologen Pathologien erkennen, sondern auch problemlos Geschlecht, Nikotinabusus und das 5-Jahres-Risiko für schwere kardiovaskuläre ­Ereignisse des Patienten [9] voraussagen  – wozu ein Mensch nicht imstande ist.

Bei diesen Ansätzen hat der Datenschutz oberste Priorität. Er muss gewährleistet sein und idealerweise nichtkommerziellen Anbietern überlassen werden. Glücklicherweise werden unsere Spitalinfrastrukturen heute ja mit diesem Fokus gebaut oder revidiert. So können wir eingebettet in eine sichere Umgebung auch ehrgeizigere Ansätze verfolgen als nur die 2D-Photographie. Am Universitätsspital Basel haben wir neu einen 3D-Ganzkörper-Scanner, der die gesamte Hautoberfläche photographiert, alle Pigmentmale identifiziert, bewertet und über die Zeit verfolgen kann. Diesen bieten wir nebst der Standard-Nävuskontrolle an und erwarten dadurch eine relevante Qualitätsverbesserung. Da der Computer immer gleich genau arbeitet, könnte die Chance sinken, Befunde zu verpassen. Allerdings sollten auch solche Interventionen prospektiv untersucht werden, und wir werden mit der Zeit sehen, wie hoch die «number needed to scan» (NNS) ist, um ein zusätzliches Melanom zu identifizieren.

Diskussion

Zusammengefasst ist ML sehr vielversprechend und wird aller Wahrscheinlichkeit nach einen Qualitätsgewinn bringen. Ganz generell sollten wir neue Methoden aufnehmen und korrekt untersuchen, um den Nutzen für den Patienten herauszufinden. Nicht nur in der Dermatologie, auch in anderen Disziplinen hat ML Erstaunliches geleistet. So können ML-Systeme nicht nur Bilder erkennen, sondern mit Einbezug von anderen klinischen Daten auch viel besser und früher als traditionelle Algorithmen die Mortalität bei hospitalisierten Risikopatienten voraussagen [10].

ML-Systeme bieten allerdings auch ein grosses Potential, etablierte Strukturen zu verändern. Kraftvolle ­Diagnostik in die Hände von Laien zu geben, ist nicht unbedenklich. Die Öffentlichkeit wird lernen müssen, damit umzugehen, denn Schweizer Gesetze können unsere Patienten beispielsweise nicht von einer Melanomdiagnose der App aus den USA schützen.

Die Kompetenz der Erkennung klinischer Muster wird uns als Experten keineswegs genommen werden. Die attraktive Möglichkeit, ML-Systeme als Entscheidungsunterstützung im Bildbereich zu nutzen, wird hingegen sicherlich zunehmend genutzt. Man wird seine Verdachtsdiagnose beispielsweise mit dem ML-System noch einmal rasch überprüfen wollen.

Tatsächlich wird unsere Rolle als Berater und Vertrauensperson unserer Patienten noch viel stärker werden. Die persönliche Interaktion, Empathie und Identifikation als Mensch ist diejenige Rolle, die dem Computer verwehrt bleibt [11]. Und so ist es schön zu sehen, dass im Medizinstudium gerade auf diese Fähigkeiten auch mehr Gewicht gelegt wird als früher.

Disclosure statement

Der Autor hat keine finanziellen oder persönlichen Verbindungen im Zusammenhang mit diesem Beitrag deklariert.

Credits

Kopfbild: © Amandee | Dreamstime

Korrespondenzadresse

Prof. Dr. med. Dr. sc. nat. Alexander Navarini
Dermatologische Klinik,
Universitätsspital Basel
Petersgraben 4
CH-4031 Basel
alexander.navarini[at]usb.ch

Literatur

 1 Klauder JV. Sherlock Holmes as a dermatologist, with remarks on the life of Dr. Joseph Bell and the Sherlockian method of teaching. AMA Arch Derm Syphilol. 1953;68(4):363–77.

 2 Rourke L, Cruikshank LC, Shapke L, Singhal A. A neural marker of medical visual expertise: implications for training. Adv Health Sci Educ Theory Pract. 2016;21(5):953–66.

 3 Report ML. Self-reported happiness from over 15800 doctors. 2017; https://www.theatlas.com/charts/Bky37RQIe. Accessed 15.09.2018, 2018.

 4 Wikipedia Contributors. Artificial intelligence. 2018; https://en.wikipedia.org/w/index.php?title=Artificial_intelligence&oldid=860888339.

 5 Bishop CM. Pattern recognition and machine learning. New York: Springer; 2006.

 6 Esteva A, Kuprel B, Novoa RA, et al. Dermatologist-level classification of skin cancer with deep neural networks. Nature. 2017;542(7639):115–8.

 7 Suter C, Navarini AA, Pouly M, et al. Detection and Quantification of Hand Eczema by Visible Spectrum Skin Pattern Analysis. Frontiers in Artificial Intelligence and Applications. 2014(ECAI 2014):1101–2.

 8 Koller T, Navarini AA, Pouly M, Schnürle S, vor der Brück T. On using Support Vector Machines for the Detection and Quantification of Hand Eczema. Paper presented at: Proceedings of the 9th International Conference on Agents and Artificial Intelligence2017.

 9 Poplin R, Varadarajan AV, Blumer K, et al. Prediction of cardiovascular risk factors from retinal fundus photographs via deep learning. Nature Biomedical Engineering. 2018;2(3):158–64.

10 Rajkomar A, Oren E, Chen K, et al. Scalable and accurate deep learning with electronic health records. npj Digital Medicine. 2018;1(1):18.

11 Colvin G. Humans are underrated : what high achievers know that brilliant machines never will. New York, New York: Portfolio/Penguin; 2015.

Verpassen Sie keinen Artikel!

close