Projekt Digital

Der Blog für digitale Business Leader

KI kann Leben retten… bei guter Dokumentation

Wie das Online-Magazin Daily Campus berichtet, wird seit kurzem eine selbstlernende KI als diagnostisches Hilfsmittel für Tuberkulose und HIV eingesetzt. Forscher geben Daten in das System ein und erhalten anschließend die Information darüber, ob ein Patient die Krankheit hat oder nicht. Ist das ein Meilenstein in Sachen praktische Anwendung von KI in der Medizin oder müssen wir uns mit der Euphorie noch zurückhalten? Vieles hängt bei dieser Frage von der Dokumentation ab!

Im genannten Fall hatte der Computer auf den ersten Blick exzellente Arbeit geleistet. Allerdings war dabei der genaue Mechanismus unbekannt, denn die KI verwendete einen „Blackbox“-Algorithmus. Ähnlich wie in Bezug auf weite Teile des menschlichen Hirns, fehlen den Forschern also Informationen darüber, wie der Algorithmus – und damit die Verarbeitung der verfügbaren Daten – überhaupt aussieht.

Nicht jedes Wissen ist richtiges Wissen

Analysten fanden heraus, dass die Maschine eine sogenannte Top-down-Verarbeitung der Bilder verwendete, was bedeutet, dass auch Wissen von außerhalb der Merkmale des eigentlichen Problems miteinbezogen wurde. Mit anderen Worten nutzte das System Informationen, die nicht bewusst durch die Forscher zur Verarbeitung eingegeben wurden.

In diesem Fall wertete der Computer Informationen darüber aus, welche Art von Röntgenbild zur Erstellung des Bildes verwendet wurde – ein Umstand, der mit dem Patienten selbst erst einmal nichts zu tun hat.

Ergebnisse können nur überprüft werden, wenn Sie nachvollziehbar sind

Cynthia Rudin, Professorin für Computerwissenschaften an der Duke University, gibt zu bedenken, dass Blackboxes durchaus problematisch seien und dass eine bessere Lösung darin bestünde, ausschließlich erklärbare Modelle zu verwenden. Vor Allem argumentierte sie dabei damit, dass es für Mediziner nur dann zweifelsfrei möglich sei, die Ergebnisse der Arbeit seriös zu überprüfen, wenn der Algorithmus nachvollziehbar auf klinischem Wissen aufgebaut wird.

Unzureichende Dokumentation kann Leben zerstören

Auch Außerhalb der Medizin wurden in der Vergangenheit bereits Blackbox-Modelle eingesetzt. Im Bereich der Strafjustiz etwa wurden sie zur Ermittlung von Risikobewertungen von Kriminellen herangezogen. Im Bereich der Kriminologie ergab eine Post-mortem-Analyse jedoch, dass die KI „COMPAS“, die dazu bestimmt war, das kriminelle Risiko unabhängig von Vorurteilen zu bewerten, europäisch-amerikanische Kriminelle schlechter bewertete als sie es bei Afroamerikanern tat. Der Fehler lag hier zum Teil lediglich in der Kodierung bestimmter Verbrechenskategorien. Nicht ausschließlich in der Medizin, sondern auch in einem solchen Fall ist nur mit ausreichender Dokumentation sichergestellt, dass Fehler gefunden und eliminiert werden können.

Eine wichtige Herangehensweise für die Wissenschaft ist die Replizierbarkeit oder das Prinzip, dass theoretisch ein anderer Wissenschaftler die gleichen Verfahren anwenden könnte und in der Lage wäre, Beweise dafür zu liefern, ob der signifikante Befund der Wahrheit entspricht oder nicht.

Die Überprüfung, ob die Blackbox der KI eine richtige Entscheidung getroffen hat, ist jedoch kaum möglich, da es kein Verfahren gibt, das angewendet werden kann, um sicherzustellen, dass das Ergebnis korrekt ist. Außer aber, es würden jedes Mal darüber hinaus konventionelle Tests durchgeführt, um versehentliche Fehldiagnosen zu vermeiden. Das jedoch würde die Idee, mithilfe von KI schnellere und zuverlässige Erkenntnisse zu erlangen, ad absurdum führen.

Wenn die Menschen das Verfahren dahingegen nicht verifizieren und die Analyse bestätigen können, wären die Ärzte gezwungen, die Analyse zu akzeptieren und somit ihre Behandlung auf Grundlage der Entscheidungen einer Maschine zu treffen. Letzteres dürfte jedoch nicht nur behandelnden Ärzten, sondern insbesondere auch Patienten nicht gefallen.

Künstliche Intelligenz muss kontrollierbar bleiben

Erst eine ordentliche und nachvollziehbare Dokumentation ermöglicht es dem Menschen, die relevanten Daten zu verifizieren. Ebenso ermöglicht die Dokumentation Analysten, dieselben Daten zu verwenden, um vergleichbare Ergebnisse zu reproduzieren und implizite Verzerrungen zu erkennen, die nicht von den Programmierern berücksichtigt wurden oder so nicht vorgesehen waren. Gleiches gilt für die Nachvollziehbarkeit der angewandten Methodik, die die KI nutzt, um zum Ergebnis zu kommen.

Noch ist künstliche Intelligenz ohnehin nicht weit genug entwickelt, um den Menschen bei Entscheidungen von hoher Wichtigkeit zu ersetzen. Die zunehmende Komplexität von Daten und Rechenprozessen zeigt jedoch, wie enorm wichtig eine nachvollziehbare Dokumentation ist, um seiner Daten Herr zu bleiben und darauf basierend sinnvolle und logische Entscheidungen treffen zu können.