Künstliche Intelligenz in der Medizin

März 2018 erschien im Wirtschaftsmagazin „Forbes“  wieder ein Artikel über Künstliche Intelligenz (=KI)  innerhalb der Medizin – eine Wechselwirkung, die den Verfassern von „Forbes“   am Herzen zu liegen scheint.

Link-> einige Beispiele für KI und Medizin

Am 16.3.2018  fungierten innerhalb des Artikels Medizin, KI und Ethik als Hauptdarsteller – der Faktor Kosteneinsparung wurde diesmal von der Bühne verbannt – Ethik war im Blickpunkt.

Da Entscheidungen innerhalb der Medizin meist erhebliche Konsequenzen haben, werden computerbasierte Entscheidungshilfen allerdings auch zu Recht nach ihrer ethischen Gewichtung hinterfragt.

Zur Beleuchtung der ethischen Stolpersteine erlaube ich mir einige Erklärungen:

Den  Definitionsdschungel durch die angloamerikanische intelligence und die deutsche,  humanfixierte Intelligenz möchte ich  vermeiden und Künstliche Intelligenz(=KI)  als automatisiertes  intelligentes Verhalten und Maschinenlernen umschreiben.

Eine weitere funktionale  Aufteilung in eine schwache KI und eine starke (menschenähnliche)  KI scheint mir bei der Erarbeitung ethischer Probleme ebenso hilfreich zu sein.

Die schwache KI unterstützt nur menschliche Entscheidungsfindungen, hat aber dennoch die Fähigkeit des maschinellen Lernens  und kann mit unsicheren Ausgangslagen sowie deren Wahrscheinlichkeiten  umgehen.

Die schwache KI arbeitet  mit mathematischen und logischen Algorithmen, besitzt zu keiner Zeit ein eigenes Bewusstsein – der Lernvorgang muss aber schon im KI-System integriert sein  – nachträgliches, imperatives Programmieren sollte nicht sein.

Ich durfte selber einige Jahre mit dem Entwicklungssystem Personal Consultant Plus von TI arbeiten und kann mich gut an die  Stellschrauben der certainty factors erinnern, die sich das XP-System bei gehäuftem Einsatz  auch selber verstellen kann.

Und hier kommt die unmittelbare ethische Verantwortung der menschlichen Erstanwender zum Tragen, der  ja den Umfang des maschinellen  Lernens und damit die Selbstregulierung des Systems beeinflussen – was wiederum bedeutet:

Jeder Einsatz von KI  innerhalb der Medizin muss von Ärzten ( nicht Technikern, „Gesundheitsexperten“ oder gar Patientenanwälten) überwacht werden, da sich KI-Systeme  weiterentwickeln   und genauso wie Menschen Falsches lernen können und dadurch falsch entscheiden.

Gefährlich wäre dann der nächste Schritt: die sofortige Weitergabe   falscher KI-Daten in ein kollektives, maschinelles Wissen, wo es ungeprüft und überhastet zum Schaden anderer weiterverwendet werden könnte.

Link-> Use of Artificial Intelligence Raises Ethical Questions.

Der Unterschied zwischen gebräuchlicher Programmierung mit  eindeutiger Verantwortung und einer selbstlernenden KI, die   selbsterweiternd ist, kann nicht deutlich genug wiederholt werden.

Aus der bekannten, klar imperativen Programmierung wird eine zunehmend  logisch autonom agierende Entscheidungshilfe, die man durch Konfrontation mit unbedingt unverfälschten Informationen sorgsam „erziehen“ muss.

KI wird noch über einen sehr, sehr langen Zeitraum lediglich „decision support“ sein, nur bei  zeitweisem starkem Mangel an ärztlichen Personal, wie  in Kriegs- und Katastrophenzeiten, wird die Gewichtung sich mittelfristig verschieben. Es ist möglicherweise im militärischen Gefechtseinsatz mit autonom entscheidender medizinischer Notfall-KI  zu rechnen.

Link-> AI in Emergency – Hope or Hype?

Zum Abschluss noch ein kurzes Video über Röntgendiagnostik und KI

facit: die Vorteile der  KI in der Medizin werden etwaige Probleme wohl deutlich überwiegen.  Wichtig ist die Erkenntnis,  mit der KI über ein   Werkzeug zu verfügen, welches völlig neue Verantwortungsbereiche durch das  Angebot der Lerninhalte schafft.

Günter Koderhold

 

 

 

Schreibe einen Kommentar