Wie Forschende den KI-Algorithmen in die Karten blicken
Die Algorithmen hinter künstlichen Intelligenzen gewähren häufig keine Einblicke darüber, wie und warum sie eine bestimmte Entscheidung fällen. Ein Team aus Forschenden untersucht, wie dies geändert werden kann. Ihr Ziel ist es, mit mehr Transparenz auch mehr Vertrauen zu schaffen.
Die "Black Box" von künstlicher Intelligenz (KI) ausleuchten – das ist das Ziel eines Forschungsprojekts der Universität Genf, den Genfer Universitätskliniken (HUG) sowie der National University of Singapore (NUS). Mit ihrer Arbeit wollen die Forschenden "die Tür zu mehr Transparenz und Vertrauen in KI-gestützte Diagnose- und Prognosetools öffnen", wie die Uni Genf mitteilt. Der von ihnen entwickelte Ansatz soll Nutzerinnen und Nutzern künstlicher Intelligenzen helfen zu verstehen, was die von der KI erzeugten Ergebnisse beeinflusst und ob man ihnen vertrauen kann. Besonders wichtig sei dies in Situationen, die erhebliche Auswirkungen auf die Gesundheit und das Leben der Menschen haben, wie etwa der Einsatz von KI in medizinischen Anwendungen.
"Die Funktionsweise dieser Algorithmen ist, gelinde gesagt, undurchsichtig", sagt Forschungs-Co-Leiter Christian Lovis, Direktor der Abteilung für Radiologie und medizinische Informatik an der medizinischen Fakultät der Uni Genf und Leiter der Abteilung für medizinische Informationswissenschaft an der HUG. "Natürlich steht viel auf dem Spiel, insbesondere in finanzieller Hinsicht. Aber wie können wir einer Maschine vertrauen, ohne die Grundlage ihrer Argumentation zu verstehen?"
Methoden der Interpretation bewerten
Um das Innenleben einer KI zu entschlüsseln, gibt es bereits eine Reihe sogenannter Interpretationsmethoden, wie Gianmarco Mengaldo, Direktor des MathEXLab am College of Design and Engineering der NUS, erklärt. "Die derzeitigen Interpretationsmethoden, die in praktischen Anwendungen und industriellen Arbeitsabläufen weit verbreitet sind, liefern jedoch spürbar unterschiedliche Ergebnisse, wenn sie auf dieselbe Aufgabe angewendet werden. Dies wirft die wichtige Frage auf: "Welche Interpretierbarkeitsmethode ist die richtige, da es eine eindeutige, richtige Antwort geben sollte?" Daher sei die Bewertung der Interpretierbarkeitsmethoden ebenso wichtig wie die Interpretierbarkeit an sich.
Entsprechend entwickelte das Forschungsteam zwei Verfahren, um zu messen, wie gut die Interpretierbarkeitsmethoden funktionierten. Die Verfahren sollen zeigen, ob die KI die richtigen Daten für ihre Entscheidungen verwendete und ob alle Daten gerecht berücksichtigt wurden. Erste Ergebnisse ihrer Forschung veröffentlichte die Gruppe bereits in der Fachzeitschrift "Nature Machine Intelligence". Als nächstes plant das Team, seine Methode in einem klinischen Umfeld zu testen, in dem die Besorgnis über KI noch weit verbreitet ist.
An den Genfer Universitätskliniken laufen Forschungsprojekte zu KI in der Medizin schon seit mehr als 30 Jahren. Einen Einblick in einige Projekte und seine Einschätzung zum Forschungsstandort Schweiz gab Christian Lovis im Herbst 2020 im Interview mit der Netzwoche, welches Sie hier nachlesen können.