Studien der Universität Hohenheim zeigen, dass Künstliche Intelligenz (KI) in der Bilderkennung, speziell bei der Erkennung von Tumoren, oft bessere Ergebnisse liefert als medizinisches Fachpersonal. Trotz dieser Überlegenheit sind viele Expertinnen und Experten in der Medizin sowie in anderen Bereichen zögerlich, wenn es darum geht, KI-Technologien anzuwenden. Ein Hauptgrund für diese Skepsis ist das Misstrauen gegenüber den Empfehlungen von KI-Systemen.

Besonders im privaten Kontext neigen Nutzerinnen und Nutzer dazu, Chatbots zu stark zu vertrauen, insbesondere bei sensiblen Themen wie Lebens- und Moralfragen. Dabei unterschätzen sie oft den Einfluss, den KI auf ihre Meinungsbildung hat. Sie glauben, dass sie auch ohne KI die gleichen Einsichten erhalten hätten. Prof. Dr. Matthias Uhl von der Universität Hohenheim hebt hervor, es sei entscheidend, Strategien zu entwickeln, um den Umgang mit KI bewusst und reflektiert zu gestalten.

Kritik an der Eigenverantwortung von Fachleuten

Trotz der klaren Vorteile, die KIs in der medizinischen Bilddiagnose bieten können, zeigen viele Fachleute Skepsis. Diese Skepsis kann riskant sein, da gerade die fachmännische Überprüfung von KI-Vorschlägen entscheidend für die Patientensicherheit ist. Die Forschung hat gezeigt, dass je höher das Selbstvertrauen der Fachgerechtigkeit ist, desto eher Neigen sie dazu, KI-Empfehlungen zu ignorieren.

Um das Vertrauen in KI zu fördern, ist es entscheidend, diese als unterstützende Entscheidungshilfe zu verstehen und gleichzeitig die Verantwortung beim Menschen zu belassen. In einem interessanten Ansatz könnte KI bei Lebens- und Moralfragen durch sokratische Rückfragen wertvolle Denkanstöße geben, anstatt nur einfache Antworten zu liefern. Studien haben gezeigt, dass Probanden, die mit solchen interaktiven Chatbots kommunizierten, ein ethischeres Verhalten an den Tag legten.

Vertrauen und Transparenz in der Medizin

Das Ethyde-Projekt beschäftigt sich intensiv mit den ethischen Fragestellungen rund um die Zusammenarbeit von Mensch und Maschine. Aktuell werden verschiedene Lösungen entwickelt, die darauf abzielen, KI transparenter und vertrauenswürdiger zu gestalten. Ein geplanter Praxistest zur Entwicklung von KI-gestützten Anwendungen für medizinische Bilder und Fachpersonal könnte bis Ende 2027 vorangebracht werden.

Werbung
Hier könnte Ihr Advertorial stehen
Ein Advertorial bietet Unternehmen die Möglichkeit, ihre Botschaft direkt im redaktionellen Umfeld zu platzieren

Ein weiterer Aspekt der Diskussion ist die wachsende Bedeutung von KI in der medizinischen Praxis. Ein Forschungsteam des Bosch Health Campus und der Universitäten Bayreuth und Bristol hat ein Modell vorgestellt, das darauf abzielt, das Vertrauensverhältnis zwischen Ärzten und Patienten im Umgang mit KI zu erhalten. Eckhard Nagel von der Universität Bayreuth betont, dass Vertrauen entscheidend für den Behandlungserfolg und die Patientenzufriedenheit ist.

Die Vorschläge der Forschungsgruppe umfassen unter anderem die Einbeziehung medizinischer Fachkräfte und Patienten in den Entwicklungsprozess von KI-Systemen sowie die Schaffung von Transparenz, um Diskriminierungen und Anwendungsgefahren zu vermeiden. Darüber hinaus sollen standardisierte Informationen für Fachgruppen bereitgestellt werden, um ihren Informationsbedarf gerecht zu werden.

Ein Aufruf zur Regulierung

Zusätzlich fordern die Forscher eine strenge Überprüfung der Zuverlässigkeit von medizinischer KI, vergleichbar mit anderen Behandlungsmethoden. Lena Zuchowski von der Universität Bristol plädiert dafür, eine Diskussion zu initiieren, die dazu führen sollte, klare Regularien für den praktischen Einsatz von KI in der Medizin zu etablieren.

Insgesamt zeigen die Ergebnisse und Diskussionen, dass der Einsatz von KI in der Medizin sorgfältig überdacht werden muss. Während die Technologie verblüffende Möglichkeiten bietet, müssen Ärzte und Fachpersonen darauf vertrauen können, dass die Systeme zuverlässig und ethisch arbeiten.