Sie revolutioniert die Kommunikation. Und sie gefährdet Arbeitsplätze. Rund um die künstliche Intelligenz ChatGPT ist in den letzten Wochen ein unglaublicher Hype mit großen Erwartungen, aber auch Befürchtungen entstanden. Die Gesundheitsplattform 10xD bot im Rahmen einer Online-Veranstaltung einen Einblick in die Möglichkeiten des Sprachassistenten und beleuchtete Chancen und Risiken aus medizinischen, juristischen und philosophischen Blickwinkeln. Geleitet wurde der Austausch von Prof. Dr. David Matusiewicz, Dekan der FOM Hochschule und Mitglied des Advisory Board von 10xD.
Einmal schnell „Prävention von Diabetes bei jungen Menschen“ eintippen und die Enter-Taste drücken: Wenige Sekunden später erscheint auf dem Bildschirm ein Content-Beitrag für einen Gesundheits-Blog. „Der Artikel ist noch nicht fertig. Aber ein erster Entwurf lässt sich in weniger als einer Minute erstellen“, erläuterte Dr. Jonathan Mall, Co-Founder des KI-Textgenerator Neuroflash, bei seiner Live-Vorführung. Der Text werde neu generiert, die Wahrscheinlichkeit von Plagiatsanteilen unter einem Prozent. Vor einer Veröffentlichung müsse der von der KI erstellte Beitrag gleichwohl auf Logik überprüft und die Fakten gecheckt werden.
Die KI könne aber nicht nur Texte erstellen, so Jonathan Mall weiter. Sie könne auch bewerten, welche Emotionen Texte beim Leser wecken. Der Entwickler ist daher überzeugt, dass die KI die Kommunikation verbessert.
Eine beeindruckende Demonstration. Prof. Dr. Thomas Druyen, Präsident der Opta Data Zukunfts-Stiftung, ist gleichwohl überzeugt: „Wir stehen erst am Anfang und vor einer gigantischen Entwicklung.“ ChatGPT und andere KI folgten einer exponentiellen Entwicklung. Druyen rechnet daher mit einer „epochalen Transformation“. Dabei befürchtet er, dass Deutschland beim KI-Rennen abgehängt werden könne, da politische oder Bildungs-Hierarchien die Entwicklung ablehnten. Thomas Druyen forderte einen offeneren und ehrlicheren Diskurs. „Die medizinische Beratung wird besser werden.“ Die aktuellen Zustände seien nicht die besten, da dürfe man sich nichts vormachen. Daher plädierte er für eine Änderung des Mindsets, „weil Rückwärtsgewandtheit keine Chancen bietet“.
Alexander Pröll ist Geschäftsführer von Entrance Robotics. Das Unternehmen versteht sich als Wegbereiter zukunftsweisender Care Solutions auf Basis humanoider Robotik für Kliniken und Pflegeeinrichtungen. Das Robotermodell „Pepper“ könne mit ChatGPT vorkonfiguriert werden, erklärte der Robotikexperte. Dadurch passe es sein Verhalten individuell seinem Gegenüber an, zum Beispiel einer 90jährigen, an Demenz erkrankten Person. Pepper biete damit Potential als „Alltagsbegleiter“ und eine „in vielerlei Hinsicht humanoide Kommunikation“.
Grenzen von Chat GPT
Die Texte von ChatGPT würden sich für Laien alle gut lesen lassen“, leitete Prof. Dr. Rüdiger Buchkremer vom Institut für IT-Management und Digitalisierung an der FOM Hochschule in seine Ausführungen ein. Allerdings bediene sich der Sprachassistent bei Google nur zu 2 Prozent aus wissenschaftlichen Quellen, der Rest sei ungeprüft. Im Ergebnis könne der Nutzer folglich „grob fehlerhafte“ Ergebnisse erhalten, die nicht im Einklang mit den wissenschaftlichen Leitlinien seien. ChatGPT eigne sich aber zur Strukturierung sowie zur Vereinfachung des Fachjargons.
Dass die Ergebnisse von ChatGPT nicht ungeprüft übernommen werden können, verdeutlichte auch Prof. Dr. Dr. Jens Kleesiek, Leiter Medical Machine Learning am Institut für KI in der Medizin (Universitätsmedizin Essen). Der Sprachassistent schreibe laut des amerikanischen Forschungsunternehmens OpenAI manchmal plausibel klingende, aber falsche oder unsinnige Antworten. Das Programm reagiere empfindlich auf Änderungen in der Eingabeformulierung oder auf mehrfache Versuche mit der gleichen Eingabeaufforderung. Darüber hinaus sei das Modell oft zu weitschweifig.
Seine Leistungsfähigkeit ist dennoch enorm. Kleesiek zitierte eine Studie, nach der ChatGPT ohne spezielles Training an der Grenze sei, das medizinische Examen zu bestehen.
Die Chancen der Technik sieht der Praktiker u.a. in der Zusammenfassung der Krankengeschichte oder bei der Erhebung der Anamnese. In der Universitätsmedizin Essen werde die Anwendung genutzt, um in Befundtexten mit Hilfe eines medizinischen Q&A schnell gewünschte Informationen zu befinden.
ChatGPT: juristische Fragen
Ist ChatGPT ein Medizinprodukt? Wer haftet? Und was ist mit der Schweigepflicht? Für Juristen sei die schnelle Entwicklung der künstlichen Intelligenz eine enorme Herausforderung, berichtete Prof. Dr. Alexandra Jorzig, Mitglied des Advisory Board von 10xD. Die Einstufung von ChatGPT als Medizinprodukt würde die Juristin eher verneinen. Die Haftung liege auch weiter grundsätzlich beim Arzt, da ChatGPT keine neuen Erkenntnisse liefere. Die Schweigepflicht könnte verletzt werden, wenn der so genannte PROMPT (die Arbeitsaufforderung an ChatGPT) Rückschlüsse auf die Identität des Patienten geschlossen werden könnten.
Sollen wir so etwas entwickeln?
„Wir sind an einem Wendepunkt. Es geht ans Eingemachte.“ Zum Abschluss der Veranstaltung setzte sich Prof. Dr. Stefan Heinemann von der FOM Hochschule mit ethischen Fragen rund um die Entwicklung künstlicher Intelligenzen auseinander.
Die neue Technologie befreie die Menschen nicht nur von unliebsamer Bürokratie. „Sie externalisiert das Denken selbst. Das ist der Unterschied.“ Die Gesellschaft profitiere in der Medizin etwa von weniger Fehlern, ist sich Stefan Heinemann bewusst. Gleichwohl will der Ethiker auf die Gefahr aufmerksam machen, dass mit dem Einzug von KI in den Bereich des Denkens und Mitfühlens der Mensch nach und nach das vernachlässige, was ihn ausmache. „Wir dürfen nicht aus Bequemlichkeit auf das Denken verzichten. Es darf nicht das Ziel sein, Menschen als fühlende Wesen zu ersetzen.“ Eigene soziale Kompetenzen ließen sich nicht an eine Maschine delegieren.
Heinemann warnte außerdem vor weiteren Spaltungen der Gesellschaft durch den Einsatz von KI. Gesellschaftliche Ziele wie Gerechtigkeit dürften in Verbindung mit KI nicht aus den Augen verloren werden.
Mehr über 10xD
10xD (10x Digital Health GmbH) versteht sich als eine Plattform für exponentielles Wachstum im Gesundheitswesen. Als Formate sollen Corporate Challenges, Events, Startup bzw. Investor Scouting, Unternehmens- und Politikberatung ins Zentrum gerückt werden.
10xD definiert sich als branchenübergreifender Think Tank mit dem Schwerpunkt Healthcare. Das Unternehmen soll sich selbst in ständiger Transformation befinden.