zum Hauptinhalt
ChatGPT könnte auch die Wissenschaft umkrempeln.

© picture alliance / NurPhoto / JAKUB PORZYCKI

Täuschend echte Wissenschaft: Studien-Abstracts künstlicher Intelligenz kaum als Fälschung erkennbar

Mit echtem Material gefüttert kann ein Chatbot Texte verfassen, die wie wissenschaftliche Zusammenfassungen erscheinen, so eine Studie. Forschende sind alarmiert.

Wissenschaft wird von Menschen gemacht? So ganz sicher kann man sich diesbezüglich nicht mehr sein. Einer auf biorxiv.org veröffentlichten Studie zufolge kann das Programm „ChatGPT“, eine künstliche Intelligenz (KI), so überzeugende wissenschaftliche Zusammenfassungen (Abstracts) schreiben, dass Forscher sie nicht von solchen unterscheiden können, die Menschen verfasst haben.

Ein Team um Catherine Gao von der Chicagoer Northwestern University ließ ChatGPT auf Basis von Abstracts medizinischer Studien aus hochrangigen Fachjournalen neue Abstracts erstellen. Anschließend legten sie die Originale und Fälschungen automatischen Plagiatssuchprogrammen, einem KI-Detektor und menschlichen Gutachtern zur Prüfung vor. Die Plagiatssoftware versagte völlig. Der KI-Detektor erkannte die Fälschungen nur zu 66 Prozent und auch die Gutachter entlarvten nur 68 Prozent der Fake-Abstracts.

„Sehr besorgt“ äußerte sich Sandra Wachter, Expertin für Technologieregulation der Uni Oxford, im Fachblatt „Nature“.

Es drohe der Verlust des „Mittelsmanns“ bei der Einordnung komplizierter Themen. Gaos Team empfiehlt Fachverlagen, KI-Detektoren einzusetzen, um das Einhalten wissenschaftlicher Standards zu gewährleisten. (skb)

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false