Mainzer Studie: KI so glaubwürdig wie ein Mensch

14.04.2024
Campus-News, Studium
Clara Dickescheid

Nach den Ergebnissen einer Studie der Hochschule Mainz und der JGU sind KI-generierte Inhalte genauso glaubwürdig wie menschengemachte Inhalte.

Generative Künstliche Intelligenz (KI) hat die Internetlandschaft revolutioniert. Generativ bedeutet, dass diese Systeme in der Lage sind, Inhalte ohne menschliche Intervention zu generieren. Die Modelle werden durch Training mit einem Datensatz darauf programmiert, das nächste Zeichen (Token) in einer Zeichenabfolge (Sequenz) vorherzusagen. Besonders ChatGPT hat eine große Popularität erreicht und ist laut Reuters die Software mit der schnellsten Wachstumsrate in der Geschichte.

KI so glaubwürdig wie der Mensch

Eine Studie aus dem Jahr 2023 von der Hochschule Mainz und der Universität Mainz hat analysiert, wie Nutzer:innen die Glaubwürdigkeit von Inhalten beurteilen, welche entweder von Künstlicher Intelligenz oder von Menschen erstellten wurden. Bei der Studie wurden den über 600 Teilnehmer:innen Texte zu den Themen “Academy Awards”, “Kanada”, “Malware” und “US Senat” vorgelegt, welche entweder von Menschen verfasst oder von ChatGPT als KI generiert wurden. Die von Menschen geschaffenen Texte entstammen Wikipedia. Nach dem Lesen sollten die Teilnehmer:innen die Glaubwürdigkeit der Texte auf verschiedenen Benutzeroberflächen, also den graphischen Darstellungen eines Programmes, einschätzen.

Prof. Dr. Martin Huschens, Professor für Wirtschaftsinformatik an der Hochschule Mainz und einer der Autoren der Studie, bezeichnet die Erkenntnisse als „überraschend“. Es sei festgestellt worden, dass den KI-generierten Texten die gleiche Glaubwürdigkeit zugeschrieben werde, wie den von Menschen geschriebenen Texten. Darüber hinaus würden Nutzer:innen weniger Zeit damit verbringen, Inhalte zu lesen, welche mit KI erstellt wurden. Faktoren wie Alter, Geschlecht und Bildungsniveau spielten keine signifikante Rolle bei der Wahrnehmung der Glaubwürdigkeit.

Die Texte, welche von Wikipedia stammten, seien laut der Studie weniger klar und fesselnd. Die Benutzeroberflächen hätten kaum einen Einfluss darauf, wie Nutzer:innen die Glaubwürdigkeit und Verständlichkeit von Inhalten, ob von Menschen erstellt oder KI-generiert, wahrnahmen.

Unterschätzte Gefahren von KI

Im Gegensatz zu Plattformen wie Wikipedia, generieren KI-gesteuerte Systeme ihre Inhalte eigenständig auf Basis von Algorithmen, was ihre Anfälligkeit für Fehler erhöht, so die Autoren der Studie. Diese Systeme könnten demnach das Risiko bergen, dass Falschinformationen oder hasserfüllte Inhalte entstehen und letztlich zu Missverständnissen sowie der Verbreitung von falschen Informationen führen. Häufig würden Nutzer:innen dazu neigen, diese Gefahren zu unterschätzen.

Wenn Menschen sich zu sehr auf KI verlassen, könne es passieren, dass Inhalte weniger kritisch hinterfragt werden.. Daher fordern die Autoren der Studie eine Kennzeichnungspflicht für KI-generierte Inhalte. Laut Prof. Dr. Franz Rothlauf, Professor für Wirtschaftsinformatik an der JGU, könnte sonst die Gefahr bestehen, dass „Menschen nicht mehr zwischen Fiktion und Wahrheit unterscheiden“ könnten. Dennoch würden die Autoren allein in der Kennzeichnungspflicht keine ausreichende Maßnahme sehen. Zusätzlich müssten Nutzer:innen aufgeklärt werden und ein Bewusstsein geschaffen werden, wie solche Sprachmodelle funktionieren. Außerdem solle der Umgang mit KI als gesellschaftliches Risiko behandelt werden.

 

 

Campus Mainz e.V. unterstützen!

Campus Mainz e.V. ist ein gemeinnütziger Verein und die meiste Arbeit ist ehrenamtlich. Hilf uns dabei auch in Zukunft tolle Dienste für alle kostenlos anzubieten. Unterstütze uns jetzt!