Zum Inhalt springen

Kritische Prüfung von KI-generierten Inhalten

    Generative KI-Tools wie beispielsweise ChatGPT oder Claude können in Sekundenschnelle Inhalte erstellen, von wissenschaftlich anmutenden Texten bis hin zu kreativen Geschichten. KI-Tools generieren Inhalte auf Basis von Wahrscheinlichkeiten und bestehenden Daten, sie sind jedoch nicht dafür gemacht, die Wahrheit zu garantieren. Ohne kritische Überprüfung besteht die Gefahr, Fehlinformationen zu verbreiten. Doch wie kann man sicherstellen, dass diese Inhalte auch tatsächlich korrekt und vertrauenswürdig sind? Eine einfache Eselsbrücke, die dabei helfen kann, ist der sogenannte ROBOT-Test.

    Was ist der ROBOT-Test?

    Der ROBOT-Test ist ein Werkzeug, das dabei unterstützt, Informationen systematisch auf ihre Glaubwürdigkeit zu überprüfen. Der Name steht für fünf zentrale Kriterien:

    Reliability (Zuverlässigkeit):

    Wie zuverlässig sind die Informationen über die KI-Technologie? Wenn die Quelle nicht vom Entwickler der KI stammt, welche Qualifikationen hat der Autor? Wenn sie vom Entwickler stammt, wie umfassend ist die verfügbare Information? Ist sie durch Geheimhaltung eingeschränkt? Wie voreingenommen könnte sie sein?

    Objective (Zielsetzung):

    Was ist das Ziel der Nutzung der KI? Und was ist das Ziel, Informationen darüber zu teilen? Geht es darum, zu informieren, zu überzeugen oder finanzielle Unterstützung zu gewinnen?

    Bias (Voreingenommenheit):

    Welche Faktoren könnten Bias in der KI-Technologie verursachen? Gibt es ethische Probleme, die damit verbunden sind? Werden Bias oder ethische Probleme von der Informationsquelle, den Entwicklern der KI oder deren Nutzern anerkannt?

    Ownership (Eigentümerschaft):

    Wer ist der Eigentümer oder Entwickler der KI-Technologie? Handelt es sich um ein privates Unternehmen, eine Regierung oder eine Forschungseinrichtung? Wer hat Zugang zu der Technologie und wer kann sie nutzen?

    Type (Typ):

    Um welchen Typ von KI handelt es sich? Welches Sprachmodell liegt der Ki zugrunde? Benötigt die KI menschliches Eingreifen? Ist die KI/das Modell auf spezielle Anwendungsbereiche optimiert?

    Zusätzliche Fragen zur Prüfung von KI-Inhalten

    Während der ROBOT-Test uns hilft die generative KI an sich einzuschätzen, können folgende Fragen helfen, die Qualität und Zuverlässigkeit von KI-generierten Inhalten gezielt zu bewerten:

    Wer ist der Autor?

    Texte und Bilder, die von KI generiert werden, haben keinen menschlichen Autor, basieren jedoch auf Daten von Menschen mit möglichen Vorurteilen. Kann der KI-Algorithmus zwischen voreingenommenem und neutralem Material unterscheiden?

    Was ist das Zielpublikum?

    KI-generierte Inhalte können auf jedes Publikum zugeschnitten werden. Wie beeinflusst dies die Objektivität der Informationen?

    Welches Ziel verfolgt der Inhalt?

    Wurde der Inhalt erstellt, um zu informieren, zu überzeugen, Geld zu verdienen oder zu unterhalten? KI kann überzeugende Inhalte erstellen, die schwer als falsch oder irreführend zu erkennen sind.

    Wo wurde der Inhalt veröffentlicht?

    War es eine wissenschaftliche Publikation, eine Webseite oder eine Organisationsseite? Ist die Quelle bekannt für zuverlässige Informationen?

    Sind Quellen angegeben?

    Werden Zitate oder Verweise angeboten? Sind diese nachverfolgbar und verifizierbar?

    Ist die Information echt oder eine Halluzination?

    KI-Systeme können Inhalte generieren, die wie Fakten erscheinen, aber völlig falsch sind („Halluzinationen“).

    Fazit

    KI ist ein nützliches Werkzeug, aber kein Ersatz für menschliches Urteilsvermögen. Der ROBOT-Test hilft dabei, Inhalte kritisch zu bewerten und sicherzustellen, dass sie korrekt und relevant sind. Indem wir diese Prinzipien verinnerlichen, können wir nicht nur Fehlinformationen vermeiden, sondern auch die Chancen, die KI bietet, verantwortungsvoll nutzen.

    Quellen und zusätzliche Informationen: