Wikipedia hat KI-generierte Inhalte in Artikeln verboten. Nur für Korrekturen und Übersetzungen sind Ausnahmen erlaubt.
Photo Credit: Wikipedia
Wikipedia verbietet KI-generierte Texte, um Qualität und Neutralität der Inhalte zu sichern.
Wikipedia hat kürzlich seine Inhaltsrichtlinien aktualisiert und dabei die Nutzung von KI-generierten Texten in Artikeln verboten. Die neuen Regeln untersagen ausdrücklich den Einsatz von großen Sprachmodellen (LLMs) beim Schreiben oder Überarbeiten von Artikeln. Gleichzeitig gibt es jedoch zwei Ausnahmen: Redakteure dürfen KI für Korrekturen (Copyedits) und für Übersetzungen ins Englische nutzen. Trotzdem warnt Wikipedia davor, KI-Tools ohne Vorsicht zu verwenden.
Auf einer neuen Projektseite erklärte Wikipedia: „Die Nutzung von LLMs zur Erstellung oder Überarbeitung von Artikeln ist verboten.“ Die Plattform betont, dass KI-generierte Inhalte von Tools wie ChatGPT, Gemini, Claude oder DeepSeek gegen zentrale Richtlinien verstoßen.
Ein Hauptproblem ist die Überprüfbarkeit und Neutralität. KI kann Inhalte verändern oder falsch darstellen, sodass sie nicht mehr mit den angegebenen Quellen übereinstimmen. Außerdem kann es durch sogenannte Halluzinationen der KI zu Fehlern kommen, was die Qualität der Artikel beeinträchtigt.
Trotzdem erlaubt Wikipedia zwei Ausnahmen. Erstens dürfen Redakteure KI nutzen, um kleine sprachliche Korrekturen vorzuschlagen. Diese dürfen aber nur nach menschlicher Prüfung übernommen werden und dürfen keinen neuen Inhalt hinzufügen.
Zweitens ist die Nutzung von KI für Übersetzungen erlaubt. Dabei müssen solche Texte jedoch als automatisch übersetzt gekennzeichnet und ebenfalls überprüft werden, bevor sie veröffentlicht werden.
Diese Entscheidung kommt zu einer Zeit, in der viele Plattformen zunehmend mit KI-generierten Inhalten gefüllt sind. Kritiker befürchten, dass dies die Authentizität menschlicher Inhalte beeinträchtigen könnte.
Werbung
Werbung