OpenAI-Detektor kann KI-Texte nicht zweifelsfrei erkennen
Die Entwicklung von Programmen, welche künstliche Intelligenzen (KI) nutzen, schreitet voran. Der von KI-Programmen produzierte Output ist in vielen Fällen kaum noch von menschlicher Schaffenskraft zu unterscheiden. Selbst die Macher des beliebten Chatbots ChatGPT stoßen bei der Erkennung von KI-basierten Texten an ihre Grenzen.
• Sprachmodelle erstellen scheinbar menschliche Texte
• ChatGPT-Macher stellen Entwicklung von KI-Detektor ein
• Entwicklung von Sprachmodellen stellt Bildungswesen vor Herausforderung
OpenAI: Pionier in der Entwicklung künstlicher Intelligenz
In der Ära der künstlichen Intelligenz (KI) hat OpenAI zweifellos eine führende Rolle bei der Entwicklung von bahnbrechenden Sprachmodellen, wie beispielsweise ChatGPT, eingenommen. Diese Modelle basieren auf einer umfangreichen Sammlung menschlicher Texte, die ihnen als Grundlage dienen, um neue Texte zu erzeugen. Mithilfe von Deep Learning-Algorithmen erlernen diese Modelle die Struktur und das Muster der Sprache, um beeindruckend kohärente und scheinbar menschliche Texte zu erstellen. Doch obwohl diese Technologie enorme Fortschritte gemacht hat und Potenziale in vielen Bereichen des Privat- und Berufslebens bietet, bleibt eine zentrale Herausforderung bestehen: Die Fähigkeit, zweifelsfrei zu bestimmen, ob ein Text von einer künstlichen Intelligenz oder einem menschlichen Autor stammt. Trotz ihrer überlegenen Leistung und beeindruckenden Fähigkeiten stoßen selbst die fortschrittlichsten Modelle von OpenAI an Grenzen, wenn es darum geht, diese entscheidende Unterscheidung zu treffen.
Entwicklung von KI-Detektor aufgrund "geringer Genauigkeit" eingestellt
Wie aus einem OpenAI-Blog-Eintrag vom 31. Januar 2023, hervorgeht, arbeitete das Unternehmen an einem Programm, welches erkennen sollte, ob zu untersuchende Texte von einem Menschen oder einer künstlichen Intelligenz verfasst wurden. Das Programm wurde von OpenAI als AI Classifier bezeichnet.
In einer aktualisierten Version des Blog-Eintrages teilte das Unternehmen am 20. Juli 2023 mit, dass die Bemühungen zur Entwicklung eines KI-Detektors eingestellt wurden. Als Grund für das Ende des Projektes führt OpenAI die "geringe Genauigkeit" des KI-Detektors an. Gleichzeitig kündigte das Unternehmen an, neue Mechanismen zu entwickeln und einzusetzen, die es Benutzern ermöglichen zu erkennen, ob Inhalte von einer künstlichen Intelligenz generiert wurden.
Regulierung von KI-Nutzung im Bildungswesen
Die rasante Entwicklung von Sprachmodellen wie ChatGPT hat in einigen Bereichen des Lebens Forderungen nach einer Regulierung der neuartigen Technologie hervorgerufen. So widmet sich beispielsweise das Ministerium für Schule und Bildung des Landes Nordrhein-Westfalen in einem ausführlichen Beitrag den Potenzialen und Herausforderungen, welche die Anwendung von Sprachmodellen wie ChatGPT im Bildungswesen mit sich bringen. Ein Aspekt ist die erlaubte beziehungsweise unerlaubte Verwendung von KI-Programmen. Demzufolge handelt es sich bei der unerlaubten und nicht angezeigten Verwendung von KI-Programmen "um eine Täuschung über die Autorenschaft", welche als unzulässiges Hilfsmittel und Täuschungsversuch gewertet wird. Die Erkennung von KI-generierten Inhalten sei jedoch schwierig.
Redaktion finanzen.net
Weitere News
Bildquellen: Minerva Studio / Shutterstock.com, Den Rise / Shutterstock.com