ChatGPT & Co.: Bedrohungen und Sicherheitsrisiken identifiziert
Zum ersten Mal hat ein Unternehmen einen Chatbot, mit einem derartigen Ausmaß an Möglichkeiten, jedem frei verfügbar gemacht. Die Rede ist von ChatGPT, dem Chatbot des US-amerikanischen Startups OpenAI.
KI: Sprachmodelle wie ChatGPT in aller Munde
Lange ist es her, dass eine technische Neuerung den öffentlichen Diskurs so beeinflusst hat, wie ChatGPT es nun seit einigen Monaten tut. Egal ob es Schüler, Studenten, Unternehmer, Büro-Angestellte oder interessierte Technik-Enthusiasten sind, jeder erhofft sich seinen Vorteil von dem neuen Tool.
ChatGPT kann ein breites Spektrum an Fragen beantworten und funktioniert in vielen Sprachen. Weshalb auch besonders viele Menschen mit der Künstlichen Intelligenz herumspielen. Allerdings handelt es sich dabei weniger um einen erstmaligen technischen Meilenstein, sondern vielmehr um eine Demonstration des aktuellen Stands, auf dem sich solche Large Language Models (LLMs) befinden. Diese LLMs sind Programme, welche die Benutzereingaben automatisiert verarbeiten können.
Fluch & Segen: BSI sieht neue Bedrohungen und Sicherheitsrisiken
Bei aller Freude über die neuen Möglichkeiten, die nun einer breiten Masse zur Verfügung stehen, warnt das Bundesamt für Sicherheit in der Informationstechnik (BSI) nun auch in einem Positionspapier vor der Bedrohung und den Sicherheitsrisiken, die durch den Gebrauch entstehen.
Das BSI hat eine Vielzahl von Bedrohungen identifiziert, die durch KI-Sprachmodelle verstärkt werden können. So helfen diese wohl dabei, Schadsoftware zu erstellen und zu optimieren und erleichtern das Generieren von täuschend echten Spam- und Phishing-E-Mails. Da diese automatisch erstellten Texte kaum noch Rechtschreib- und Grammatikfehler aufweisen, geht damit eines der Kriterien verloren, welches bislang noch dabei helfen konnte, solche Texte zu entlarven.
Zudem bestünde wohl auch das Risiko, dass potenzielle Angreifer die Eingaben von Benutzern solcher Software auf andere Sprachmodelle umleiten, um etwa Ausgaben zu manipulieren und sensible Informationen abzugreifen. Es ist auch unklar, inwiefern die Betreiber dieser Modelle die Eingaben auswerten und an Dritte weiterleiten könnten.
Fragwürdige Inhalte und begrenzte Aktualität
Ein eindeutiges Risiko besteht darin, dass die Sprachmodelle von den Eingaben der Benutzer lernen. Bedeutet, die Interaktionen mit den Benutzern dienen als Training für das System, was natürlich dazu führen kann, dass Böswillige diese Modelle mit Inhalten füttern, die zu Desinformation, Propaganda und Hassrede führen können.
Informationen, die Benutzer von solchen Sprachmodellen anfordern, sind oft nicht aktuell. So weist ChatGPT oftmals darauf hin, dass der Wissensstand der KI nur bis 2021 reicht. Dies kann Ausgaben zu wirtschaftlichen oder politischen Ereignissen bedeutend verändern.
Redaktion finanzen.net
Weitere News
Bildquellen: Den Rise / Shutterstock.com, PopTika / Shutterstock.com