Wissen hoch N Themen
Large Language Models vertrauenswürdig machen

16. 10. 2025
Verfasst von: Henning Wachsmuth

Large Language Models vertrauenswürdig machen

Auf einem Handydisplay sind Aufgaben an ChatGPT gerichtet, zum Beispiel: How do I make an HTTP request in Javascript? © Sanket Mishra, Pexels
Was ist ein Quantencomputer? Was schenke ich einem zehnjährigen Kind? ChatGPT gibt auf vielfältigste Fragen Antworten. Doch die meisten Menschen wissen nicht, wie das Programm funktioniert und welche Risiken lauern.

KI ist in der Mitte der Gesellschaft angekommen, aber vorbereitet ist die Gesellschaft darauf kaum, meint Prof. Dr. Henning Wachsmuth von der Leibniz Universität Hannover. Sein Forschungsteam gestaltet große Sprachmodelle (LLMs), damit sie Menschen in ihrem Alltag unterstützen, ohne dass diese die Kontrolle darüber verlieren, was die LLMs im Hintergrund tun. Das Ziel ist es, faktisch und ethisch korrekte Informationen zu produzieren, die verständlich und nachvollziehbar sind.

Verhalten von KI verbessern und kontrollieren

ChatGPT basiert auf einem so genannten Large Language Model – kurz LLM. Dieses maschinelle Verfahren erzeugt natürlichsprachige Texte und hat auf Basis von Milliarden von Texten selbstständig gelernt, welche Wörter am besten in einem gegebenen Kontext geschrieben werden können. Aber die Funktionsweise von LLMs hat auch Grenzen und birgt Risiken. Antworten bei fachlich anspruchsvolleren Themen sind oft nicht zufriedenstellend. Manchmal „halluzinieren“ LLMs und erfinden Informationen, denn sie prüfen nicht, was sie erzeugen. Deswegen spiegeln KI-Texte auch Halbwahrheiten, Vorurteile und überkommene Weltbilder wider. „Daher ist universitäre Forschung an LLMs wichtig und nötig, um technische Lösungen zu finden und auf Gefahren aufmerksam zu machen“, meint Prof. Dr. Henning Wachsmuth von der Leibniz Universität Hannover.

Möglicher Einsatz: Social Media, Bildung, Agrar

Im Fachgebiet Natural Language Processing gestalten die Forscherinnen und Forscher die LLMs so, dass sie ihre Stärken in der freien Textformulierung nutzen, ohne dabei faktisch oder ethisch fragwürdige Informationen zu produzieren. Viele Projekte erfolgen in Kooperation mit anderen Hochschulen. Die praktischen Anwendungen sind vielfältig:

- Um soziale Verzerrungen wie veraltete Geschlechterrollen zu vermeiden, können automatisch generierte Gegenbeispiele helfen, um die Zuordnung zu einem Geschlecht zu unterbinden.

- LLMs lassen sich trainieren, unangemessene Texte in sozialen Medien zu entschärfen, ohne dabei deren Sinn zu verändern.

- Speziell entwickelte LLMs bewerten Textentwürfe auf ihre Qualität hin und geben Lernenden Feedback. Sie unterstützen damit die digitale Bildung.

- Neue Verfahren sollen dafür sorgen, dass KI-Systeme wie LLMs erklärbar und Entscheidungen nachvollziehbar werden.

- Bei einem Landwirtschaftsprojekt kann die KI dem Menschen ihre Entscheidung für effizientes Wasser-Management erklären.

Die Bild zeigt einen Schreibtisch mit Laptop, auf dem die Antwort eines AI Chatbots umgeschrieben wurde. Die Schrift ist unleserlich gemacht. © Henning Wachsmuth, Dall-E
Large Language Models lassen sich trainieren, Textantworten automatisch umzuschreiben, um soziale Verzerrungen oder unangemessene Formulierungen zu vermeiden (Bild KI-generiert).

Stärken nutzen, Risiken begrenzen

Diese Beispiele zeigen, wie sich LLMs zielgerichtet entwickeln und einsetzen lassen, damit Menschen unterstützt werden und den Einfluss von KI erkennen. „Menschen müssen verstehen, was KI kann und was sie nicht kann, wofür sie hilft und wovor man sich hüten sollte“, betont Henning Wachsmuth. „Wer ihr nur misstraut, kann ihr Potenzial nicht nutzen und wird mittelfristig abgehängt. Wer ihr blind vertraut, läuft Gefahr, manipuliert zu werden und die Kontrolle zu verlieren.“ Aus diesem Grund plädiert er für Regulierung seitens der Politik, so wie es die EU mit dem KI-Gesetz bereits umzusetzen versucht. Andererseits setzt er auf vertrauensvolle KI-Lösungen aus der Wissenschaft.

Hier finden Sie weitere Informationen:

Redaktioneller Hinweis: Dieser Text steht unter der CC BY 3.0 DE-Lizenz
Portraitfoto
Prof. Dr. Henning Wachsmuth
Adresse
Leibniz Universität Hannover
Institut für Künstliche Intelligenz
Portraitfoto
Prof. Dr. Henning Wachsmuth
Adresse
Leibniz Universität Hannover
Institut für Künstliche Intelligenz
Leibniz Universität Hannover, uni transfer
Leibniz Universität Hannover, uni transfer

Bestellen Sie unseren Newsletter.
Folgen Sie uns auf LinkedIn.
Abbonieren Sie unseren RSS-Feed.