16. 10. 2025
Verfasst von: Henning Wachsmuth
Large Language Models vertrauenswürdig machen
KI ist in der Mitte der Gesellschaft angekommen, aber vorbereitet ist die Gesellschaft darauf kaum, meint Prof. Dr. Henning Wachsmuth von der Leibniz Universität Hannover. Sein Forschungsteam gestaltet große Sprachmodelle (LLMs), damit sie Menschen in ihrem Alltag unterstützen, ohne dass diese die Kontrolle darüber verlieren, was die LLMs im Hintergrund tun. Das Ziel ist es, faktisch und ethisch korrekte Informationen zu produzieren, die verständlich und nachvollziehbar sind.
Verhalten von KI verbessern und kontrollieren
ChatGPT basiert auf einem so genannten Large Language Model – kurz LLM. Dieses maschinelle Verfahren erzeugt natürlichsprachige Texte und hat auf Basis von Milliarden von Texten selbstständig gelernt, welche Wörter am besten in einem gegebenen Kontext geschrieben werden können. Aber die Funktionsweise von LLMs hat auch Grenzen und birgt Risiken. Antworten bei fachlich anspruchsvolleren Themen sind oft nicht zufriedenstellend. Manchmal „halluzinieren“ LLMs und erfinden Informationen, denn sie prüfen nicht, was sie erzeugen. Deswegen spiegeln KI-Texte auch Halbwahrheiten, Vorurteile und überkommene Weltbilder wider. „Daher ist universitäre Forschung an LLMs wichtig und nötig, um technische Lösungen zu finden und auf Gefahren aufmerksam zu machen“, meint Prof. Dr. Henning Wachsmuth von der Leibniz Universität Hannover.
Möglicher Einsatz: Social Media, Bildung, Agrar
Im Fachgebiet Natural Language Processing gestalten die Forscherinnen und Forscher die LLMs so, dass sie ihre Stärken in der freien Textformulierung nutzen, ohne dabei faktisch oder ethisch fragwürdige Informationen zu produzieren. Viele Projekte erfolgen in Kooperation mit anderen Hochschulen. Die praktischen Anwendungen sind vielfältig:
- Um soziale Verzerrungen wie veraltete Geschlechterrollen zu vermeiden, können automatisch generierte Gegenbeispiele helfen, um die Zuordnung zu einem Geschlecht zu unterbinden.
- LLMs lassen sich trainieren, unangemessene Texte in sozialen Medien zu entschärfen, ohne dabei deren Sinn zu verändern.
- Speziell entwickelte LLMs bewerten Textentwürfe auf ihre Qualität hin und geben Lernenden Feedback. Sie unterstützen damit die digitale Bildung.
- Neue Verfahren sollen dafür sorgen, dass KI-Systeme wie LLMs erklärbar und Entscheidungen nachvollziehbar werden.
- Bei einem Landwirtschaftsprojekt kann die KI dem Menschen ihre Entscheidung für effizientes Wasser-Management erklären.
Stärken nutzen, Risiken begrenzen
Diese Beispiele zeigen, wie sich LLMs zielgerichtet entwickeln und einsetzen lassen, damit Menschen unterstützt werden und den Einfluss von KI erkennen. „Menschen müssen verstehen, was KI kann und was sie nicht kann, wofür sie hilft und wovor man sich hüten sollte“, betont Henning Wachsmuth. „Wer ihr nur misstraut, kann ihr Potenzial nicht nutzen und wird mittelfristig abgehängt. Wer ihr blind vertraut, läuft Gefahr, manipuliert zu werden und die Kontrolle zu verlieren.“ Aus diesem Grund plädiert er für Regulierung seitens der Politik, so wie es die EU mit dem KI-Gesetz bereits umzusetzen versucht. Andererseits setzt er auf vertrauensvolle KI-Lösungen aus der Wissenschaft.
Hier finden Sie weitere Informationen:
Institut für Künstliche Intelligenz
Institut für Künstliche Intelligenz
30169 Hannover
30169 Hannover