Warum gibt die Legal Interactive Platform (LIP) manchmal falsche Antworten und korrigiert sich dann selbst, wenn der Nutzer sie in Frage stellt?
Die LIP stützt sich auf ein Large Language Model (LLM) – ein großes Sprachmodell. Aus diesem Grund können die Antworten manchmal unvorhersehbar sein (wie bei vielen anderen Online-Tools wie ChatGPT oder Gemini).
Um die Genauigkeit zu verbessern, haben wir die Plattform feinabgestimmt und ein Retrieval-Augmented-Generation (RAG)-System hinzugefügt. Dadurch ist das LLM gezwungen, seine Antworten auf die offiziellen Rechtstexte des EPA zu stützen und nur in geringem Maße auf andere Quellen zurückzugreifen.
Trotz dieser Sicherheitsvorkehrungen kann es jedoch immer noch zu falschen Antworten kommen. Das LLM kann falsche Informationen generieren, Fragen falsch interpretieren oder komplexe rechtliche Zusammenhänge übersehen.
Wenn ein Nutzender eine Antwort beanstandet, bewertet das LLM die Antwort anhand der neuen Eingaben neu, was manchmal dazu führt, dass es sich selbst korrigiert.