Fehlerhafte KI-Chatbots sorgen für Aufsehen, wenn sie bei Firmen falsche Angaben machen. Gegen die so entstehenden Kosten soll man sich nun versichern können.
Gleichzeitig heißt das, dass die Versicherung nicht alle finanziellen Schäden durch eine sogenannte Halluzination abdeckt. Modelle, die zu fehlerhaft sind, könnten damit nicht abgedeckt werden.
Naja, man könnte wohl argumentieren, dass bestimmte Prompts bei bestimmten Modellen ohne (nennenswerte) Halluzinationen kommen. Ein Restrisiko besteht trotz diesen Tests, und dieses will die Versicherung abdecken.
(Wozu man dann eine Versicherung braucht, sei mal dahingestellt).
Also… alle?
Naja, man könnte wohl argumentieren, dass bestimmte Prompts bei bestimmten Modellen ohne (nennenswerte) Halluzinationen kommen. Ein Restrisiko besteht trotz diesen Tests, und dieses will die Versicherung abdecken.
(Wozu man dann eine Versicherung braucht, sei mal dahingestellt).