Gleichzeitig heißt das, dass die Versicherung nicht alle finanziellen Schäden durch eine sogenannte Halluzination abdeckt. Modelle, die zu fehlerhaft sind, könnten damit nicht abgedeckt werden.
Also… alle?
Naja, man könnte wohl argumentieren, dass bestimmte Prompts bei bestimmten Modellen ohne (nennenswerte) Halluzinationen kommen. Ein Restrisiko besteht trotz diesen Tests, und dieses will die Versicherung abdecken.
(Wozu man dann eine Versicherung braucht, sei mal dahingestellt).
Wenn ich den Artikel richtig verstehe, hat die Sache einen gewaltigen Haken: Es muss nachgewiesen werden, dass der Schaden durch die KI nicht im Vorhinein absehbar war.
Ich seh auch nicht, wie man das sauber versichern können sollte.
Ich hatte kürzlich mal einen Vortrag von so einer “KI consulting” Firma gehört. Die haben ständig gesagt man müsse jetzt ins tun kommen und Beispiele für Anbieter in meiner Branche genannt, die u.a. beim Überprüfen technischer Regeln helfen könnten. Auf die Frage, ob es einen Anbieter gibt, der auch die Haftung dafür übernimmt, gab es dann Grillenzirpen.
Damit ist das dann auch obsolet, weil man die Designs weiter mit manuell programmierten Prüfabläufen und “von Hand” prüfen muss.
Gar nicht. Am besten Firmen ins offene Messer laufen lassen. Frisch gewetzt.
Free money glitch