• Ephera@lemmy.ml
    link
    fedilink
    English
    arrow-up
    4
    arrow-down
    1
    ·
    8 days ago

    Naja, wobei deine Art die Frage zu stellen, eben auch schon eine mögliche Unzulänglichkeiten der künstlichen Intelligenz berücksichtigt, nämlich dass sie evtl. nur klein- oder nur großgeschriebene Hs zählt.

    Wenn man eben damit wirbt, dass das Ding intelligent sei und menschliche Sprache versteht, dann erwarten die Leute, dass sie mit dem Ding auch wie mit einem Menschen reden können. Und gegenüber einem Menschen würdest du nicht “ungeachtet der Groß- und Kleinschreibung” hinzufügen…

    • mxeff@feddit.org
      link
      fedilink
      arrow-up
      7
      arrow-down
      1
      ·
      edit-2
      8 days ago

      Das ist tatsächlich keine Unzulänglichkeit einer KI, sondern in geschriebener Form ist diese Frage tatsächlich uneindeutig, weil es aus Sicht des Computer tatsächlich einen Unterschied zwischen “h” und “H” gibt. Und auch bei Programmiersprachen (also ohne KI) muss diese “Frage” sorgfältig gestellt werden, weil verschieden Handhabungen von Strings/Zeichenketten existieren.

      In gesprochener Form, würde man die Unterscheidung zwischen Groß- und Kleinbuchstaben nicht explizit erwähnen, da gebe ich dir Recht, als geschriebene Fragestellung sollte dies durchaus trotzdem der Fall sein, eben weil es uneindeutig ist. (Und uneindeutige Quize/Rätsel sind Mist, weil beide /mehrere Antworten korrekt sein können, je nach Interpretation.)

      Aber selbst ohne diese Spezifizierung, kann diese Frage “korrekt” gelöst werden.

      • luciferofastora@feddit.org
        link
        fedilink
        arrow-up
        1
        ·
        5 days ago

        weil es aus Sicht des Computer tatsächlich einen Unterschied zwischen “h” und “H” gibt

        Das Problem ist ja, dass einige Leute dem Computer (mindestens) menschliche Intelligenz zusprechen. Hat er schlichtweg nicht; selbst wenn er die Instruktionen “versteht” fehlt ihm der menschliche Erfahrungskontext um zu beurteilen ob Case Sensitive Matching hier Sinn macht.

        Das wird dann tückisch, wenn Menschen nach Fakten fragen und der Computer einen faktenähnlichen Text generiert ohne zu wissen, auf welche Details es ankommt. Die beliebten Beispiele sind Quellenangaben und Präzedenzfall-Verweise die gar nicht existieren. Woher soll der Computer wissen, dass du Fälle meinst, die wirklich existieren und relevant für dein Plädoyer sind? Woher soll er überhaupt wissen, wie relevant die genau sind?

        Uns ist vielleicht klar, dass man sowas zumindest prüfen muss, aber wir sind auch nicht die Zielgruppe, die diesem Irrtum auf dem Leim gehen. Die Hype-Crowd hat es offensichtlich auch nicht sehr eilig, dieses Fehlerbild zu entzerren.

        Da hilft es nicht, wenn wir als Programmierer sagen können “klar, hast die Frage ja nicht präzise gestellt”; wenn der KI menschliche Intelligenz zugeschrieben wird müsste sie zumindest die Mehrdeutigkeit erkennen und nach Klarstellung fragen, oder einfach beide Antworten liefern.

        Zufall ist beim Generieren von Sprache gut, weil die nicht exakt ist oder sein muss. Aber wenn er eine Frage faktisch richtig beantworten kann, macht es keinen Sinn, das zufällig mal falsch zu machen. Wenn ich Fehler will, mach ich sie selbst. Das ist nicht das geeignete Anwendungsgebiet, und darum geht es hier letztlich:

        Frag LLMs nicht nach Fakten. Sie sind wunderbar im Texte schreiben, aber die Fakten musst du selbst liefern.