• jenesaisquoi@feddit.org
    link
    fedilink
    English
    arrow-up
    1
    ·
    10 minutes ago

    Ich habe keine Angst, dass LLMs Entwickler ersetzen, weil sie das nicht können.

    Ich habe Angst, dass verkokste BWLer denken, dass LLMs Entwickler ersetzen können.

  • GenosseFlosse@feddit.org
    link
    fedilink
    arrow-up
    34
    ·
    edit-2
    12 hours ago

    Code von LLMs schreiben zu lassen grenzt aber schon an russisch Roulette. Teilweise funktioniert er nicht wie gewünscht oder gar nicht, oder es wirft unbrauchbaren Code aus irgendwelchen Beispiel Tutorials aus oder der Code ist einfach schlecht mit Anfängerfehlern.

    Ich hoffe das jetzt viele Leute ganz viel Code mit LLMs schreiben, damit ich auch in Zukunft Arbeit habe wenn die Eigentümer keine Ahnung haben warum ihre Programme kaputt sind und Hilfe brauchen.

    • Tlf@feddit.org
      link
      fedilink
      arrow-up
      12
      ·
      8 hours ago

      Diesen Code zu fixen ist aber auch nicht unbedingt die Arbeit, die ich später haben möchte.

      • XM34@feddit.org
        link
        fedilink
        English
        arrow-up
        4
        ·
        edit-2
        6 hours ago

        Naja, eigentlich ist es ganz einfach. Ich schau’ mir das an und sagen den Leuten klipp und klar, das Zeug ist nicht fixbar. Entweder wir schreiben die Anwendung komplett neu, oder sie können sich nen anderen Dienstleister suchen. Wer billig bezahlt, bekommt eben billig!

    • brot@feddit.org
      link
      fedilink
      arrow-up
      8
      ·
      8 hours ago

      In der Tat - ich habe mich damit in der letzten Zeit durchaus intensiv beschäftigt und es ist schon cool und streckenweise echt hilfreich. Aber: Man stößt schnell an Limits, an denen sich auch die modernsten Programme irgendwie die Zähne ausbeißen. Es ist vollkommen undenkbar, dass man als Firma KI-Programme völlig ungetestet irgendwie einsetzen kann.

      Am Ende ist es für mich eher wie eine automatische Rechtschreibprüfung oder Textbausteine: Total hilfreich, spart Arbeit, spart sicherlich auch gewisses Mitarbeitertraining, aber nur mit Textbausteinen kannst du keine Firma führen

    • excral@feddit.org
      link
      fedilink
      arrow-up
      13
      ·
      edit-2
      10 hours ago

      Wie russisches Roulette bei dem man 6 mal den Abzug zieht. Es ist keine Frage ob es schief geht, sondern wann.

  • doeknius_gloek@discuss.tchncs.de
    link
    fedilink
    arrow-up
    52
    ·
    13 hours ago

    Was für ein absolut behämmerter Artikel.

    • Ein Dude mit hohem Gehalt verliert seinen Job “wegen LLMs” und findet keinen neuen
    • Artikelbild von ebendiesem Dude vor abgewracktem Wohnwagen
    • Ein CEO schwafelt, dass in X Zeit die LLMs Aufgabe Y komplett übernehmen werden
    • Dude philosophiert, dass es allen anderen genauso gehen wird wie ihm - in seinen Händen fehlt nur noch ein "Das Ende naht!” Schild
    • Dude nennt sich selbst “AI Maximalist” und denkt wirklch, ein LLM macht seinen Job jetzt besser als er zuvor.
    • Cyborgs???

    So ein Schrott, ehrlich. Da lohnt sich eine inhaltliche Debatte überhaupt nicht, zwischen stumpfer Panikmacherei und Glaskugelgeschüttel.

    • lmuel@sopuli.xyz
      link
      fedilink
      English
      arrow-up
      27
      ·
      12 hours ago

      Als jemand der sich viel mit LLMs beschäftigt hat… Lol.

      Ich wünsche den Leuten viel Spaß wenn sie dann bald herausfinden, dass LLMs quasi eine tolle und sehr große/komplexe Version der Wortvorschläge oberhalb der Handytastatur sind.

      Ich muss in meinem Alltag regelmäßig Leuten erklären, dass es sich bei UnterhaltungsGPT nicht um ein magisches Wesen handelt, mit dem man über dieses Programm kommunizieren kann.

      • Elvith Ma'for@feddit.org
        link
        fedilink
        arrow-up
        11
        ·
        11 hours ago

        Ich nutze gerne bewusst provozierte Halluzinationen um den Effekt aufzuzeigen in solchen Situationen - Frage nach irgendwas nicht existierendem und lass dir das erklären. In den meisten Fällen kommt nicht ein “gibt’s nicht/kenne ich nicht/…” sondern eben eine 3 seitige Abhandlung über den “Fuggenberger Schwarzhornhasen” o.ä.

    • Lucy :3@feddit.org
      link
      fedilink
      arrow-up
      5
      ·
      10 hours ago

      Der Typ war zudem noch bei einer Firma, die genau solchen Hypes hinterherläuft, angestellt. Was hat der erwartet?

  • lmuel@sopuli.xyz
    link
    fedilink
    English
    arrow-up
    17
    ·
    13 hours ago

    Naja, bis die KI Fenster 3.11 für Arbeitsgruppen kann bist du bei der Bahn ja noch sicher

  • TanteRegenbogen@feddit.org
    link
    fedilink
    arrow-up
    8
    ·
    edit-2
    11 hours ago

    Darum meide amerikanische Weichware. Die Amis sind so dumm, dass sie die idiotische Idee haben, dass LLMs Programmierer ersetzen. Das wird zu kaputtgemachte Programme führen.

    Wenn überhaupt der Artikel stimmt, denn ich finde es merkwürdig, dass der Artikel behauptet, dass der Typ nur eine Buchstabe als Nachname hat.

  • fylkenny@feddit.org
    link
    fedilink
    arrow-up
    10
    ·
    13 hours ago

    Was ist denn das für ein Artikel? Das Problem ist seiner Ansicht nach, dass 90% entlassen werden, statt das einfach 10 Mal mehr Code mit ki Unterstützung produziert wird?

    • jaschop@awful.systems
      link
      fedilink
      arrow-up
      19
      ·
      12 hours ago

      Wer mit Software arbeitet, weiss dass 10mal mehr Code nichts ist was als Firma sehr erstrebenswert ist. Und dass ist ungefähr alles worin LLMs gut sind. Unmengen an gerade-so-nutzbarem slop.

      • Saleh@feddit.org
        link
        fedilink
        arrow-up
        5
        ·
        9 hours ago

        Das sieht der Chef-Exekutive-Offizier aber anders seitdem er seinen Meister-Geschäftsverwaltung gemacht hat.

  • jo3rn@discuss.tchncs.de
    link
    fedilink
    arrow-up
    5
    ·
    12 hours ago

    Der Typ im Artikel hatte für Virbela gearbeitet. Der einfache Grund für die Entlassung lautet also, dass es Probleme auf der Einnahmenseite gab. Nicht, dass er durch KI ersetzt wurde.