• 0 Posts
  • 16 Comments
Joined 1 year ago
cake
Cake day: June 24th, 2024

help-circle
  • Bis zum Start der Sommerferien in England am 25. Juli müssen Pornoanbieter und soziale Medien mit expliziten Inhalten eine Altersverifikation einführen, wie die Medienaufsicht Ofcom mitteilte.

    Unter soziale Medien sollten ja auch Plattformen wie reddit/reddit/mastodon/xitter/etc zählen. Da dort auch schmuddel Inhalte zu finden sind.

    Mal schauen wie das fediverse damit umgeht.

    Das Gesetz macht solche Plattformen die Verifizierungsmaßnahmen einführen, dann natürlich auch zu einem viel lukrativeren Ziel für Hacker die Daten ausspähen wollen oder gar erpresserisches Material suchen.



  • Das ist richtig. KI ist ein eher ein Sammelbegriff und nicht klar definierbar.

    Hier hatte ich LLMs gemeint.

    “Verstehen” ist auch mehr als Metapher gemeint, da ich größere Vorkenntnisse über die Technologie in der Comunnity hier erwartet hatte. Ich hätte näher ausführen sollen was damit genau gemeint ist.

    Der “context” ist ein temporärer Bereich der bei jedem Chat mit einer LLM neu kreiert wird. Darin denkt/arbeitet/schreibt/generiert das Modell und kann theoretisch gesehen so groß sein wie es die Hardware erlaubt. Also in den hunderte Millionen token. Das nützt aber nichts wenn das Modell nur noch Buchstabensalat generiert wenn die trainierte Länge überschritten wurde.

    Wichtig zu meinem Kommentar ist hier, egal wie lang die beworbene Länge context ist, (bei den meisten 128k-200k und Google 1m), die tatsächliche Länge womit das Modell arbeiten kann ist meist drastisch kürzer.

    Ja, das Modell kann bis zum Ende des context sinnvoll klingende Sätzen schreiben ohne komplett zu kollabieren, das bedeutet jedoch nicht das das geschriebene tatsächlich Sinn ergibt.

    Mein “Verstehen” bezieht sich darauf, wieviel context das Modell nutzen kann und trotzdem mit Sinn antworten kann. Wird ihm also ein langer Artikel oder eine große Studie eingespeist, sollte es keine Details vergessen oder übersehen.

    Wird z.B. ein 200k Modell randvoll mit einer Codebase gestopft, ist es quasi garantiert das es Funktionen im 60-200k Bereich vergisst. Es kann wahrscheinlich nicht mal annähernd wiedergeben was gegen Ende des context überhaupt steht.

    Das meine ich mit Verstehen, weil das Modell zwar theoretisch die Informationen im context hat, damit aber nichts anfangen kann.


  • “KI wird auf Junior-Level bleiben,”

    Ganz schön kühne These.

    Die Fähigkeiten der KI Modelle, vor allem in der Programmierung, sind seit 2022 stetig gestiegen und es gibt keine Anzeichen das es irgendwie stagnieren würde. Klar wird es limits geben, die sind jedoch noch nicht mal klar definierbar.

    Vor einem Jahr hatte keine KI mehr als 60k token context wirklich verstanden, heute können Modelle 100k oder in Googles Fall bis zu 400k gut verstehen.

    Um umfangreiche Codebases größerer Unternehmen zu laden werden bis zu zwei Millionen token context benötigt.

    Wenn das möglich ist, wird die KI nicht mehr wie ein Junior arbeiten.

    Halluzination sind ein wirkliches Limit der Technologie, sind jedoch durch die noch relativ neuen “Denk Fähigkeiten” und tools wie RAG stark reduzierbar.

    Klar, eine LLM wird nie AGI, aber mehr als Junior alle mal.

    Ich persönlich denke das LLMs zusammen mit verschiedenen Frameworks und tools gut genug werden können um die nächste Architektur zu entwickeln die tatsächlich zu AGI führen kann.

    Dem Problem mit den fehlenden Senior Entwicklern Stimme ich im Prinzip zu. Jedoch denke ich das die Seniors in einem Jahrzehnt oder so nur noch KIs managen und schauen das die unterschiedlichen Coding Agents das machen was sie sollen. Daher werden in Zukunft auch viel weniger gebraucht.


  • Falls jemand die Satire nicht gelesen hat, hier kurzes PSA.

    Wilde Tiere die sich freiwillig den Menschen nähern, sollten mit Vorsicht behandelt werden.

    Selbst Tiere die sich unglücklicherweise in von Menschen bewohnten Gebieten aufhalten und diese aktiv aufsuchen, wie Füchse oder Bären die Müll durchstöbern, fliehen meistens sobald sich ein Mensch nähert.

    Dieser Instinkt wird im Prinzip nur aus zwei Gründen ignoriert. Das Tier wurde von Menschen aufgezogen oder das Tier ist Krank.

    Und auf Krankheit möchte ich hier aufmerksam machen. Wenn ein Tier mit Tollwut infiziert ist, verliert es große Teile seiner Überlebensinstinkte. Das führt dann dazu, dass es nicht mehr vom Menschen wegrennt und sich diesen fast hilfesuchend nähert. Das ist natürlich gefährlich da das kranke Tier sich unberechenbar und erratisch Verhalten kann. Tollwut wird primär durch Bisse übertragen, sollte der Speichel des Tieres jedoch mit einer Wunde in Kontakt kommen kann die auch schon zur Infektion führen.

    Daher immer Vorsicht walten lassen wenn sich ein Tier nicht so verhält wie es sollte.

    Ach ja, falls jemand Rehkitze in Feld/Wiese/Gebüsch/etc findet, nicht anfassen! Sollte es am nächsten Tag immer noch dort sein dann vlt jemand benachrichtigen. Ist es aus irgendeinem Grund nötig das Tier zu bewegen weil es in akuter Gefahr steckt, dann nicht direkt anfassen oder in getragene Kleidung wickeln weil der Geruch zu Ablehnung von der Mutter führen kann.

    Thema Geruch, das Vogelbabys die aus dem Nest fallen dann nach wieder reinlegen wegen Geruch abgelehnt werden ist ein Mythos. Vögel haben einen sehr schwach ausgeprägten Geruchssinn. Sollten sie jedoch mitbekommen das jemand an ihrem Nest war, geben sie dieses komplett auf. Im Prinzip also schauen das man nicht “erwischt” wird, sonst gefährdet man die restliche Brut. Also nicht ewig über dem Nest aufhalten und der gefallene Vogel wird später wie alle anderen behandelt wenn die Mutter zurückkehrt.




  • The problem with nightshade or similar tools is, that if you leave the changes it makes at too weak a setting, then it can be pretty easily removed. For example GAN upscalers that pre date modern “AI”, were pretty much built to remove noise or foreign patterns. And if you make the changes strong enough that they can’t be removed by these models (because so much information was lost), then the image looks like shit. Its really difficult to strike a balance here.





  • Well, the German people are called “Deutsche” which sounds very similar to doitsu when spoken. And if someone is a German the he is “Deutsch”.

    Also Finland doesn’t sound that wrong, just ancient. One of the larger “Clans” that lived in the area that later was called Germany were the Saxons, in German “Sachsen” which again sounds very similar to Saksa. No idea if that’s the actual reason for the word though.



  • lemmysarius@feddit.orgtoFuck AI@lemmy.worldFuck up a book for me please
    link
    fedilink
    arrow-up
    2
    arrow-down
    1
    ·
    edit-2
    1 year ago

    Tbh, no. At least regarding your technical critisisms. Try out a LLM with a large context window. Claude3 is currently the best. Feed it a chapter or 10 of a book and then ask it to write another chapter, about an unrelated topic and it will just do it. No problem. Creative writing/condensing/summarising is one of the strengths of these things, if given enough info in the active context. Just asking for a style doesn’t really work, but its also not necessary here. Reproducing akkurate facts however is a big problem, which makes using them dangerous. So the retaining of information would actually have to be manually checked by a human, as LLMs are prone to hallucinations and will make errors or changes to fit the writing style. It can write nice sounding paragraphs about spatial or logical impossibilities any day though. Finally, quality greatly depends on the people feeding the LLM, because low effort will also produce low effort outputs.

    And I don’t really follow what you mean with your comment of “hideous mockery”. The people who can read and understand the original version, will do so and never read the simplified version instead of the original. Only individuals “incapable” of dealing with the original would even interact with the simplified version. Isnt it better if at least part of the authors message can be conveyed, rather than nothing? That person never even touching on the ideas of that book? I am currently writing a SciFi book myself and I would definitely want to personally look over and check the simple version of it. But I would see it more like something in the way of an audio book. Reading doesn’t have to be difficult and I would want as many people as possible to have the ability to read my book, regardless of their reading level.

    All that said, I am talking about the concept here, the specific implementation of the image above is likely going to be some half assed garbage.


  • On first thought this seems like its such a weird usecase for AI. However, I don’t actually think its completely useless, turning more complex books into children’s books while maintaining their lessons and ideas is pretty interesting. And that is something that LLMs can realistically also achieve, not just hype bullshit. Getting grade schoolers to read Nietzsche and them actually understanding something, is a very fun thought to me. I don’t think this will have any impact on the reading comprehension of teenagers or above. Those that can’t handle the original text, aren’t going to read the simplified one. But getting young children acquainted with “grown up” books and their topics and ideas could be a good thing. When its not just about the rabbit in the mushroom house etc. It might even encourage the parent to (re)read the book with the child together, one the original and one the simplified version. Also useful for illiterate persons learning to read, as reading children’s books can be uncomfortable for an adult.