Der cirkluerer megen AI hype. Teknologien kan også bruges på arbejde uden hype.
Midt i AI-hype-stormen får jeg lyst til at dele et eksempel på konkret, kedelig, praktisk brug af (billed)-AI:
På arbejde er vi kun 5 ansatte, og derfor må vi tage flere forskellige kasketter på. Når vi har brug for en ny produktflyer, bikser jeg noget sammen, selvom vores udvalg af marketingmateriale - og mine InDesign kundskaber - er begrænset. Senest, forsøgte jeg at bruge Gemini 3 til at omdanne produktbilleder til en Cel Shading stil:
Doseringsanlæg før

Doseringsanlæg efter

PCB før

PCB efter

Og jeg brugte den ny Flux.2[max]-model til in-situ billeder:
Før

Efter

Bemærk at målet ikke er at lyve om, hvorvidt produktet har været på messe eller ej, men blot at illustrere ting som størrelsesforhold og anvendelse.
Bonus: Havde lidt sjov forleden med de nye, tidlige “World”-modeller, der bygger en “verden” ud fra et input. Her er vores lager, som er blevet meeeeget større end i virkeligheden: https://marble.worldlabs.ai/world/c8257b4a-4850-49cc-9c87-d0ee498acef3
Ved ikke, hvad vi skal bruge de her early access World-modeller til lige pt, men jeg ser potentialet.
Fedt at se hvad billedmodeller kan bruges til i den rigtige verden 🙂 Er selv udvikler så det er kun tekstmodeller jeg bruger i dagligdagen
Må jeg spørge hvordan, du bruger tekstmodeller som udvikler - altså til hvad og i hvilket IDE? VS Code/Cursor og API via Openrouter.ai?
Bruger selv VSCode og GitHub Copilot betalt af arbejdsgiver på arbejdet. Jeg vil sige at den nogle gange hjælper, og nogle gange bare er forvirret eller irriterende. For det meste okay, måske kun irriterende 30% af tiden. For det meste er det bare en autocomplete der ser det du er ved at skrive og gætter sig til resten, hvilket gør at du sparer nogle tast på keyboardet. Men det hjælper da også.
Af og til kan man give den lidt større opgaver end bare at være autocomplete. Fx skrive en kommentar om hvad der skal gøres og så lade den komme med et forslag. Jeg vil sige at det skal være nemt og åbenlyst før den kommer med noget der giver mening, og i det tilfælde kunne jeg jo selv bare skrive de første par ting og så ville den gætte resten. Men det er sjældent den kommer med noget brugbart bud hvis jeg heller ikke selv er helt sikker, for så er opgaven alligevel på et kompleksitetsniveau der gør at den ikke kan finde ud af det overhoved. Og det er ikke fordi det er et særlig højt niveau når det kommer til stykket.
Jeg er begyndt at bruge VS Code og GitHub Copilot på jobbet. Jeg er dog ikke den store softwareudvikler, men skriver PowerShell scripts. De er ikke vildt avanceret, men det skal laves. De første 2 (og eneste indtil videre) funktioner jeg har lavet, blev den ene 100% skrevet, og rettet til, af AI. Den anden blev skrevet, rettet til af AI, men så rendte den ind i et problem jeg selv kendte løsningen på, så det rettede jeg manuelt. Det har sparet noget tid og, at AI’en kigger det eksisterende kode igennem og tilpasser stilen (struktur og variabelnavne) af det nye kode til det eksisterende, er ret fedt. Og til sidst skriver den selvfølgelig også dokumentationen som blev smidt op i vores dokumentationsområde. Der var lige nogle rettelser til dokumentationen, men ellers var det faktisk ret fornuftigt.
Jeg kigger selvfølgelig alt kode og dokumentation igennem inden det bliver taget i brug og tester det. Jeg har oprettet en instruktionsfil for at få koden til at gøre som jeg vil. F.eks. blev et tjek om en bruger fandtes i Active Directory (AD) gjort på en måde at der ville blive kastet en fejl, hvis personen ikke fandtes, som så blev håndteret korrekt. Men jeg bryder mig generelt ikke om, at der kastes fejl medmindre at der faktisk er sket en fejl i koden. Så nu ved Copilot at den skal lave tjeks som ikke kaster fejl.
Bruger også Copilot til hjælp til SQL-kommandoer. Jeg kan til lidt mere end husbehov, med JOIN og manipulation af string og dato-felter. Men det er nu meget fedt at man kan give tabel layout på de tabeller man skal bruge data fra og så strikker den en større SELECT sammen hurtigt.
Og så prøver jeg at vænne mig til autocomplete. Det kan være lidt forvirrende når den bliver ved med at foreslå alle mulige ting, men nogle gange er det også ret smart og kan spare mig for at skrive en del, som er forholdsvist simpelt at skrive.
Jeg er overbevist om at jeg på sigt kommer til at spare tid på mine scripts. Bruger Claude Sonnet 4.5.
Det må du helt sikkert :) Jeg bruger det primært på metodeniveau (altså til at generere relativt få linjer) i teknologier hvor jeg ikke kender standard API’erne så godt. Fx. sidder jeg med en Razor Pages applikation lige nu hvor jeg fx. ikke lige ved hvordan man indsætter en url parameter i cshtml filen. Jeg har bundet inline AI til alt+i i min IDE (Rider) og så skriver jeg lige nogle stikord der hvorefter den genererer en diff som jeg så kan indsætte ved at trykke control+enter. Jeg bruger også AI vinduet i Rider til at lave størrer ting nu og da (fx. generere en Dotnet fil ud fra en database tabel) hvor man kan gå igennem outputtet og indsætte kode i eksisterende filer eller lave nye filer. Jeg bruger den ikke til at lave store features på en gang, det vil jeg helst selv lave så jeg forstår koden bedre. Det er mere hjernedøde ting som mappers, hvor jeg godt selv kunne skrive det men den er hurtigere. Jeg bruger den også til at lave scripts. Fx. har jeg fået den til at hjælpe mig med at lave et deploy script til en IIS Server som min kunde bruger. Jeg kommer nok aldrig til at lære powershell kan jeg mærke, så det er godt at få noget hjælp til det.
Noget jeg ikke kan fordrage er at den foreslår kode til mig mens jeg skriver det, så det har jeg slået fra. Det er for distraherende. Jeg vil kun have dens foreslag når jeg beder om det. Så det meste af tiden bruger jeg bare gode gamle intellisense.
Noget som jeg ikke har leget så meget med endnu er en kodeassistenter som Claude Code. Det er på min TODO.
Jeg har slet ikke nævnt hvilken model jeg bruger. Det er fordi jeg nærmest ikke lægger mærke til det. Lige nu bruger jeg Claude 3.5 Sonnet kan jeg se, men det er bare fordi det er default i Rider. Jeg betaler for Jetbrains IDE’erne og igennem det får man bla. 10 “AI Credits”, hvilket er svært at vide hvad er. Går ud fra at det bare en en abstraktion for at Jetbrains har nogle subscriptions til forskellige modeller som jeg så kan bruge. Jeg har aldrig ramt en grænse så aner ikke hvor meget jeg kan bruge.

Virkeligt interessant og sjovt at læse. I kontrast har jeg selv mest gjort i pseudo-CLI AI (a la Claude Code). Jeg har flere spørgsmål, men vi har også en utilfreds pige, der skal puttes, og dermed begrænset overskud.
Tak for indblikket.
Hurtig edit: jeg kan se, du har de gamle Sonnet 3.7 og Gemini 2.5 som muligheder på din liste (på skærmbilledet). De er begge bedre end din default model, Sonnet 3.5.
Hvis du kommer ud for at lege med forbrugsbaseret AI (som ved CLI+API), så er Gemini 3 Flash virkelig at anbefale - den er lækker. Ok god aften
*Opdatering: Efter længere brug af Gemini 3 Flash, vil jeg trække lidt i land igen - den har en relativ høj fabuleringsgrad (aka hallucinering), og det gør brok i min kode. Så jeg er tilbage til at bruge den dyrere 3 Pro Preview.
Selv tak, jeg prøver med andre modeller. den nye Gemini 3 Flash bliver skamrost i den her hackernews tråd (og hackernews er svære at imponere) så forhåbentligt er 2.5 Flash også rimelig godt
Nuværende arbejde. En ikke kodende tester, can via gpt4 assisteret script lave automatiserede test på en viryuel maskine og efterfølgende via jira api opdatere zephyr testcases. Det er ikke spændende som sådan, men det giver den konkrete medarbejder mulighed for at lave det hverdags magi det kommer af 50 liniers PowerShell kode. Og det giver faktisk teamet en hel del.
Spændende - hvorfor GPT-4 og ikke GPT-5.2 eller Sonnet?
Det er virksomheden der har en lokal udgave kørende. Måske er det 4.5 men jeg mener den er baseret på 4.
OK, der må være noget, jeg misforstår. OpenAI tilbyder ikke on-premise deployment, mig bekendt. Deres modeller kører normalt kun via deres cloud (API).
Mybad. Det er gpt-4o - men hostet hos azure.



