KI-agenter gir redusert risiko og økt treffsikkerhet

Tilbake

Skrevet av:
Miles
,
Jon-Gunnar Aasen, Joakim Lied Haga

Norske ledere har etter sigende begynt å miste interesse for og tillit til KI.

Skuffelse over resultatene og frykt for å gå på den neste KI-skandalen er en del av årsaken. Er det teknologien som er dårlig, eller bruker vi den på feil måte?

Kunstig intelligens anno 2025 er fantastisk teknologi, med et stort potensial til å løse utfordringer som tidligere var umulig eller for ressurskrevende. Men for å få effekt må vi vekk fra troen på at KI er en magisk kur. Uansett hvor imponerende den kan virke, må vi forstå at KI, som all annen teknologi, er «dumme» verktøy som vil mislykkes om vi ikke gir dem forutsetninger til det motsatte.

Å komme i gang må ikke være vanskelig

I går beskrev vi hvordan mange norske ledere gjør KI til et mål i seg selv. I stedet anbefaler vi tjenende ledelse og en problemorientert oppdragsdialog som nøkkelen til å lykkes med KI.

Neste utfordring er at vi søker å løse for store problemer. Vi skriver spørsmål til ChatGPT eller Gemini Deep Research, og ofte treffer de godt i resultatene sine. Andre ganger tar de seg friheter og svarer på ting du egentlig ikke lurte på. Kanskje har du også tatt dem i å hallusinere, og sitere forskning som ikke eksisterer? Årsaken ligger ofte i at du har bedt KI-en om å løse det som fremstår som ett problem, men som egentlig består av flere delproblemer.

Si at vi jobber med å selge et produkt. Vi ønsker å redusere tiden våre selgere bruker på forberedelse til salgs- og kundemøter, og spør en KI: «Jeg skal møte selskap X i morgen. Kan du gi meg en oppsummering om selskapet?». KI-en må nå anta en rekke forutsetninger for å finne ut hvilke data som er relevante for deg.

Få bedre kontroll ved å dele problemet i deloppgaver

En oppgave kan være å lese gjennom en årsrapport og sammenlikne kundens strategi med det våre produkter løser. En annen oppgave kan være å finne riktig kontaktperson basert på data fra internett. Slik kan vi gi tydeligere instruksjoner som reduserer behovet for at KI-en selv forsøker å anta hva vi vil oppnå. Andre effekter er at kildekontroll blir enklere, vi reduserer sannsynligheten for hallusinering, og vi kan lettere forklare hvordan vi kom frem til resultatet.

Du kan løse dette ved å skrive lange prompts til ChatGPT, men det vil bli vanskelig å holde styr på alle instruksjonene, og skalering over tid blir krevende. Vi anbefaler å bygge såkalte KI-agenter i et nettverk for å øke treffsikkerheten. Du vil få større frihet til å bruke forskjellige KI-modeller til oppgaver de er eksperter på. Resultatet er standardiserte og spesialiserte KIer som løser oppgaver mer effektivt, mer autonomt og med lavere risiko for feil.

Teknologi kan gjøre utrolige ting for oss, men bør ikke bli et mål i seg selv. Derfor synes vi det er bra dersom KI-hysteriet er i ferd med å roe seg. Men la oss ikke dermed miste troen på en fantastisk teknologi.

Vi i Miles hjelper gjerne med å bryte ned problemene til din bedrift, og bygge målrettede KI-agenter i nettverk, som løser både dagens og morgendagens problemer!