AI som strategisk superkraft

Kunstig intelligens (AI) er en superkraft – ikke erstatning for tenkning. Den (AI) endrer arbeidslivet raskere enn noen teknologi før den. Ikke ved å erstatte mennesker, men ved å forsterke dem (ved å gi dem en form for superkraft!). Likevel ser vi at mange ledere og organisasjoner fortsatt mangler en gjennomtenkt strategi for hvordan AI bør integreres i forretningsprosesser. Risikoen er ikke at AI tar over jobbene – men at de som behersker teknologien og bruker den målrettet, raskt oppnår et konkurransefortrinn over dem som ikke gjør det.

Denne artikkelen er inspirert av Sverre Haugens refleksjoner om AI som «tankeforsterker» (Haugen, 2025), og tar opp tråden videre ved å utforske hvordan AI kan brukes som en profesjonell superkraft i arbeidslivet. Den bringer inn nyere forskning, konkrete caser (gode og dårlige), og praktiske grep for ledere som vil sikre at AI-prosjektene deres leverer verdi.

Hvorfor mange AI-initiativ mislykkes

Generativ AI (som ChatGPT, Copilot, Claude, Gemini, Mistral, Perplexity med flere) gjør det mulig å generere tekst, analysere data og foreslå handlinger på rekordtid. Men uten menneskelig vurdering blir resultatene ofte overfladiske eller feilaktige.

Når ansatte skriver inn spørsmål eller kommandoer (prompter) uten å ha en klar problemstilling – for eksempel uten å tenke gjennom hvem som skal bruke svaret, hva formålet er, og hvilke kriterier det skal vurderes etter – får man ofte generelle og lite målrettede resultater.

AI skal ikke tenke for oss – den skal hjelpe oss å tenke klarere, raskere og bredere.

Gode eksempler

  1. Forsikringsprosess med automatisering og LLM
    Et europeisk forsikringsselskap implementerte en stor språkmodell for å automatisere identifisering av skadekomponenter i kundeklager. Tidligere var dette en manuell prosess som krevde vurdering av tekst og klassifisering i skadetyper. Med AI kunne selskapet redusere behandlingstid fra 2–3 dager til under 4 timer, og frigjøre betydelig kapasitet i kundesenteret (Khayatbashi et al., 2025).
  2. Bruk av ChatGPT hos Moderna og Asana
    Legemiddelgiganten Moderna tok i bruk ChatGPT Enterprise for ansatte i juridiske, kommersielle og teknologiske funksjoner. AI ble brukt til utkast til kontrakter, forberedelse av presentasjoner og forskningsoppsummeringer. Det rapporteres om vesentlig høyere produktivitet og bedre kvalitet i dokumentasjon, særlig blant ikke-tekniske brukere. Asana (lager et prosjektstyringsverktøy) bruker også egenutviklede GPT’er for å øke effektiviteten hos de ansatte. (Marketing AI Institute, 2024).
  3. Copilot i Office – konkret tidsbesparelse
    I RunMyJobs by Redwood (en IT-konsulentbedrift) ble Copilot brukt til å skrive førsteutkast av tilbudsdokumenter, oppsummere møter og analysere Excel-data. Resultatet var at konsulenter sparte mellom 1,5 og 2 timer daglig, og ledere rapporterte om færre feil og bedre konsistens i leveranser (Redwood, 2024).
  4. Innhold og idéutvikling med ChatGPT
    En nordisk markedsføringsavdeling brukte ChatGPT til å utforme kampanjestrategier og sosiale medier-innhold. De rapporterte 40 % raskere levering av kampanjer og høyere kreativ variasjon. AI ga forslag som teamet selv ikke ville kommet på (Winn, 2023).
  5. iTromsø – AI i lokaljournalistikken
    iTromsø utviklet Djinn, et AI-verktøy for å analysere og trekke ut relevant informasjon fra offentlige dokumenter. Resultatet var at journalister fant flere saker, reduserte research-tid, og kunne dokumentere saker med høyere kvalitet og fart (Journalists.org, 2024).
  6. Offentlig sektor i Norge: En fersk rapport viser at mange norske offentlige virksomheter fortsatt er i en tidlig fase av AI-adopsjon, og at utfordringer knytter seg til kompetanse, organisatorisk modenhet og styring (Krogstie, 2024).

Feilaktiv bruk og utilsiktede konsekvenser

  1. Chatbot med feilinformasjon ga kostbar kompensasjon
    Et flyselskap i Canada ble dømt til å betale refusjon etter at AI-chatboten deres ga juridisk feil svar til en kunde. Kundeserviceteamet hadde ikke kvalitetssikret AIens svar, og det juridiske ansvaret falt på selskapet. Det er her også flere andre eksempler på feil bruk som har ført til negative konsekvenser (EvidentlyAI, 2024).
  2. Overavhengighet på AI reduserte vurderingsevne
    Studien viser at overavhengighet av AI-dialogesystemer kan svekke studenters kritiske og analytiske tenkning, særlig når AI-svar aksepteres uten refleksjon. Etiske utfordringer som AI-hallusinasjoner, skjevheter og manglende transparens forsterker problemet. Samtidig kan AI støtte læring dersom det brukes med kritisk bevissthet og pedagogisk veiledning. Det er behov for mer robust empiri og bedre opplæring i ansvarlig AI-bruk i utdanning (Zhai et al., 2024).
  3. Feilvurdering i helsevesenet
    Studien viser at feil i AI-systemer kan påvirke menneskers beslutninger negativt, særlig når AI-vurderingen presenteres før brukeren selv har tenkt gjennom problemet. Feil AI fungerer som en “anker”-effekt og reduserer nøyaktigheten i vurderingene. Når deltakerne først gjør en egen vurdering før de ser AI-svaret, reduseres denne negative påvirkningen. Riktige AI-svar kan forbedre beslutninger, men effekten er mindre stabil (Springer, 2023).
  4. ChatGPT navnga uskyldig norsk borger som morder
    Et alvorlig eksempel på AI-hallusinasjon: En norsk mann ble feilaktig koblet til et barnedrap av ChatGPT. Saken førte til krav om bedre kontroll og logging i AI-systemer (NOYB, 2024).

Motstand og bærekraftig adopsjon

Selv den mest lovende AI-løsning kan mislykkes dersom den møter kulturell motstand, manglende tillit eller svak endringsledelse. Mange ansatte kan se AI som trussel eller «snikende overvåkning». Derfor må ledere investere i kommunikasjon, implicitt eierskap til AI-resultater, og trening som fremmer trygghet og kompetanse. Prosesser for involvering av ansatte, testpiloter og tilbakemeldingssløyfer er kritiske for at AI-initiativ skal få aksept og levedyktighet over tid.

Norge har varslet at de vil implementere EUs KI-forordning (AI Act), med krav til ansvar, risikovurdering og transparens. Norske bedrifter må dermed forberede seg på strengere krav til AI-bruk (Wiersholm, 2024).

Human in the loop – trygg og ansvarlig AI

“Human in the loop” (HITL) betyr at mennesker er aktivt involvert i vurdering og kvalitetssikring av AI-resultater. Det sikrer at AI blir brukt som støtteverktøy, ikke beslutningstaker. Dette er avgjørende for å unngå feilene nevnt ovenfor.

Hvordan operasjonalisere HITL:

  • Del opp beslutningskjeder i steg der AI genererer utkast, men menneske godkjenner før eksekvering.
  • Bruk konfidenspoeng eller usikkerhetsmarginer – dersom AI-modellen signaliserer usikkerhet, send saken til manuell vurdering.
  • Loggfør korreksjoner: når brukere justerer AI-utkast, må systemet fange opp læring og forbedre modellen.
  • Ha roller som “AI-kvalitetsansvarlig” eller “prompt-eier” i organisasjonen som står ansvarlig for evaluering og revisjon.

Hva bør jeg gjøre nå?

1. Kartlegg ett verdifullt AI-use case i egen organisasjon

  • Hva du gjør: Identifiser én konkret oppgave som er tidkrevende og tekst-/datarelatert, f.eks. møteoppsummeringer, tilbudsskriving eller e-postbehandling.
  • Hvordan: Samle input fra ansatte om “tidstyver” og vurder hvor generativ AI kan støtte.
  • Hvorfor: Liten innsats gir ofte stor gevinst – det gir rask læring og legitimerer videre AI-bruk internt.

2. Etabler en enkel «AI-pilotprosess» med HITL-prinsipp

  • Hva du gjør: Test AI-verktøy (f.eks. Copilot, ChatGPT eller Perplexity) på et reelt problem, men med menneskelig kvalitetssikring før bruk av resultater.
  • Hvordan: Sett opp en enkel pilot med 2–3 ansatte, definer hva AI skal gjøre, og hvordan resultatet skal vurderes.
  • Hvorfor: Sikrer trygg læring, gir innsikt i faktisk verdi og reduserer risiko ved feilbruk.

3. Utnevn en «AI-eier» med ansvar for læring og kvalitet

  • Hva du gjør: Gi én person i teamet ansvaret for å utforske AI-verktøy, dokumentere bruk og utvikle maler/prompter.
  • Hvordan: Rollen krever ikke teknisk bakgrunn – viktigst er evne til å formulere gode spørsmål og evaluere svar.
  • Hvorfor: Øker intern kompetanse, reduserer usikkerhet og legger grunnlag for skalerbar AI-bruk.

Mer om verktøyene

ChatGPT (OpenAI)
Best egnet til: Idéutvikling, tekstproduksjon, strategiutkast, samtalebasert assistanse
Styrker: Svært god språkforståelse og konteksthåndtering. Sterk på kreativitet, analyse og refleksjon. Integreres bredt i verktøy og API-er.
Svakheter: Kan hallusinere fakta, og har begrenset tilgang til oppdaterte data i gratisversjon.

Copilot (Microsoft)
Best egnet til: Produktivitetsverktøy i Microsoft 365 (Word, Excel, Outlook, Teams)
Styrker: Sømløs integrasjon med Office-verktøy. Effektiv for oppsummeringer, dataanalyse og dokumentautomatisering.
Svakheter: Begrenset kreativ frihet sammenlignet med ChatGPT. Avhengig av tilkobling og konfigurasjon i organisasjonen.

Claude (Anthropic)
Best egnet til: Lange tekster, kontekstbevaring, trygg språkbruk
Styrker: Ekstremt høy token-kapasitet (flere titusen ord i én samtale). Trygg og konservativ i språkbruk.
Svakheter: Mindre tilgjengelig enn ChatGPT. Kan være for forsiktig i generering. Mindre støtte for spesifikke integrasjoner.

Gemini (Google)
Best egnet til: Datasøk, Googles økosystem (Workspace), og bilde-/videoanalyse
Styrker: Sterk multimodal kapasitet (tekst, bilde, kode). God til faktainnhenting via søk. Integrert med Gmail, Docs og Sheets.
Svakheter: Begrenset i fritt kreativt arbeid. Variabel tilgang avhengig av region og brukerstatus.

Mistral (Open Source)
Best egnet til: Lokale løsninger, API-integrasjoner, tekniske oppgaver, utvikling
Styrker: Rask, lettvekts og god å kjøre lokalt eller på egen server. Høy fleksibilitet og personvernsikkerhet.
Svakheter: Mangler det kreative og kontekstuelle overskuddet til GPT og Claude.

Perplexity AI
Best egnet til: Research, fakta-sjekk, kildebaserte spørsmål
Styrker: Sterk på kildehenvisninger og oppdatert informasjon. Kombinerer AI-svar med direkte referanser til webkilder.
Svakheter: Begrenset kreativitet og svakere på refleksjon eller analyse.

Kilder

AIFire, 2024. 10 ChatGPT Business Automation Use Cases for n8n. Available at: https://www.aifire.co/p/10-chatgpt-business-automation-use-cases-for-n8n-a-guide [Accessed 16 Oct. 2025].

Brynjolfsson, E., Li, D. & Raymond, L., 2023. Generative AI at Work. NBER Working Paper No. 31161. Available at: https://www.nber.org/papers/w31161 [Accessed 16 Oct. 2025].

EvidentlyAI, 2024. 13 examples of AI mistakes and failures. Available at: https://www.evidentlyai.com/blog/ai-failures-examples [Accessed 16 Oct. 2025].

Haugen, S., 2025. Bruk AI for å tenke bedre – ikke mindre. LinkedIn. Available at: https://no.linkedin.com/pulse/bruk-ai-%C3%A5-tenke-bedre-ikke-mindre-sverre-haugen-i6kwf [Accessed 16 Oct. 2025].

Journalists.org, 2024. How local newspaper iTromsø built a custom AI tool. Available at: https://journalists.org/event/case-study-how-local-newspaper-itromso-built-a-custom-ai-tool-for-story-research-and-discovery [Accessed 16 Oct. 2025].

Khayatbashi, S., Sjölind, V., Granåker, A. & Jalali, A., 2025. AI‑Enhanced Business Process Automation. arXiv. https://arxiv.org/abs/2504.17295 [Accessed 16 Oct. 2025].

Krogstie, J., 2024. Anvendelse av kunstig intelligens (KI) i Norge i offentlig sektor. arXiv. https://arxiv.org/abs/2412.19273 [Accessed 16 Oct. 2025].

Marketing AI Institute, 2024. How Moderna is using ChatGPT internally. https://www.marketingaiinstitute.com/blog/ai-case-studies [Accessed 16 Oct. 2025].

NOYB, 2024. AI hallucinations: ChatGPT created fake child murderer. https://noyb.eu/en/ai-hallucinations-chatgpt-created-fake-child-murderer [Accessed 16 Oct. 2025].

Papagiannidis, S. et al., 2023. Uncovering the dark side of AI-based decision-making. Journal of Business Research. https://doi.org/10.1016/j.jbusres.2023.113774 [Accessed 16 Oct. 2025].

Patwardhan, R. et al., 2025. GDPval: Evaluating AI Model Performance on Real-World Tasks. OpenAI. https://cdn.openai.com/pdf/d5eb7428-c4e9-4a33-bd86-86dd4bcf12ce/GDPval.pdf [Accessed 16 Oct. 2025].

Redwood, 2024. Using ChatGPT to improve IT and business processes. https://www.redwood.com/article/chatgpt-improving-it-business-processes [Accessed 16 Oct. 2025].

Springer, 2023. AI Error and Human Involvement. Cognitive Research Journal. https://doi.org/10.1186/s41235-023-00529-3 [Accessed 16 Oct. 2025].

Stat News, 2024. Human in the loop in medical AI. https://www.statnews.com/2024/03/13/artificial-intelligence-models-medicine-human-in-the-loop [Accessed 16 Oct. 2025].

Wiersholm, 2024. Norges nye KI-forordning – hva betyr den for din virksomhet?. https://svw.no/en/insights/norways-new-ai-act-what-it-will-mean-for-your-business [Accessed 16 Oct. 2025].

Winn, Z., 2023. MIT Study: ChatGPT boosts productivity. MIT News. https://news.mit.edu/2023/study-finds-chatgpt-boosts-worker-productivity-writing-0714 [Accessed 16 Oct. 2025].

Zhai, C., et al., 2024. The effects of over-reliance on AI dialogue systems on decision making. Smart Learning Environments. https://slejournal.springeropen.com/articles/10.1186/s40561-024-00316-7 [Accessed 16 Oct. 2025].

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *