Det här är del 1 av 3 i vår artikelserie om AI i praktiken. Läs också del 2: Hur fungerar olika modeller? och del 3: Vad görs i Tripnets AI-lab?
Jag gillar inte när vi pratar om AI som något magiskt. För det är det inte. Det är ett verktyg. Ett kraftfullt verktyg, absolut, men fortfarande ett verktyg. Och precis som med alla verktyg handlar det inte om vad det är, utan vad vi faktiskt använder det till och hur vi väljer att använda det. På Tripnet har vi valt att närma oss AI ganska pragmatiskt. Mindre hype, mindre framtidsspaningar och mer fokus på vad vi faktiskt gör i vardagen. För det är först där det blir intressant.
Jag brukar tänka på det så här:
– AI är ett verktyg som stärker mänsklig förmåga eller oförmåga. Är jag bra blir jag duktigare. Är jag briljant blir jag ett geni. Om jag inte kan så mycket, riskerar jag att AI leder mig i fel riktning.
Det är en ganska brutal utgångspunkt. Det finns en baksida i det här också. AI kan vara övertygande – även när den har fel. Det gör att man inte kan outsourca sitt omdöme. Man måste fortfarande förstå frågan man ställer och kunna värdera svaret man får.
AI i praktiken – det vi faktiskt använder det till
När man börjar använda AI i vardagen inser man ganska snabbt att det inte är en sak. Det är flera olika förmågor som råkar vara paketerade på ett sätt som gör att det känns som en tjänst. I praktiken handlar det om ganska konkreta användningsområden och de ser olika ut beroende på vem man frågar.
Use Case Ulf – textbearbetning
Jag började använda generativ AI och LLM:er ganska tidigt, framför allt i samband med att jag arbetade med texter till årsredovisningen. I början handlade det mycket om att förstå hur man skulle formulera sina promptar för att få något användbart tillbaka. Med tiden har det förändrats. I dag handlar det mer om att föra ett resonemang.
– Jag använder ofta röstinmatning och pratar mig fram till vad jag vill få sagt. Det gör att jag kan tänka högt och samtidigt få hjälp att strukturera tankarna. Här trivs jag väldigt bra med Gemini i mobilen. När jag efter en stund fortsätter bearbeta detta i ChatGPT så närmar jag mig upp till runt 80 procent. Därifrån tar jag över själv. Jag justerar formuleringar, sätter min ton och säkerställer att texten faktiskt uttrycker det jag vill säga.Jag har utbildat ChatGPT i hur jag skriver och hur jag uttrycker mig. På samma sätt som en bra copywriter kan fånga min ton.
Det som är viktigt här är att ansvaret inte försvinner. AI hjälper mig att komma fram, men texten behöver fortfarande vara min. Det är egentligen där jag ser den stora skillnaden. AI ersätter inte kompetens. Den förstärker den.
Mina favoriter är Gemini, ChatGPT och Gemma 3 27B.
Use Case Pia – mötesfacilitering
Pia har många driftsmöten med våra kunder, och där använder hon AI för att spela in, transkribera och sammanfatta möten. Det förändrar arbetssättet mer än man kanske tror.
I stället för att sitta och anteckna kan hon fokusera på mötet. Ställa frågor, följa upp och driva samtalet framåt. Efteråt får hon ett strukturerat underlag, även om det fortfarande kräver viss efterbearbetning. Eftersom AI:n inte missar något går det betydligt snabbare att sammanställa beslut, åtgärder och uppföljning än om man hade antecknat manuellt. Det sparar tid. Men kanske ännu viktigare: kvaliteten blir jämnare och risken minskar att något faller mellan stolarna.
Pia jobbar mycket med Copilot integrerat i Microsoft 365 eller ChatGPT.
Use Case Marcelo – informationssammanställning
Marcelo arbetar ofta med att analysera stora mängder information, till exempel inom informationssäkerhet, driftkvalitet och ledningssystem. Det kan handla om dokumentation som byggts upp över lång tid och som behöver sättas i ett sammanhang.
I ett projekt tittade han på vad vi har gjort under 25 år inom ett specifikt område. Det innebar att gå igenom ett stort antal dokument, förstå innehållet och skapa en helhetsbild. Här fungerar AI som en förstärkning. Inte genom att ersätta analysen, utan genom att hjälpa till att strukturera materialet och lyfta fram mönster. Det förändrar inte vad som behöver göras, men det förändrar hur lång tid det tar.
Marcelo jobbar mycket med Copilot i Microsoft 365, men testar även öppna modeller hemma.
Use Case Martin – AI-stödd utveckling
För Martin ser det annorlunda ut. I utvecklingsarbetet använder han AI som en naturlig del av sitt dagliga arbete. Det handlar inte bara om att generera kod, utan om att arbeta mer iterativt.
AI används för att ta fram förslag, bygga gränssnitt och skapa struktur i arbetet. Det gör att han kan lägga mer fokus på systemdesign och funktionalitet, och mindre på själva kodandet. Det förändrar tempot i utvecklingen och gör det enklare att testa idéer och komma framåt snabbare.
Martin har många AI-kompisar, Copilot för Tripnetdata, Claude Code, GPT-5.3-Codex och OpenClaw.
Use Case Tripnet – AI i vårt riskarbete
Vi använder också AI i arbetet med vårt ledningsystem för ISO 27001. Här handlar det om förenklad och förbättrad riskhantering. Att analysera de risker vi redan har identifierat, förbättra konsekvensbedömningar och få förslag på kontroller.
För våra projekt så använder vi AI för att analysera befintliga risker och föreslå nya. Det som gör skillnad är att vi inte börjar från ett tomt papper. I stället får vi ett antal förslag att utgå ifrån. Några är direkt användbara, andra behöver justeras och vissa väljs bort. Men, vi får en startpunkt,, en liten knuff och det är ofta det som är det svåra.
Use Case Tripnet – AI i vårt Ledningssystem
Jag har ju inte kunnat låta bli att mata en AI med Tripnets ISO-dokument. Detta kallas för RAG, Retrieval-Augmented Generation, dvs en AI som först letar upp relevant information och sedan svarar utifrån den informationen. AI:n har fått tillgång till våra processer, rutiner och styrande dokument. När en kollega ställer en fråga, till exempel hur vi gör riskbedömningar på Tripnet eller hur incidentprocessen fungerar, hämtar AI:n först relevanta delar ur vårt eget material. Därefter formulerar den ett svar utifrån just vårt arbetssätt.
Det innebär att AI:n inte svarar generellt, utan verksamhetsnära. Den hjälper kollegor att snabbare hitta rätt, förstå våra processer bättre och omsätta dem i praktiken. På så sätt blir AI:n inte en ersättare för vårt Ledningssystem, utan ett smart gränssnitt.
AI är inte bara ett verktyg – det är flera väldigt olika
Många möter AI genom verktyg som ChatGPT, Copilot eller Claude. Det är en utmärkt start. Men ganska snabbt inser man att frågan inte bara är vad de kan göra, utan hur de är uppbyggda. Var data hamnar, hur den bearbetas och vilken kontroll man har över informationen blir centrala frågor. Det är här AI går från att vara ett verktyg till att bli en del av en större arkitektur.
Det är ofta här man går från att “använda AI” till att faktiskt behöva ta ställning till hur den ska användas. Det finns inte en modell som är bäst på allt. Det finns olika modeller, med olika styrkor. Vissa är små och snabba, andra större och mer eftertänksamma. Vissa är bra på språk, andra på kod.
Hur kan olika typer av lokala språkmodeller användas?
Det innebär att effektiv användning av AI handlar om att välja rätt verktyg för rätt uppgift. Språkmodeller skiljer sig åt i både storlek, specialisering och användningsområde. För att använda dem effektivt behöver man förstå vilken typ av modell som passar vilken uppgift, snarare än att alltid välja den största eller “smartaste”.
Standardmodell för vardagligt arbete
Här används ofta en mellanstor allround-modell, till exempel GPT-OSS 20B. Den typen av modell lämpar sig väl för textproduktion, sammanfattningar, resonemang kring tekniska och verksamhetsnära frågor samt som allmänt bollplank. Funktionellt motsvarar detta hur många använder ChatGPT (GPT-4-klass) i sin dagliga kunskaps- och skrivassistans, men här körs modellen lokalt eller i egen infrastruktur.
Djupare analys och mer avancerade resonemang
När behovet i stället är mer avancerade, till exempel vid arkitekturval, komplex felsökning, riskbedömningar eller längre strukturerade texter, används större modeller som DeepSeek R1 70B eller GPT-OSS 120B. Dessa kan jämföras med hur man använder de mer avancerade analyslägena i kommersiella tjänster som ChatGPT eller Claude, där fokus ligger på att hålla ihop långa resonemang och väga flera perspektiv mot varandra. Nackdelen är att dessa modeller är långsammare och kräver mer resurser, vilket gör dem mindre lämpliga för vardagsfrågor.
Programmering och tekniska implementationer
Här är specialiserade kodmodeller att föredra, till exempel Qwen 2.5 Coder 14B. De är tränade specifikt på kod, konfigurationsfiler och teknisk dokumentation, vilket gör dem mer träffsäkra än generella språkmodeller i dessa sammanhang. Detta motsvarar hur många använder kodfunktionerna i ChatGPT eller GitHub Copilot, men med fördelen att modellen körs lokalt och kan anpassas till den egna miljön.
Svenskt språk
När fokus ligger på svenska, exempelvis i kundkommunikation, interna styrdokument eller policytexter, är svenska språkmodeller som GPT-SW3 20B ofta bättre lämpade. De har tränats specifikt för svenska språkliga nyanser, terminologi och stil, vilket ger ett mer naturligt resultat än många globala modeller. Detta kan jämföras med hur Copilot eller ChatGPT används i svensk kontext, men där den språkliga kvaliteten ibland varierar beroende på modell och promptning.
Summering och modellval
Sammanfattningsvis kan man se det som att:
- Mellanstora allround-modeller motsvarar daglig användning av ChatGPT eller Copilot
- Stora modeller motsvarar avancerade analyslägen i ChatGPT eller Claude
- Kodmodeller motsvarar Copilot-liknande funktionalitet
- Svenska modeller är särskilt lämpade för lokal språkkvalitet och tonalitet
Genom att kombinera flera modeller kan man uppnå hög kvalitet utan att slösa resurser.
Molnet eller lokalt – en underskattad fråga
När jag pratar om AI märker jag att många fastnar i samma fråga: Var lagras datan? Det är en viktig fråga, men den räcker inte.
För mig är det minst lika viktigt att fråga:
- Var bearbetas informationen?
- Vem har tillgång till den?
- Under vilka juridiska och tekniska förutsättningar sker det?
Det är där det blir intressant på riktigt. När AI levereras som en vanlig molntjänst är det lätt att känna att allt redan är löst. Tjänsten finns där, gränssnittet är snyggt och det går snabbt att komma igång. Men för mig är det inte samma sak som att frågan faktiskt är löst. Särskilt inte när AI ska användas i verksamheten, nära kunddata, interna processer, känsliga underlag eller affärskritisk information.
Det räcker inte att tänka funktion. Jag behöver också tänka kontroll.
Jag tycker att AI ska behandlas på samma sätt som annan viktig IT. Det handlar inte bara om kapacitet och prestanda, utan också om ansvar, transparens och möjlighet att styra miljön. För mig blir det därför en tydlig skillnad mellan att använda en generell AI-tjänst i ett publikt moln och att köra AI i en kontrollerad miljö där förutsättningarna är tydliga från början.
Det är därför jag tycker att frågan om molnet eller lokalt är underskattad.
För vissa användningsområden fungerar publika molntjänster säkert bra. Men det finns också lägen där jag vill ha något annat. Jag vill veta var kapaciteten finns. Jag vill förstå vilka regelverk som gäller. Jag vill kunna resonera om isolering, ansvar, åtkomst och risk på ett sätt som faktiskt går att stå för, både tekniskt och affärsmässigt.
När AI körs i en kontrollerad miljö, som hos Tripnet, blir det möjligt att närma sig AI på ett mer genomtänkt sätt. Då handlar det inte bara om att använda AI för att det går, utan om att använda AI på ett sätt som passar informationen, verksamheten och riskbilden.
För mig är det ett mer moget sätt att arbeta med AI.
Jag tror inte på ett generellt ja eller nej till AI i molntjänster. Jag tror på att välja rätt miljö för rätt användning. Vissa saker kan med fördel ligga i externa tjänster. Andra saker bör köras i en miljö där vi har högre grad av kontroll, närhet och tydlighet.
Det viktigaste är att inte göra valet slentrianmässigt.
För när AI blir en del av verksamheten räcker det inte att fråga vad modellen kan göra. Jag behöver också fråga var den körs, hur den används och vem som faktiskt har kontroll när det verkligen gäller.
Det är därför jag ser frågan om molnet eller lokalt som större än många tror. Det är inte bara en teknikfråga. Det är en fråga om risk, ansvar och tillit.
Så hur ska man tänka?
För oss handlar AI inte om att säga ja eller nej. Det handlar om att förstå vad vi gör, och att göra medvetna val.
Du har läst del 1 av 3 i vår artikelserie om AI i praktiken.
Fortsätt gärna med del 2: Hur fungerar olika modeller? eller del 3: Vad görs i Tripnets AI-lab?