Tankar · AI-integration

Så tänker vi om AI.

En essä på vanlig svenska om vad vi menar med "AI- integration" — vad vi bygger, vad vi avstår från, och vad vi mäter.

Författare
Johan Olofsson
Publicerad
April 2026
Lästid
5 minuter
Ämne
AI · Semantic Kernel · RAG

De flesta "AI-integrationer" vi ser i det vilda är en stor språk- modell fastskruvad på en produktroadmap som dekoration. Ett press- meddelande, en chatbot, en logotyp på startsidan. Det är inte integration. Det är skyltning.

Riktig integration börjar med en tråkig fråga. Vilket beslut, fattat av en människa i din verksamhet idag, kan fattas bättre, snabbare eller i en skala teamet inte klarar? Sen spårar vi data in, data ut och vad som händer när modellen har fel — för det kommer hända.

Börja med den tråkiga frågan.

Vi börjar inte med modellen. Vi börjar med arbetsflödet. Vi sitter med de som gör jobbet, ser dem göra det, och skriver ner de bedömningar de fattar utan att tänka. De flesta av dem är inte AI-problem. Några är.

De som är AI-problem har vanligen tre saker gemensamt: de är repetitiva, de bygger på ostrukturerad information, och de är svåra att helt automatisera men dyra att göra för hand. Det är sweet spot.

Planera för dagen modellen ljuger.

Varje Semantic Kernel vi levererar kommer med en plan för dagen den har fel med full självsäkerhet. Det betyder skyddsräcken, reservvägar, en revisionslogg en människa kan läsa, och en eskalationsväg tillbaka till en person. Det betyder också att kalibrera modellens tilltro ärligt — ett system som säger "jag vet inte" är värt mer än ett som bluffar.

En modell som svarar på vanlig svenska bör också kunna medge osäkerhet på vanlig svenska. Vi designar för båda.

Resultat, mätt i pengar.

Inget AI-projekt är klart förrän vi kan peka på raden i resultaträkningen där integrationen syns. Det kan vara kortare hanteringstid, högre lösning vid första kontakt, färre manuella granskningar, eller en produkt vi inte hade kunnat leverera alls utan den. Vad det inte är: "användare känner sig mer engagerade".

Vi tar inte AI-uppdrag som inte kan mätas. Om vi inte kan enas om måttet innan vi börjar är integrationen inte verklig — den är teater.

Vad detta betyder i praktiken.

Vi bygger med Semantic Kernel eftersom det låter oss samla produktionskod, spårbara prompts och domänverktyg på samma plats. Vi använder retrieval-augmented generation framför finjusterade modeller där det går, eftersom kundens data förändras och modellen inte ska behöva tränas om varje gång. Och vi dokumenterar felfallen innan demon.

If this matches how you want to ship AI, berätta vad du bygger.