Author: Atosa Majidi

AI som skattkarta – navigera i ditt dataarkiv med precision

AI som skattkarta – navigera i ditt dataarkiv med precision

Data är en ovärderlig resurs – men utan rätt verktyg kan den bli en svårnavigerad skattkista. Med hjälp av AI som skattkarta gjorde vi arkiv sökbara, hittar kritisk data snabbare och skapar en enklare väg till insikt.

Från rådata till värdefull information

Att använda en skattkista som metafor för data är något jag tidigt mötte i IT-branschen. Och för att din data ska vara något värd behöver du en bra skattkarta. Här följer en arkivlösning vi skapat för en av våra kunder, där en enkel AI-modell fungerar som karta i en ibland snårig djungel av data.

Utmaningen – ett arkiv med
15 000 meddelanden per dag

Datan i det här fallet är ett arkiv som loggar ungefär 15 000 meddelanden per dag. Informationen kommer från olika integrationer i Azure och sparas i ett blob storage. Användarna behöver kunna hitta enskilda meddelanden för att:

  • Identifiera felaktigheter
  • Skicka om meddelanden
  • Söka efter specifik information

Men utan en effektiv sökmetod är detta en tidskrävande process.

Lösningen – AI som strukturerar och gör datan sökbar

Numera finns det connectors i Logic App Standard för att skapa en RAG-struktur (Retrieval Augmented Generation). Det innebär att vi kan bygga en chatapp som endast svarar på frågor baserat på ett fördefinierat dataset.

Designen för vår lösning ser ut så här:

  1. En Logic App hämtar datan från blob storage.
  2. Logic Appen genomför transformationer – extraherar relevant information och dekodar kodad data.
  3. OpenAI-connectorn skapar word embeddings av den relevanta datan.
  4. AI Search-connectorn indexerar dokumentet, vilket gör datan sökbar.

Två sökmetoder för maximal träffsäkerhet

Denna struktur möjliggör två söksätt:

🔹 Keyword Search – Hitta exakta matchningar, t.ex. ett löpnummer.
🔹 Vector Search – Identifiera den datapunkt som är mest relevant, även om ingen exakt matchning finns.

Användaren behöver inte själv välja sökmetod – det sker automatiskt via chatappen.

Testning och driftsättning i Azure AI Foundry

För att säkerställa bästa prestanda testades chatappen i Azure AI Foundry. Där kunde vi jämföra olika AI-modeller, såsom GPT-4, GPT-4o och GPT-4o-mini. När vi hittade en modell vi var nöjda med driftsatte vi en webapp direkt via Azure AI Foundry.

Om användaren föredrar att inte använda chatappen, går det också att göra API-calls direkt till AI Search för att få träffsäkra resultat.

Vad är vinsten med denna AI-lösning?

Den största fördelen är enkelheten – det blir lättare och snabbare att hitta rätt data jämfört med att söka manuellt i blob storage.

🔹 Anpassad indexering – Vi kan välja exakt vilka fält som ska indexeras.
🔹 Tolerans för inexakta sökningar – Även om en sökning är ofullständig eller otydlig kan systemet ge relevanta svar.
🔹 Högre träffsäkerhet – Användaren hittar snabbare det meddelande som behövs, vilket sparar tid och minskar fel.

Med andra ord – vi skapar en bättre skattkarta för att navigera i datadjungeln och hitta de riktiga guldkornen!

Att tänka på vid implementering av en RAG-lösning

Innan du implementerar en RAG-app för sökbar data finns några viktiga faktorer att ha i åtanke:

📌 En RAG-app kan endast svara på frågor baserade på referensdatan. Frågor utanför datasetet besvaras med “jag vet inte”.

📌 RAG kan inte aggregera data. Exempelvis kan den inte svara på “hur många meddelanden skickades mellan 2 och 7 januari?” eftersom den inte sammanställer statistik.

📌 AI-kostnader och tokenförbrukning. En RAG-app konsumerar många tokens, så det är viktigt att säkerställa att kvotan räcker. Dock minskar kostnaderna stadigt – i skrivande stund kostar en miljon input-tokens för GPT-4o-mini cirka 15 cent.

Vill du utforska möjligheterna med AI-drivna arkiv?

Vill du veta hur AI kan hjälpa dig att göra din data mer sökbar, strukturerad och användbar? Eller är du nyfiken på de teknologier vi använt i denna lösning?

Vill du snacka mer om AI och smarta arkivlösningar?

Jag tycker att det här projektet var ett spännande exempel på hur AI kan användas för att förenkla navigering i stora datamängder. Om du är nyfiken på hur en liknande lösning skulle kunna funka för er, eller om du bara vill prata AI, integration och smart datahantering – hör av dig!

Släng iväg ett mejl eller connecta på LinkedIn – alltid kul att prata AI!

/ Håkan Åkerblom, Data Analyst & AI Integration Specialist

<>Håkan Åkerblom

Continue reading

Integration Love Story with Robert Mayer

I detta avsnitt pratar vi med Mike Stephenson, en av världens främsta integrationsexperter och Produktägare på Kovai.

Alla aktuellt

Integration love story

Robert Mayer, en av cloud och integrationsarkitekt med en passion för Open Telemetry.

Om videon inte spelas, klicka här:Integration Love Story med Robert Mayer

I den här episoden av Integration Love Story välkomnar vi Robert Mayer, cloud- och integrationsarkitekt.

Robert visar upp sin passion för observability och hur det revolutionerar integrationsvärlden. Han lyfter fram Open Telemetry som en nyckel till att öppna den “svarta lådan” inom integration – ett sätt att skapa transparens och ge företag möjlighet att förstå och optimera sina lösningar. Genom att standardisera hur data spåras och analyseras kan Open Telemetry inte bara spara kostnader utan också driva affärsvärde på nya sätt.

Robert delar också lärdomar från sin karriär, där han ser kopplingen mellan teknik och affärsbehov som en förutsättning för framgångsrika projekt. Han visar hur misstag kan bli till styrkor och varför transparens är centralt i allt han gör – från integrationer till att hantera en viss kebabskylt som, till hans frus förtret, pryder hans kontor och ständigt påminner om kreativiteten som driver hans arbete.

Feel free to contact me. Let’s discuss these exciting developments together!

Continue reading