Skip to main content

Agentic Logic Apps: A Potential Black Swan Moment in System Integration

Agentic AI – A Potential Black Swan Moment in System Integration

What happens when integrations are no longer hardcoded step by step—but instead guided by AI that understands goals, rules, and context?
In this article, I share my hands-on experience with Microsoft’s new Agentic Logic Apps—and why I believe we’re entering a new paradigm.

Agentic Logic Apps: A Potential Black Swan Moment in System Integration

What Is a Black Swan Event?

In history, a Black Swan event refers to something unexpected and highly impactful—an innovation that breaks away from conventional norms and forces a complete shift in thinking.

“We already have horses,” they said. “Let’s just focus on improving them.”

When automobiles were first introduced, many resisted. But over time, the car didn’t just replace the horse—it redefined how society moved, built infrastructure, and interacted with the world.

That kind of shift is what I believe is beginning to happen in the integration landscape.


What Does “Agentic” Mean?

To grasp agentic AI, it helps to contrast it with what we’re used to.

Traditional AI tools—like ChatGPT, GitHub Copilot, or other LLM-based apps—generate content, suggest code, and assist with documentation. But they rely on human input to act. They are passive.

We’ve improved workflows by embedding these models into pipelines. But they haven’t fundamentally changed how we build integrations.

That changes now.


Introducing Agentic Logic Apps

Agentic Logic Apps allow you to build workflows with built-in intelligence. Instead of following a strict, predefined script, they include an AI agent that:

  • Understands your goals

  • Decides how to achieve them

  • Uses the tools you define

Think of it like adding a smart assistant to your integration team—someone who reads your business process, knows your rules, and acts independently based on your intent.

Smart orchestration replaces static workflows.

You don’t hardcode everything. You define goals and give the agent the right tools—it figures out the rest.

You’re still in control:

  • You define available tools

  • You decide when humans should step in

  • You control how far the agent can go

As confidence grows, you can gradually hand over more responsibility.


Getting Started: Setting Up an Agentic Workflow

Important: Before diving into setup, let’s clarify one key term: tool. In this context, a tool is any predefined action the agent can use like calling an API, running a function, or triggering another workflow.

Step 1: Set up your Azure AI Foundry project

his is where you define your agent’s capabilities and access to models.

Follow the official instructions here: Create an Azure AI Foundry project in Azure AI Foundry portal – Microsoft Learn

Once the project is ready, open Azure AI Foundry Studio.

Step 2: Create model endpoints

Go to “My Assets” and create model endpoints. This is important, you’ll later connect these models to your Agentic Logic App to enable reasoning and decision-making.

Step 3: Create the Agentic Logic App

1. In Logic Apps Standard, select the new Agent option when creating your workflow.

2. Set up your trigger (as you would in a regular Logic App).

Define your goal using natural language. This is the most critical step. Be clear with your instructions and include any restrictions or steps the agent should follow.


3. Add your tools it can be any reusable logic blocks.

    • When creating a tool, describe its purpose so the agent can understand when to use it.
    • Define the tool’s parameters to indicate what kind of input it expects. This can include dynamic data or plain English instructions the model can interpret both.

When creating a tool its also critical to provide a description of its purpose so the agent can understand.

You should also provide a parameter to this tool, to define what kind of input data you will use.

Here there a magic can also happened as you can just define parameters not only from your data but also as instruction in plain English and the agent will understand and do the rest.



Now you are all set. This is just the beginning but it’s a promising one!

Next Steps for Success: Change your mindset

  1. Identify human bottlenecks: Look for manual steps in your processes that could benefit from AI assistance.
  2. Practice prompt engineering: Write clear, concise prompts to guide the AI effectively.
  3. Get feedback and improve: Test your integrations, gather feedback, and refine your workflows.

This is a legitimate Black Swan event for system integration. Why?

  1. Engineers will stop writing code: Endless logic code will be replaced. The agents handles translation and orchestration. Developers must shift focus from code to process. Business logic becomes the new core skill.
  2. Conversation replaces documentation: In near furure Instead of reading through hours of documentation, you’ll simply instruct the AI “Connect to my Azure SQL database and extract the sales data from last quarter.”
  3. Integration becomes composable: Once your tools and services are exposed, combining them becomes effortless. The whole becomes greater than the sum of its parts.

What This Means For Developers

Your focus must change, focus on business logic: We need to fully focus on what matters (solving business problems) instead of fighting with incompatible APIs

The Future Is Already Here

Agentic integration might sound like the distant future, but they’re happening right now.

Welcome to the black swan event. The water’s fine.  jump in!

Want to know more?

Contant me, Ahmed, CTO of Contica and Azure MVP.

<>Ahmed Bayoumy

Continue reading

Så utbildar vi oss i AI – Från prompt engineering till Azure

Så utbildar vi oss i AI – från prompt engineering till Azure

Hur bygger man AI-kunskap som verkligen fastnar – och samtidigt blickar framåt? På Contica har vi testat ett nytt upplägg med föreläsningar, quiz och intern nyfikenhet som drivkraft. Vi har djupdykt i prompt engineering, språkförståelse och Azure – men kanske mest spännande just nu är vår fascination för AI-agenter

Ett steg närmare att förstå AI:s svarta låda

“Tre föreläsningar och tre quiz – sex tillfällen att få AI att fastna i vardagen.”

I ett försök att öka transparensen i den svarta lådan som är AI har vi på Contica genomfört en intern utbildning i tre delar. Varje föreläsning följdes av ett kort quiz för att stärka lärandet.

Syftet? Att skapa kontinuitet, nyfikenhet och en vana att integrera AI-tänk i det dagliga arbetet.

📌 Ps. Missade du vårt tidigare inlägg om AI som svart låda? Läs det här: www.contica.se/blogg/ai-svart-lada


Del 1: Prompt Engineering – instruktioner som gör skillnad

“Det är lätt att fnysa åt titeln ‘prompt engineer’ – men grunden är viktigare än man tror.”

Att skriva effektiva prompter till en LLM (Large Language Model) kan vara både en konst och en vetenskap. Vi utforskade allt från enkla tekniker till mer avancerade koncept som RAG (Retrieval Augmented Generation).

Oavsett ambitionsnivå är prompt engineering ett grundläggande verktyg för dig som vill förstå och använda AI i praktiken.


Del 2: Word Embeddings – vad händer egentligen under huven?

“Word Embeddings är bryggan mellan mänskligt språk och matematik.”

Vi valde att fördjupa oss i tekniken bakom hur AI-modeller tolkar språk – och kom fram till att Word Embeddings är centrala för att förstå hur AI “tänker”.

Genom att koppla ord till vektorer i ett flerdimensionellt rum kan en AI-modell, trots att den bara räknar med siffror, faktiskt förstå mänskligt språk.


Del 3: AI i Azure – verktyg med potential och variation

“Azure är en föränderlig värld – förståelse för verktygen gör skillnad.”

Eftersom vi på Contica arbetar i Azure, fördjupade vi oss i vad Microsofts plattform erbjuder inom AI – från enkla API:er till mer kraftfulla modeller i samarbete med OpenAI.

Vi diskuterade:

  • Vilka verktyg som är mest användbara just nu

  • Hur mycket man själv behöver förstå bakom kulisserna

  • När det är läge att välja vilken lösning


Vill du veta mer – eller utforska framtiden tillsammans med oss?

Är du också nyfiken på AI – vare sig det handlar om prompt engineering, modellförståelse eller hur tekniken fungerar i Azure?

Just nu är vi särskilt fascinerade av AI-agenter – intelligenta system som inte bara förstår vad du vill, utan också tar reda på hur det ska göras. Vi tror att de kan spela en avgörande roll i nästa generations integrationer.

<>Håkan Åkerblom

Continue reading

AI – Den svartaste av alla lådor

AI – Den svartaste av alla lådor

“Att titta in i den svarta lådan är inget stackars människor förmår.”

Vad händer egentligen i en AI-modell? I det här blogginlägget delar vår kollega Håkan Åkerblom med sig av tankar om AI som en black box – och varför det är viktigare än någonsin att förstå vad som pågår under huven.

Vad menas med en “Black Box”?

Betänk begreppet Black Box. Det används på lite olika sätt beroende på sammanhang, men generellt kan man säga att det är ett system eller en funktion där du känner till inputen, alltså vad du stoppar in i, eller ger till lådan, samt outputen, alltså vad som kommer ut på andra sidan av lådan.

Vad som sker därinne i lådan för att din input förvandlas till lådans output är höljt i det dolda.

Kanske väljer du att “blackboxa” något för att förenkla visualiseringen av en process, medan man i andra fall “blackboxar” för att man helt enkelt inte vet vad som händer i lådan.

AI – en av de mest ogenomträngliga lådorna

Idag ska vi prata om den svartaste av alla lådor (möjligtvis undantaget vår egen hjärna) – nämligen AI.

Vi har alla sett bevis på olika AI-modellers fantastiska förmågor att spela schack och go, skriva texter, diagnosticera tumörer osv. Men förstår vi hur dessa modeller får fram sina svar?

Hur fungerar AI egentligen?

Vissa delar av AI-modellernas väg till framgång är höljd i dunkel – även för våra främsta AI-ingenjörer.

Hur känner en bildigenkänningsmodell igen en hund? Tittar den på öronen? Pälsen? Sammanhanget?

Exakt hur en modell kan känna igen en hund är svårt att förklara. Vi kan konstatera att ett CNN-nätverk är bra på bildigenkänning. Vi kan konstatera att en viss storlek på kernel är optimal. Vi kan konstatera att ett visst djup på nätverket ger bäst resultat. Men…

Att titta in i den svarta lådan är inget stackars människor förmår.

Det enda som sker därinne är en ofantlig mängd matrismultiplikationer av tal vi initialt slumpat fram.

Kunskap om AI – viktigare än någonsin

AI är sannerligen en gåta och samtidigt en större, viktigare och kanske mer skrämmande del av vår världsekonomi.

Därför tror vi på Contica mycket på att öka den generella kunskapen om AI. Vi har nyligen hållit en utbildning uppdelad i tre föreläsningar med tillhörande quiz där vi behandlade följande ämnen:

1. AI för att förenkla yrkesliv och vardag

Fokus på prompt engineering och tillämpning i praktiken.

2. Vad sker under huven?

Fokus på några centrala AI-tekniker, framför allt word embeddings.

3. AI i Azure

Vilka AI/ML-tjänster finns tillgängliga i Azure och vad kan man göra med dem?

Vill du också förstå mer?

Det finns så klart mycket mer att prata om än detta lilla axplock. På Contica kommer vi fortsätta att utbilda oss internt för att båda öka vår generella förståelse för AI men också specifikt inom vårt område. Exempelvis på hur morgondagens integration, stöttat av AI, kommer se ut.

Är du intresserad av att lära dig själv eller ditt företag mer om AI?

Oavsett om du är mest intresserad av tekniken, matematiken, etiken eller den praktiska användningen så kan vi kanske erbjuda något som passar dig. På Contica utforskar vi inte bara hur er verksamhet kan dra nytta av dagens teknik utan även hur framtidens integration kommer påverkar och förbättras av AI. Det delar vi gärna med oss av.

<>Håkan Åkerblom

Continue reading

Azure Logic Apps Hybrid Deployment Model – Public Preview Refresh

Public Preview Refresh –
Azure Logic Apps Hybrid Deployment Model

Flera viktiga frågor får svar. Starkare stöd för “Lift n Shift” av era mappningar från BizTalk och möjlighet att använda RabbitMQ on-prem med inbyggt stöd i Logic Apps Hybrid. Ett stort steg mot General Availability (GA) och en (ännu) enklare väg för migrering till Azure

Logic Apps Hybrid – Public Preview Refresh där stora frågor blir besvarade och General Availability närmar sig!

Den senaste Public Preview Refresh för Azure Logic Apps Hybrid Deployment Model besvarar flera viktiga frågor – och signalerar att General Availability är nära!

Microsoft har tagit stora steg för att göra Logic Apps Hybrid till en ännu starkare integrationsplattform. Med den senaste uppdateringen får vi tre efterlängtade nyheter:

Inbyggt stöd för RabbitMQ för on-prem message queues
Möjlighet att använda .NET Custom Code i BizTalk-mappningar
SAP-connector som nu fungerar på Linux-containers

Läs vidare för att upptäcka vad detta innebär för dig!


📌 RabbitMQ – Inbyggd message broker on-prem

En integrationsplattform anses av många inte vara komplett utan stöd för en message broker. En av de största frågorna har därför varit: Hur hanterar vi on-prem message queues i Logic Apps Hybrid?

Microsoft har nu gett oss svaret – en inbyggd RabbitMQ-connector

Detta gör det möjligt att enkelt ansluta till RabbitMQ utan att behöva skicka meddelanden till molnet. Perfekt för företag som har krav på lokal meddelandehantering eller vill behålla befintliga RabbitMQ-lösningar. Eftersom Logic Apps Hybrid bygger på Logic Apps Standard, kommer denna connector också att bli tillgänglig i molnversionen av Logic Apps inom kort.


📌 Starkare stöd att lyfta BizTalk-mappningar utan ändringar

En annan stor fråga har varit hur enkelt det är att migrera mappningar från BizTalk till Logic Apps Hybrid. Svaret är: nu ännu enklare!

Med stöd för .NET Custom Code på Linux-containers kan du nu lyfta “custom code” från dina BizTalk-mappningar utan att behöva skriva om logiken. Det betyder att det enklare går att köra “lift & shift” på de mappningar du inte vill lägga tid på att skriva om.

Detta är en viktig pusselbit för företag som vill modernisera sin integrationsplattform utan att behöva bygga om sina mappningar från grunden.



📌 Starkare stöd för SAP-Connector

För företag som använder SAP är enkel och stabil integration avgörande. Tidigare var den inbyggda SAP-connectorn i Logic Apps beroende av .NET Framework NCO DLLs, vilket krävde en Windows-miljö.

Nu har Microsoft löst detta genom att göra SAP-connectorn kompatibel med Linux-containers. Det innebär att företag kan köra SAP-integrationer i hybridmiljöer, nära sina affärskritiska system, utan att behöva hantera Windows-specifika beroenden.

En stor förbättring för alla som vill använda Logic Apps Hybrid för SAP-integrationer på ett smidigare och mer flexibelt sätt!


📌 Prestandaförbättringar & nästa steg

Utöver dessa stora nyheter har Microsoft även gjort flera prestandaoptimeringar för att förbättra hur Logic Apps Hybrid körs. Man arbetar nu med att publicera benchmarks som visar förväntad prestanda, samt dokumentera bästa praxis för CI/CD-processer.

Vi närmar oss General Availability, och vi ser med spänning fram emot detta! 


🚀 Läs mer & se alla nyheter i detalj

Gräv djupare! I inlägget från Kent Weare har du möjlighet att läsa mer och gräva ännu djupare i alla uppdateringar i detalj, inklusive videodemonstrationer:

🔗 Läs Kent Weares blogginlägg här


Behöver du stöd i din migrering från BizTalk till Azure? Vi kan hjälpa dig.

Vi har lång erfarenhet av att hjälpa företag migrera från BizTalk till Azure, och vår expertis inom Logic Apps Hybrid Deployment Model växer snabbt. Med stöd från Microsofts produktgrupp har vi på kort tid byggt en Azure-integrationsplattform med en RabbitMQ Message Broker – direkt på vår lokala server.

Vi har kunskapen, verktygen och insikterna för att guida dig genom nästa steg. Vill du utforska möjligheterna? Hör av dig till oss!

<>Ahmed Bayoumy

Continue reading

AI som skattkarta – navigera i ditt dataarkiv med precision

AI som skattkarta – navigera i ditt dataarkiv med precision

Data är en ovärderlig resurs – men utan rätt verktyg kan den bli en svårnavigerad skattkista. Med hjälp av AI som skattkarta gjorde vi arkiv sökbara, hittar kritisk data snabbare och skapar en enklare väg till insikt.

Från rådata till värdefull information

Att använda en skattkista som metafor för data är något jag tidigt mötte i IT-branschen. Och för att din data ska vara något värd behöver du en bra skattkarta. Här följer en arkivlösning vi skapat för en av våra kunder, där en enkel AI-modell fungerar som karta i en ibland snårig djungel av data.

Utmaningen – ett arkiv med
15 000 meddelanden per dag

Datan i det här fallet är ett arkiv som loggar ungefär 15 000 meddelanden per dag. Informationen kommer från olika integrationer i Azure och sparas i ett blob storage. Användarna behöver kunna hitta enskilda meddelanden för att:

  • Identifiera felaktigheter
  • Skicka om meddelanden
  • Söka efter specifik information

Men utan en effektiv sökmetod är detta en tidskrävande process.

Lösningen – AI som strukturerar och gör datan sökbar

Numera finns det connectors i Logic App Standard för att skapa en RAG-struktur (Retrieval Augmented Generation). Det innebär att vi kan bygga en chatapp som endast svarar på frågor baserat på ett fördefinierat dataset.

Designen för vår lösning ser ut så här:

  1. En Logic App hämtar datan från blob storage.
  2. Logic Appen genomför transformationer – extraherar relevant information och dekodar kodad data.
  3. OpenAI-connectorn skapar word embeddings av den relevanta datan.
  4. AI Search-connectorn indexerar dokumentet, vilket gör datan sökbar.

Två sökmetoder för maximal träffsäkerhet

Denna struktur möjliggör två söksätt:

🔹 Keyword Search – Hitta exakta matchningar, t.ex. ett löpnummer.
🔹 Vector Search – Identifiera den datapunkt som är mest relevant, även om ingen exakt matchning finns.

Användaren behöver inte själv välja sökmetod – det sker automatiskt via chatappen.

Testning och driftsättning i Azure AI Foundry

För att säkerställa bästa prestanda testades chatappen i Azure AI Foundry. Där kunde vi jämföra olika AI-modeller, såsom GPT-4, GPT-4o och GPT-4o-mini. När vi hittade en modell vi var nöjda med driftsatte vi en webapp direkt via Azure AI Foundry.

Om användaren föredrar att inte använda chatappen, går det också att göra API-calls direkt till AI Search för att få träffsäkra resultat.

Vad är vinsten med denna AI-lösning?

Den största fördelen är enkelheten – det blir lättare och snabbare att hitta rätt data jämfört med att söka manuellt i blob storage.

🔹 Anpassad indexering – Vi kan välja exakt vilka fält som ska indexeras.
🔹 Tolerans för inexakta sökningar – Även om en sökning är ofullständig eller otydlig kan systemet ge relevanta svar.
🔹 Högre träffsäkerhet – Användaren hittar snabbare det meddelande som behövs, vilket sparar tid och minskar fel.

Med andra ord – vi skapar en bättre skattkarta för att navigera i datadjungeln och hitta de riktiga guldkornen!

Att tänka på vid implementering av en RAG-lösning

Innan du implementerar en RAG-app för sökbar data finns några viktiga faktorer att ha i åtanke:

📌 En RAG-app kan endast svara på frågor baserade på referensdatan. Frågor utanför datasetet besvaras med “jag vet inte”.

📌 RAG kan inte aggregera data. Exempelvis kan den inte svara på “hur många meddelanden skickades mellan 2 och 7 januari?” eftersom den inte sammanställer statistik.

📌 AI-kostnader och tokenförbrukning. En RAG-app konsumerar många tokens, så det är viktigt att säkerställa att kvotan räcker. Dock minskar kostnaderna stadigt – i skrivande stund kostar en miljon input-tokens för GPT-4o-mini cirka 15 cent.

Vill du utforska möjligheterna med AI-drivna arkiv?

Vill du veta hur AI kan hjälpa dig att göra din data mer sökbar, strukturerad och användbar? Eller är du nyfiken på de teknologier vi använt i denna lösning?

Vill du snacka mer om AI och smarta arkivlösningar?

Jag tycker att det här projektet var ett spännande exempel på hur AI kan användas för att förenkla navigering i stora datamängder. Om du är nyfiken på hur en liknande lösning skulle kunna funka för er, eller om du bara vill prata AI, integration och smart datahantering – hör av dig!

Släng iväg ett mejl eller connecta på LinkedIn – alltid kul att prata AI!

/ Håkan Åkerblom, Data Analyst & AI Integration Specialist

<>Håkan Åkerblom

Continue reading

Azure Arc och Logic Apps för Hybrida Molnlösningar: Effektiv BizTalk migration

BizTalk till Azure utan komplikationer
 Azure Arc och Logic App hybrid gör det möjligt!

Hur Azure Arc och Logic Apps förändrar spelplanen för organisationer

Varför hybridmiljöer är ett naturligt steg efter BizTalk för vissa organisationer

Har du använt BizTalk Server som en del av din organisations integrationslösningar? Då vet du att det är en pålitlig plattform för att hantera komplexa integrationer. Men idag, med molnets möjligheter och ökande krav på flexibilitet, kan det vara dags att fundera på nästa steg: hybridmiljöer.

Varför hybrid?

  • Flexibilitet i dataplacering: Du kan köra känsliga eller regelstyrda arbetsflöden lokalt, samtidigt som du drar nytta av molnets skalbarhet för andra processer.
  • Gradvis modernisering: I stället för att migrera allt på en gång kan du flytta arbetsflöden stegvis, vilket minskar risken och kostnaderna.
  • Möt nya krav: Hybridlösningar gör det möjligt att integrera moderna molntjänster, som AI och avancerad analys, utan att överge beprövad lokal teknik.


En smidigare väg för utvecklare med erfarenhet av BizTalk

BizTalk Server har varit en pålitlig plattform för integrationslösningar, men dagens krav på snabb innovation och globala integrationer ställer nya krav. För utvecklare med erfarenhet av BizTalk är övergången till Azure Integration Services och hybridlösningar både logisk och smidig.

Vad innebär det för utvecklare?

  • Återanvänd dina kunskaper: De integrationsmönster och tekniker som används i BizTalk, som orkestrering och meddelandetransformation, kan direkt tillämpas i Logic Apps och Azure Service Bus.
  • Kör arbetsflöden lokalt och i molnet: Arbetsflöden som tidigare kördes i BizTalk kan enkelt flyttas till Logic Apps Hybrid och köras på din egen infrastruktur.
  • Mindre förändring, större möjligheter: Du kan fortsätta arbeta på liknande sätt som med BizTalk, men med modernare verktyg som erbjuder högre flexibilitet och bättre prestanda.


Vad är Azure Arc och Logic Apps Hybrid?

Låt oss bryta ner det.

Vad är Azure Arc?

Azure Arc är en hybrid- och multicloud-lösning som låter organisationer hantera resurser utanför Azure, som servrar, Kubernetes-kluster och databaser, som om de vore inbyggda Azure-resurser. Detta innebär att lokala resurser kan hanteras från Azure-portalen och dra nytta av Azures kraftfulla verktyg för säkerhet, övervakning och automatisering.

Huvudfunktioner i Azure Arc:

  • Hantera resurser var som helst: Koppla fysiska eller virtuella servrar, Kubernetes-kluster och databaser till Azure, oavsett om de finns i ditt datacenter, på edge eller i andra moln.
  • Azure-tjänster lokalt: Kör molntjänster som Azure SQL Managed Instance och Azure Machine Learning på din egen infrastruktur med stöd från Azure Arc.
  • Central styrning och efterlevnad: Med Azure Policy och Microsoft Defender for Cloud kan du säkra och övervaka resurser i både lokala och molnbaserade miljöer.


Vad är Logic Apps Hybrid?

Logic Apps Hybrid är en avancerad förlängning av Azure Logic Apps som ger organisationer möjligheten att köra arbetsflöden direkt på Kubernetes-kluster, hanterade via Azure Arc. Denna lösning är särskilt anpassad för verksamheter som kräver låg latens, strikt dataplacering eller fungerar i miljöer med begränsad molnanslutning.

Nyckelfunktioner i Logic Apps Hybrid

  • Exekvering nära datakällan: Genom att köra arbetsflöden lokalt reduceras latens och bearbetningstider förbättras, vilket möjliggör effektiv hantering av data i realtid.

  • Flexibel molnintegration: Logic Apps Hybrid gör det möjligt att kombinera lokalt körda arbetsflöden med molnbaserade tjänster för att skapa en dynamisk och balanserad infrastruktur.

  • Skalbarhet och flexibilitet: Som containerbaserade applikationer på Kubernetes erbjuder Logic Apps Hybrid en lösning som kan skalas och anpassas efter verksamhetens växande behov.

Med Logic Apps Hybrid får organisationer en kraftfull plattform för att bygga integrationslösningar som förenar lokal prestanda och säkerhet med molnets innovation och skalbarhet.


Hur ser infrastruktur för Logic Apps hybrid ut och hur fungerar deployment?

Exempel på Infrastruktur för Logic Apps Hybrid

lösningen består av följande komponenter:

  1. Azure Arc: Hanterar och ansluter Kubernetes-kluster och andra resurser till Azure-kontrollplanet.
  2. Kubernetes-kluster: Kör Logic Apps Hybrid Runtime och andra containerbaserade applikationer som API-hantering.
  3. Logic Apps Hybrid Runtime: Ansvarar för att exekvera arbetsflöden lokalt och integrera med både lokala och molnbaserade tjänster.
  4. SMB-delning: Lagrar arbetsflödesartefakter och tillhörande data som distribueras till Logic Apps Hybrid.
  5. Self-hosted Gateway för API Management (APIM): En lokal version av Azure API Management Gateway som körs på Kubernetes eller en fysisk server. Ger säker och kontrollerad åtkomst till API:er, oavsett om de körs lokalt eller i molnet.
  6. RabbitMQ för meddelandehantering: RabbitMQ hanterar meddelandeköer och möjliggör asynkron kommunikation mellan system och arbetsflöden.
  7. Integreras med Logic Apps: För att skicka och ta emot meddelanden.


Hur fungerar deployment av Logic Apps hybrid?

När infrastrukturen är på plats är nästa steg att distribuera en Logic App och ett arbetsflöde. Så här fungerar processen:

  1. Skapa och skicka en ARM-mall:
    • Börja med att skapa en ARM-template som beskriver Logic App och arbetsflödet.
    • Skicka mallen Azure, till exempel  via Azure-portalen eller en CI/CD-pipeline.
  2. Azure Arc upptäcker ändringen:
    • Azure Arc-runtime kontrollerar regelbundet Azures kontrollplan och upptäcker den nya distributionen som skickats via ARM-mallen.
  3. Kubernetes Deployment triggas:
    • Azure Container Apps-runtime aktiverar en deployment i Kubernetes-klustret.
    • Arbetsflöden och relaterade data sparas i SMB-delningen.
  4. En ny pod skapas:
    • Som en del av Kubernetes-deployment skapas en ny pod i klustret.
  5. Logic Apps-poden hanterar arbetsflödet:
    • Den nyinstallerade logicapps-base-containern i poden hämtar arbetsflödet från SMB-delningen.
    • Containern exekverar arbetsflödet och gör det tillgängligt för användning.

Början på din hybridresa

Att kombinera Azure Arc och Logic Apps Hybrid handlar inte bara om teknologi – det är en strategi för att framtidssäkra din organisations integrations- och automationsbehov. Med en hybridinfrastruktur kan du dra nytta av molnets kraft och flexibilitet samtidigt som du behåller den kontroll och säkerhet som lokala resurser erbjuder.

Denna modell är särskilt fördelaktig för organisationer som redan använder BizTalk Server och vill modernisera sina integrationslösningar utan att behöva överge beprövade processer. Det är också en optimal lösning för företag som behöver hantera dataplacering, regelefterlevnad och krav på låg latens.

Med kraftfulla verktyg som Self-hosted Gateway för API-hantering och RabbitMQ för meddelandehantering kan du bygga robusta, säkra och skalbara lösningar. Genom att lägga till Kubernetes och Azure Arc får du en enhetlig hanteringsmodell som täcker både lokala och molnbaserade arbetsflöden – allt styrt från en central kontrollplan i Azure.

<>Ahmed Bayoumy

Continue reading