Skip to main content

Tänk om morgondagens innovation finns i det du redan har?

Tänk om morgondagens innovation redan finns i dina befintliga integrationer?

Många integrationslösningar har levererat stabilt i åratal och fått stå orörda. Ofta för att ingen riktigt vet hur de fungerar, eller för att det känns tryggare att bygga nytt än att röra vid det gamla. Men vad händer om det redan finns outnyttjade möjligheter i de integrationer du har idag?

Långlivade integrationerna kan vara en bortglömd tillgång

Integrationer är ofta de mest långlivade lösningarna i ett IT-landskap. De levererar data, de fungerar stabilt och i bästa fall märks de knappt. Vilket är ett tecken på att de gör sitt jobb. Men det gör också att de ofta lämnas orörda under lång tid. Dokumentationen blir föråldrad eller saknas helt, och kunskapen om hur de är uppbyggda försvinner när personer slutar eller byter roll.

När nya behov uppstår, som att bygga en dataplattform eller starta ett AI-projekt, blir det därför ofta enklare att bygga nytt. Kanske till och med på en helt ny teknik. Det är inget fel i det men det kan innebära att man missar värdefulla möjligheter i de befintliga integrationerna.

Innovation kan börja i det du redan har

Genom att analysera och dokumentera dina befintliga integrationer kan du upptäcka värden som inte var synliga från början:

  • Dataflöden som kan återanvändas för att stötta nya projekt inom AI och datainnovation

  • En tydligare helhetsbild som minskar risken för driftstopp och beroenden

  • Nya idéer på innovation som bygger på befintlig plattform istället för att starta om från noll

Många organisationer sitter med en dåligt dokumenterad integrationsplattform. Resultatet är outnyttjade möjligheter. Framtidens innovation skulle kunna finnas i det ni redan har.

Tänk om morgondagens innovation redan finns i dina befintliga integrationer?

På Contica hjälper vi er att kartlägga er integrationsplattform och upptäcka värden ni redan har. Tillsammans synkar vi nuläget med er långsiktiga strategi för datainnovation och skapar en tydlig väg framåt där ni kan frigöra den innovation som redan finns i era integrationer.

Kontakta oss på Contica så bokar vi ett samtal för att prata om er befintliga integrationsplattform och hur en kartläggning skulle kunna hjälpa er i att förverkliga er IT-strategi.

Continue reading

Vad kostar det att inte migrera från BizTalk?

Vad blir kostnaden för att stanna för länge i BizTalk?

Vi vet att BizTalk är en fantastisk integrationsplattform. Är det endast end-of-support som gör det värt att agera? Är det licenskostnad för BizTalk som gör det värt att agera? Vi påstår att anledningarna är flera. En stark drivkraft borde vara vad kostnaden är att missa möjligheten att innovera.

BizTalk har tjänat väl men tiden går

Vi älskar BizTalk. Det har varit en trogen plattform för affärskritisk integration i över två decennier. Och låt oss vara tydliga, plattformen kommer fortsätta leverera länge för dem som väljer att stanna kvar.

Vår CTO Ahmed Bayoumy pratade nyligen om just detta tillsammans med Sandro Pereira, Head of Integration på DevScope, i ett gemensamt webinar om BizTalks framtid och vägen mot Azure.

De båda är tydliga: BizTalk är inte död ännu, men det är dags att börja förbereda sig.

Att stanna kvar i BizTalk kan kännas tryggt, men likt att parkera utan att betala så kan kostnaden bli orimlig i proportion i vad du hade fått om du agerade. Är det fler än jag som tycker att parkeringsböterna är oproptionerliga? Hur som helst.. Notan för att ligga kvar i BizTalk kommer i form av ökade driftkostnader, tekniska begränsningar och missade möjligheter till innovation. Framför allt kanske det sistnämnda, och vad är priset för missad innovation? Vi återkommer. Nu tillbaka till fakta.

Supporten för BizTalk Server 2020 upphör i april 2028, och efter det försvinner säkerhetsuppdateringar, bugfixar och officiellt stöd. Det är inte bara en kalenderfråga – det är en tydlig signal om att tiden är inne att agera.

Vad kostar det att inte agera?

Att avvakta migrering kan kännas tryggt på ytan, men innebär ofta dolda och växande kostnader. Här är några av dem:

1. Säkerhetsrisker
Utan officiellt stöd försvinner säkerhetsuppdateringar. Det innebär ökad sårbarhet mot intrång, dataläckor och compliance-problem.

2. Kostnader för legacy-infrastruktur
Drift av egna BizTalk-servrar, licenser, specialkompetens och beroende till äldre system ökar driftskostnaden och gör er mindre rörliga.

3. Missad innovation
Azure är inte bara ett alternativ till BizTalk. Det är en plattform där innovation sker. Att stå utanför innebär att missa möjligheten att dra nytta av nya tjänster inom AI, automatisering och avancerad analys.

4. Stagnerande integration
BizTalk är en robust plattform, men den bygger på ett äldre paradigm. I takt med att omvärlden blir mer händelsedriven, molnbaserad och distribuerad blir det svårare att bygga moderna integrationslösningar i BizTalk.

Azure är mer än en ny integrationsplattform

När ni migrerar till Azure handlar det inte bara om att ersätta något gammalt, det handlar om att öppna upp för framtiden.

Genom att flytta integrationsflöden till Azure får ni direkt tillgång till:

  • Serverless-arkitektur med Logic Apps, Functions och Event Grid

  • Automatiserade flöden och robust API-hantering

  • AI-agenter och kognitiva tjänster för smartare, självlärande integrationer

  • Azure Fabric och andra datatjänster för avancerad analys och realtidsinsikter

Integration är inte längre en isolerad ö, det är en grundförutsättning för att lyckas med data, analys, AI och digitalisering som helhet. Och det är just där Azure briljerar.

Microsofts väg framåt och vår

Microsoft är tydliga: framtiden ligger i en iterativ, stegvis migrering från BizTalk till Azure Integration Services. Inte genom att flytta allt på en gång, utan genom att börja där det gör mest nytta och bygga vidare därifrån.

Vi på Contica arbetar enligt samma princip. Vi hjälper våra kunder att kartlägga sin miljö, prioritera rätt och migrera i rätt takt. Målet är att skapa värde så fort och tryggt som möjligt, utan att riskera stabilitet eller affär.

Vi vågar påstå att vi är världsledande

Contica har jobbat med systemintegration sen 2010. Vi har hjälpt flertalet kunder att ta steget till Azure. Vår erfarenhet kombinerat med vårt partnerskap med DevScope – där BizTalk-gurun Sandro Pereira leder integrationsarbetet – har vi tillgång till en unik kombination av djup kompetens till våra kunders förfogande.

Tillsammans kan vi hjälpa er att migrera från BizTalk till Azure på ett tryggt sätt. Partnerskapet och vår egen kunskap inom AI och dataanlys kryddar även vad våra kunder får tillgång till. Vi kan även guida er genom transformationen, från traditionell integration till en modern, datadriven och AI-kapabel miljö i Azure.

När ni väl är i Azure kan vi, tack vare DevScopes spetskompetens inom Power BI och AI, även erbjuda er att omsätta data till beslutskraft. Med moderna analysverktyg får du bättre insikter, effektivare processer och ett smartare affärsstöd. Här kan du läsa mer om vårt partnerskap.

Dags att ta första steget?

Att inte göra någonting kan vara det dyraste beslutet.
Vi hjälper gärna till att identifiera vad som är rätt första steg för just er.

Kontakta oss på Contica så bokar vi ett samtal om era integrationsbehov och hur vi tillsammans kan planera er migreringsresa. Vi vill påstå att vår expertis är världsledande inom området. Men vi är inte bara tekniskt väldigt kunniga, vi är erfarna vägvisare.

Continue reading

BizTalk-migrering utan kaos? Börja med en tugga i taget.

Hur äter man en elefant? En bit i taget. Samma är det när du ska göra en migrering från BizTalk.

Att migrera från BizTalk är ingen enkel uppgift. Vi vet. Vi har gjort det över 10 gånger. Vi vet vilka fallgropar du ska undvika. Med vår samlade expertis och vårt partnerskap med DevScope har vi världsledande kompetens i hur du migrerar från BizTalk. En bit i taget.

Contica rekommenderar att du beställer en BizTalk-migrering.

När jag går på restaurang frågar jag alltid om kökets rekommendation. Varför? Man vet att det finns kärlek, tanke och tid bakom valet. Man kan känna sig trygg i att det blir bra. Kocken har gjort detta förut. Jag är i goda händer.

Lite så känner vi för de bolag som har BizTalk. Låt oss rekommendera en migrering! Vi har hjälpt över 10 kunder att ta klivet från BizTalk till Azure. Varje projekt har lärt oss något nytt, och vi tar med oss den erfarenheten in i varje ny migrering.

“Hur äter man en elefant? En bit i taget.”

Det är ett gammalt talesätt som fortfarande är högaktuellt. När något känns för stort, för komplext eller nästan oöverstigligt, påminner det oss om att lösningen ofta ligger i att ta små men välriktade steg. Ett i taget.

Och just så tänker vi när det handlar om BizTalk-migrering.

BizTalk har ofta varit en lojal del av verksamhetens infrastruktur i många år. Den har knutit ihop system, människor och affärer. Att byta ut något så centralt är inte ett litet beslut. Det vet de flesta. Men frågan som många brottas med är hur man faktiskt går till väga om man inte har gjort det förut.

Vi tror inte på att göra allt på en gång

Det kan låta lockande att försöka flytta hela BizTalk-miljön i ett svep. En “Big Bang”-strategi. Men verkligheten är sällan så enkel. Integrationer är ofta hårt sammanflätade, systemberoenden är svåra att kartlägga och risken för driftstörningar är påtaglig. Vi håller med Microsoft Best Practice när du står inför en migrering. Hur menar vi?

Att börja i liten skala, med kontrollerade steg, ger bättre resultat både tekniskt och affärsmässigt. Precis som med elefanten – det fungerar bättre att ta en tugga i taget.

Därför fungerar det stegvisa angreppssättet

Genom att arbeta iterativt får både vi och kunden stora fördelar. Vi kan snabbt identifiera vad som fungerar och vad som behöver justeras. Varje steg ger oss mer kunskap om den specifika miljön och ökar tryggheten i nästa steg.

Det minskar risken, gör det enklare att anpassa arkitekturen längs vägen och ger bättre kontroll över både kostnader och tidplan.

Och viktigast av allt – det fungerar. Inte bara i teorin, utan i praktiken. Vi vet det eftersom vi redan har genomfört över tio lyckade migreringsprojekt från BizTalk till Azure.

Vi är inte bara trygga – vi har tillgång till den främsta expertisen

På Contica är vi stolta över vår erfarenhet, men vi vet också när det är rätt att stärka teamet med spetskompetens. Därför samarbetar vi med DevScope, där Sandro Pereira är en nyckelperson. Sandro är en av världens mest erkända experter inom BizTalk och Azure Integration, och det är ingen överdrift att säga att han har varit med och format hela området.

Många som arbetar med integration idag har lärt sig grunderna genom Sandros bloggar, föreläsningar eller verktyg. Genom vårt partnerskap med DevScope kan vi tillsammans erbjuda en nivå av expertis som vi vågar påstå är bland de absolut främsta globalt när det gäller just migrering från BizTalk till Azure.

Vår rekommendation?

Om du sitter med tankar kring en kommande migrering, eller om du bara vill få ett bollplank, hör av dig. Vi lyssnar gärna in din situation, hjälper dig att se var ni står i dag och ger konkreta förslag på vad ert nästa steg är.

Vi vet att migreringen från BizTalk till Azure är stor. Men vi vet också att den går att genomföra, med trygghet och kvalitet, om man tar det steg för steg. Och vi hjälper gärna till.

Kontakta oss på Contica så bokar vi ett samtal om era integrationsbehov och hur vi tillsammans kan planera er migreringsresa. Vi vill påstå att vår expertis är världsledande inom området. Men vi är inte bara tekniskt väldigt kunniga, vi är erfarna vägvisare.

Continue reading

Security isn’t something you sprinkle on later. It’s baked into the design

Security isn’t something you sprinkle on later. It’s baked into the design

At this year’s Integrate conference, a clear theme emerged for anyone working with Azure Integration Services: security needs to be part of the platform design and not an afterthought

API Management – your hidden security layer

Several sessions showed how API Management can do more than just route traffic. Used right, it becomes a central part of your detection and prevention strategy. By analyzing traffic patterns and integrating with tools like Microsoft Fabric, you can uncover anomalies and spot fraud attempts early. That’s a powerful capability hiding in plain sight. 

Key Points:

  • Monitoring traffic patterns

  • Integration with Microsoft Fabric

  • Early fraud detection

Enterprise-scale security patterns & the AI Gateway

We also saw how large organizations approach API security at scale, layering policies for access control, identity validation, and traffic protection. And as AI-powered workloads become more common, APIM’s new AI Gateway capabilities are stepping in to help control the chaos. 

Shortcuts, costs – and the real price of insecurity

One session reminded us just how complex integration solutions can become over time. With every design choice, especially around security, there’s a tradeoff. Strong isolation and advanced controls sound great – until they double your cost or cripple your agility. Finding the right balance between cost and security isn’t just smart, it’s essential if you want your platform to be both safe and sustainable.

And perhaps the most relatable point came from the discussion around real-world integration projects: as services multiply and deadlines loom, shortcuts happen. Those shortcuts, like shared keys, overly broad permissions, or “temporary” public endpoints tend to stick around and come back to bite you.

💬 Biggest takeaway?

Security isn’t something you sprinkle on later. It’s baked into the design, the automation, and the defaults.
Get it right early or spend a lot more fixing it later.

<>Vill du prata mer säkerhet? Kontakta mig!

Continue reading

Integrate 2025: What you really need to explore now

Integrate 2025: What You Really Need to Explore Now

Contica’s CTO and Microsoft Azure MVP, Ahmed Bayoumy, shares his reflections from Integrate 2025. AI agents aren’t the future—they’re the new normal. This is your essential checklist for what to explore now to stay ahead in an increasingly intelligent integration landscape.

Integrate 2025: Your Essential Exploration Checklist 

Yes, everything is AI and AI agents now. And yes, we can’t ignore it anymore. 

The Reality Check 

After  Integrate 2025, one thing became crystal clear: There’s no way back from this. 

I know, I know, another “AI will change everything” article. But hear me out. This isn’t about hype anymore. Microsoft just showed us a world where AI agents are handling loan approvals, fixing production issues at 3 AM, and making business decisions that used to require human judgment. 

The most surprising part? These aren’t prototypes or far-future concepts. They’re shipping today. Whether you’re ready or not, the AI agent revolution is already here. The question isn’t “if” you should explore this technology, but “what exactly” you need to explore to stay relevant. 

Looking at below, I can see that a lot of businesses are running a few steps behind, and we need to reshape our thinking to simply keep up. Instead of rigid, rule-based integrations, we’re moving toward intelligent workflows that can reason through complex scenarios. 

We in phase 8 → AI Agents represent the next evolutionary step 

In this article, I thought of sharing my plan navigating this new reality your essential exploration checklist for the post-Integrate 2025 world. From Agent Loop in Logic Apps to MCP, hybrid deployments, and more these are the technologies you need to understand now. 

The “Must Explore” List:


1. Start with Agent Loop in Logic Apps

Agent Loop stands as logic apps bold answer to embedding AI decision-making directly into Logic Apps workflows. After the demonstrations at Integrate 2025, I’ve seen firsthand how this technology transforms integration patterns by adding intelligence to existing processes. 

What it is: AI agents that can reason through business processes instead of just following rules.

Why Agent Loop should be your first exploration: Because it already sits at the heart of your integration strategy. The brilliant thing about Agent Loop is you don’t need to change much, you’re already using Logic Apps for your business processes. Now you just add intelligence to them. 

The beauty of starting here: 

Leverage existing investments:  Your current Logic Apps workflows become smarter, not replaced 

Use familiar tools:  Same Visual Studio Code, same connectors, same deployment process 

Gradual transformation: Add Agent Loop to one step in an existing workflow, see the difference 

Immediate impact : Turn rigid if-then logic into intelligent reasoning without rebuilding everything  

The Critical Mindset Shift 

Agent Loop requires thinking differently about integration: 

From: “How do I integrate every possible scenario?” 

To: “How do I teach AI to reason about my business domain?” 

From: “My workflow must be 100% predictable” 

To: “My workflow should be intelligent and adaptive” 

From: “I control every decision point” 

To: “I govern the decision-making process” 

This isn’t about losing control, it’s about upgrading from manual control to intelligent governance. 

New Patterns for a New Era 

What caught my attention at Integrate 2025 were the agent orchestration patterns being demonstrated. These represent entirely new design approaches we need to consider. 

These patterns signal that we’re entering an exciting new era of integration design where intelligence is distributed throughout our business processes. 

📚 Key Resources: 


2. Model Context Protocol (MCP) – The New Standard

MCP functions as an open standard enabling AI models to interact seamlessly with external data sources and tools. Based on JSON-RPC 2.0 for messaging, MCP utilizes a client-host-server architecture that supports two primary transport methods: 

Remote MCP servers: Uses HTTP and Server-Sent Events (SSE) for network communication 

Local MCP servers: Employs standard input/output for same-machine communication 

The protocol addresses the traditional challenge of creating custom connectors for each new integration by providing a unified approach for connecting agents to both local and remote data sources

The simple explanation: As you expose more APIs as MCP servers (AI tools), you need a way to manage them all. API Center becomes your enterprise catalog where teams can: 

  • Discover what AI tools are available (“Oh, we already have a customer lookup tool!”) 
  • Govern who can use which tools (“Only finance team can access the billing APIs”) 
  • Track versions and ownership (“Marketing owns the campaign API, IT owns the infrastructure APIs”) 
  • Control access and permissions (“Junior agents can read data, senior agents can modify it”) 

Why you need this: Without a registry, you’ll end up with chaos – duplicate AI tools, security gaps, and teams building the same thing twice. API Center prevents the “wild west” of AI agent development. 

Real scenario: Developer wants to build an AI agent that checks inventory. Instead of building a new tool, they search API Center, find the existing inventory MCP server, and use it immediately. 

Why This Matters 

Every REST API you’ve built over the past decade can now: 
✅ Be used by AI agents 
✅ Without changes to logic 
✅ Exposed securely via Azure API Management (APIM) 
✅ Governed with API Center 

So instead of rewriting your systems for AI, you just wrap them with MCP and plug into the AI ecosystem. No rebuilding required , just expose it through MCP and AI agents can use it in natural language. 

📚 Key Resources: 

Expose your REST APIs as MCP servers: 

MCP Client Auth with APIM as your AI gateway: 

  • .NET: https://aka.ms/mcp-remote-apim-auth-dotnet 

API Center – Enterprise MCP registry: 


3. Logic apps Hybrid Deployment – Your Door to the Future

Now generally available (GA)!  

What it is: Running the full power of Logic Apps on your own infrastructure – and guess what? You get ALL the benefits: AI agents, automated testing, codeful workflows, and all 1,400+ connectors! 

The game-changer: This isn’t “hybrid lite” or “on-premises with limitations.” This is the complete Logic Apps platform running in your data center with every single capability: 

Agent Loop – AI agents making intelligent decisions on your infrastructure 

Automated unit testing – Full testing framework for production reliability 

Codeful workflows – Write code alongside visual design 

All 1,400+ connectors – Every SaaS integration you need 

Local data processing – Keep sensitive data on-premises 

Cloud management – Still manage everything through Azure portal 

Why this is your door to the future: You get tomorrow’s AI-powered integration platform running on today’s compliance-friendly infrastructure. No compromises, no “choose between cloud power and local control” – you get both. 

Perfect for: Financial services, healthcare, manufacturing, government – anyone who needs the future but can’t compromise on where their data lives. 

📚 Key Resources: 

When to explore this: 

  • You have data residency requirements 
  • You need to process data locally (manufacturing, IoT) 
  • You’re migrating from BizTalk Server 
  • You have intermittent connectivity issues 
  • Compliance requires on-premises processing 

Your evaluation process: 

  • Assess your Kubernetes maturity (you’ll need Arc-enabled clusters) 
  • Identify pilot workloads (start with non-critical processes) 
  • Plan your local architecture  

Pro tip: Don’t go hybrid just because you can. Go hybrid because you have a specific business need that cloud-only can’t meet.


4. Rules Engine – AI with Guardrails

What it is: Deterministic business rules that constrain AI agent decisions.

📚 Key Resources: 

Critical for: 

  • Financial services (regulatory compliance) 
  • Healthcare (safety protocols) 
  • Manufacturing (quality standards) 
  • Any business with strict governance requirements 

Your implementation approach: 

  • Document existing business rules (the ones humans follow today) 
  • Identify rule conflicts (what happens when rules contradict?) 
  • Start with simple rules (approval limits, routing logic) 
  • Test with AI agents (ensure they respect the boundaries) 
  • Monitor rule effectiveness (are they too restrictive or too loose?) 

Remember: Rules aren’t about limiting AI they’re about ensuring AI operates within your business policies. 


5. Logic Apps Testing Framework – Making It Production-Ready

What it is: Proper unit testing for your Logic Apps and AI agent workflows – because if AI agents are making business decisions, you better test them thoroughly. 

Why this is absolutely critical: Before this framework, testing Logic Apps meant manually clicking through workflows and hoping for the best. Now you can write automated tests that verify your workflows work correctly every time. 

The features: 

  • Mock external systems – Test without hitting real Salesforce, SAP, or databases 
  • Test AI reasoning – Verify agents make correct decisions for specific scenarios 
  • Visual Studio Code integration – Write and run tests right in your development environment 
  • CI/CD pipeline support – Automatic testing before production deployment 
  • Simulate different scenarios – Test edge cases and error conditions safely 

Why you can’t skip this: AI agents will make thousands of decisions without human oversight. Would you deploy code that transfers money without testing? Then don’t deploy AI agents that approve loans, process returns, or handle customer data without proper testing. 

The bottom line: This framework is what separates experimental AI projects from production-ready business solutions. It’s the difference between “cool demo” and “trusted system.” 

📚 Key Resources: 

Your testing strategy: 

  • Start with simple workflows (test inputs and expected outputs) 
  • Mock external dependencies (don’t hit real systems during tests) 
  • Test AI agent decisions (verify reasoning and compliance) 
  • Automate testing in CI/CD (no manual testing for production deployments) 
  • Monitor in production (testing doesn’t end at deployment) 

Non-negotiable: If you’re putting AI agents in charge of business decisions, you need automated testing. Period.


The skills we need now

For Developers: 

  • Learn prompt engineering and AI reasoning patterns 
  • Understand Model Context Protocol implementation 
  • Master hybrid workflow design (visual + code) 
  • Practice AI agent testing and debugging 

For Architects: 

  • Design AI-first integration patterns 
  • Plan governance for autonomous systems 
  • Evaluate security implications of AI agents 
  • Create standards for MCP server development 

For Business Analysts: 

  • Identify processes suitable for AI decision-making 
  • Learn to design AI agent workflows 
  • Understand the boundaries between human and AI judgment 
  • Practice writing business rules for AI systems 

For Operations Teams: 

  • Monitor AI agent performance and decisions 
  • Understand when to override AI recommendations 
  • Design escalation paths for complex scenarios 
  • Learn to work alongside AI operational tools 

 

💡 The Mindset Shift Required 

From Programming to Training 

You’re not just writing code anymore, you’re teaching AI how to think about your business problems. 

From Deterministic to Probabilistic 

Your workflows won’t always do exactly the same thing with the same inputs, and that’s not a bug, it’s a feature. 

From Control to Governance 

You can’t control every AI decision, but you can set the boundaries and monitor the outcomes. 

From Reactive to Proactive 

AI agents don’t just respond to events, they anticipate needs and take preventive action. 

🎯 Your Next Steps (Start Tomorrow) 

  1. Pick ONE thing from this list (don’t try to do everything at once) 
  2. Set up a development environment (Logic Apps Standard + VS Code) 
  3. Find a simple business process to experiment with (something low-risk but real) 
  4. Document your learning (you’ll need to teach others) 
  5. Plan for organizational change (this affects more than just Integrations) 

The Truth About Where We Are 

Integrate 2025 wasn’t just a product announcement, it was a declaration that the age of “dumb” automation is over. Microsoft just showed us that AI agents can reason, decide, and act autonomously within business processes. 

You can resist this change, but you can’t stop it. Your competitors are already exploring these capabilities. Your customers are already expecting this level of intelligent automation. 

The choice isn’t whether to adopt AI agents, it’s whether you’ll lead the transformation or be forced to catch up later. 

The exploration list above isn’t optional. It’s your roadmap to staying relevant in a world where intelligence is becoming the default expectation for every business process. 

Start exploring. Start today. The future doesn’t wait for anyone to be ready. 

<>Want to know more? Contact me know!

Continue reading

Agentic Loop – När drag-and-drop möter intelligens

Insikter från Integrate 2025 – när Agentic Loop möter verkligheten

Vad händer när AI-agenter flyttar in i Logic Apps och utmanar vårt sätt att tänka integration?
Håkan Åkerblom skriver sina insikter från Integrate 2025 med konkreta reflektioner om drag-and-drop, determinism – och varför framtiden kanske faktiskt är här nu.

Agentisk AI för dig som gillar drag-and-drop

I veckan var jag och några kollegor på ”Integrate 2025”, en integrationsmässa i London. Här kommer några insikter därifrån:

1. Det är utmattande att lyssna på föreläsningar hela dagen.
Fler mässor borde varva med workshops eller andra publikaktiverande aktiviteter. (Denna insikt får jag dock varje gång jag är på mässa).

2. AI-agenter är i ropet.
Alla vi som är det minsta intresserade av AI-agenter vet såklart redan detta, men det blir alltid lite tydligare när man får diskutera ämnet med andra tekniknördar under ett par intensiva dagar.

”Agent” är ett vitt begrepp som innefattar någon slags entitet som uppfattar sin omgivning och tar beslut därefter.

I den vidaste bemärkelsen kan en termostat sägas uppfylla beskrivningen, men när man pratar om AI-agenter brukar man oftast hänvisa till språkmodeller som har tillgång till olika verktyg och själv tar beslut för när och hur dessa ska användas.

En av mässans stora snackisar var att AI-agenter implementerats i low-code/no-code-verktyget Logic Apps, som används flitigt inom integration.

En av förtjänsterna med Logic Apps är att flöden man skapar blir väldigt visuella på ett sätt som inte kodblock blir. Om man föredrar att arbeta med kod framför drag-and-drop så kan man såklart göra det – men just när det gäller agenter tror jag det finns ett värde i att få koden presenterad visuellt.

Det blir tydligt:

  • vilka verktyg din agent har i verktygslådan

  • vilka flöden din agent kan trigga

  • hur hierarkin ser ut i ett nätverk med flera olika agenter

3. Inom integration gillar man determinism. AI är dock till sin design icke-deterministisk.

Determinism betyder här att man förväntar sig att om inputen är densamma, så är outputen också densamma.

Den absoluta majoriteten av AI-modeller är dock till sin natur icke-deterministiska – så varför i hela fridens namn skulle man vilja blanda in AI i integration?

Som jag ser det finns det tre tydliga tillfällen:

a. Agenten som startmotor:
Låt en agent starta ett specifikt deterministiskt flöde beroende på input. Lägg in vägräcken (direktöversättning av guardrails) för tillfällen då agenten skulle välja fel.

b. Agenten som räddningsplanka:
Aktivera endast agenten om ditt deterministiska flöde misslyckas. Istället för att flödet bara avbryts – ge agenten en chans att försöka lösa problemet, föreslå sin lösning till sin överordnade människa, och om denne godkänner (t.ex. via en knapptryckning i Teams – funktionaliteten finns inbyggd i Logic Apps) – låt agenten köra sin lösning.

c. Agenten som problemlösare:
Använd agenter när en deterministisk lösning är omöjlig eller opraktisk. Om ett problem är för komplext för att lösa inom rimlig tid – låt en agent prova att lösa det åt dig. Men: håll en människa “in the loop” som kan granska agentens lösningsförslag innan du sätter tilltro till den.

4. Föreläsares powerpoints har blivit snyggare – men mindre användbara.
Jag såg många AI-genererade presentationer. Jättesnygga! Men hjälpte de till att få fram budskapet? Nja.

Som gammal lärare kommer jag fortsätta göra mina fula presentationer själv – tack så mycket.


Hur som helst – AI-agenter har stor potential att radikalt förändra vårt IT-landskap och vår arbetsmarknad. (Jag vet att det har sagts länge – men den här gången kan det faktiskt vara på riktigt.)

👉 Vill du diskutera mer om AI-agenter och hur de kan implementeras i ditt affärsflöde? Hör av dig till mig på hakan.akerblom@contica.se

<>Vill du prata om hur AI kan förbättra era arbetsprocesser? Kontakta mig!

Continue reading

Agentic Logic Apps: A Potential Black Swan Moment in System Integration

Agentic AI – A Potential Black Swan Moment in System Integration

What happens when integrations are no longer hardcoded step by step—but instead guided by AI that understands goals, rules, and context?
In this article, I share my hands-on experience with Microsoft’s new Agentic Logic Apps—and why I believe we’re entering a new paradigm.

Agentic Logic Apps: A Potential Black Swan Moment in System Integration

What Is a Black Swan Event?

In history, a Black Swan event refers to something unexpected and highly impactful—an innovation that breaks away from conventional norms and forces a complete shift in thinking.

“We already have horses,” they said. “Let’s just focus on improving them.”

When automobiles were first introduced, many resisted. But over time, the car didn’t just replace the horse—it redefined how society moved, built infrastructure, and interacted with the world.

That kind of shift is what I believe is beginning to happen in the integration landscape.


What Does “Agentic” Mean?

To grasp agentic AI, it helps to contrast it with what we’re used to.

Traditional AI tools—like ChatGPT, GitHub Copilot, or other LLM-based apps—generate content, suggest code, and assist with documentation. But they rely on human input to act. They are passive.

We’ve improved workflows by embedding these models into pipelines. But they haven’t fundamentally changed how we build integrations.

That changes now.


Introducing Agentic Logic Apps

Agentic Logic Apps allow you to build workflows with built-in intelligence. Instead of following a strict, predefined script, they include an AI agent that:

  • Understands your goals

  • Decides how to achieve them

  • Uses the tools you define

Think of it like adding a smart assistant to your integration team—someone who reads your business process, knows your rules, and acts independently based on your intent.

Smart orchestration replaces static workflows.

You don’t hardcode everything. You define goals and give the agent the right tools—it figures out the rest.

You’re still in control:

  • You define available tools

  • You decide when humans should step in

  • You control how far the agent can go

As confidence grows, you can gradually hand over more responsibility.


Getting Started: Setting Up an Agentic Workflow

Important: Before diving into setup, let’s clarify one key term: tool. In this context, a tool is any predefined action the agent can use like calling an API, running a function, or triggering another workflow.

Step 1: Set up your Azure AI Foundry project

his is where you define your agent’s capabilities and access to models.

Follow the official instructions here: Create an Azure AI Foundry project in Azure AI Foundry portal – Microsoft Learn

Once the project is ready, open Azure AI Foundry Studio.

Step 2: Create model endpoints

Go to “My Assets” and create model endpoints. This is important, you’ll later connect these models to your Agentic Logic App to enable reasoning and decision-making.

Step 3: Create the Agentic Logic App

1. In Logic Apps Standard, select the new Agent option when creating your workflow.

2. Set up your trigger (as you would in a regular Logic App).

Define your goal using natural language. This is the most critical step. Be clear with your instructions and include any restrictions or steps the agent should follow.


3. Add your tools it can be any reusable logic blocks.

    • When creating a tool, describe its purpose so the agent can understand when to use it.
    • Define the tool’s parameters to indicate what kind of input it expects. This can include dynamic data or plain English instructions the model can interpret both.

When creating a tool its also critical to provide a description of its purpose so the agent can understand.

You should also provide a parameter to this tool, to define what kind of input data you will use.

Here there a magic can also happened as you can just define parameters not only from your data but also as instruction in plain English and the agent will understand and do the rest.



Now you are all set. This is just the beginning but it’s a promising one!

Next Steps for Success: Change your mindset

  1. Identify human bottlenecks: Look for manual steps in your processes that could benefit from AI assistance.
  2. Practice prompt engineering: Write clear, concise prompts to guide the AI effectively.
  3. Get feedback and improve: Test your integrations, gather feedback, and refine your workflows.

This is a legitimate Black Swan event for system integration. Why?

  1. Engineers will stop writing code: Endless logic code will be replaced. The agents handles translation and orchestration. Developers must shift focus from code to process. Business logic becomes the new core skill.
  2. Conversation replaces documentation: In near furure Instead of reading through hours of documentation, you’ll simply instruct the AI “Connect to my Azure SQL database and extract the sales data from last quarter.”
  3. Integration becomes composable: Once your tools and services are exposed, combining them becomes effortless. The whole becomes greater than the sum of its parts.

What This Means For Developers

Your focus must change, focus on business logic: We need to fully focus on what matters (solving business problems) instead of fighting with incompatible APIs

The Future Is Already Here

Agentic integration might sound like the distant future, but they’re happening right now.

Welcome to the black swan event. The water’s fine.  jump in!

Want to know more?

Contant me, Ahmed, CTO of Contica and Azure MVP.

<>Ahmed Bayoumy

Continue reading

Så utbildar vi oss i AI – Från prompt engineering till Azure

Så utbildar vi oss i AI – från prompt engineering till Azure

Hur bygger man AI-kunskap som verkligen fastnar – och samtidigt blickar framåt? På Contica har vi testat ett nytt upplägg med föreläsningar, quiz och intern nyfikenhet som drivkraft. Vi har djupdykt i prompt engineering, språkförståelse och Azure – men kanske mest spännande just nu är vår fascination för AI-agenter

Ett steg närmare att förstå AI:s svarta låda

“Tre föreläsningar och tre quiz – sex tillfällen att få AI att fastna i vardagen.”

I ett försök att öka transparensen i den svarta lådan som är AI har vi på Contica genomfört en intern utbildning i tre delar. Varje föreläsning följdes av ett kort quiz för att stärka lärandet.

Syftet? Att skapa kontinuitet, nyfikenhet och en vana att integrera AI-tänk i det dagliga arbetet.

📌 Ps. Missade du vårt tidigare inlägg om AI som svart låda? Läs det här: www.contica.se/blogg/ai-svart-lada


Del 1: Prompt Engineering – instruktioner som gör skillnad

“Det är lätt att fnysa åt titeln ‘prompt engineer’ – men grunden är viktigare än man tror.”

Att skriva effektiva prompter till en LLM (Large Language Model) kan vara både en konst och en vetenskap. Vi utforskade allt från enkla tekniker till mer avancerade koncept som RAG (Retrieval Augmented Generation).

Oavsett ambitionsnivå är prompt engineering ett grundläggande verktyg för dig som vill förstå och använda AI i praktiken.


Del 2: Word Embeddings – vad händer egentligen under huven?

“Word Embeddings är bryggan mellan mänskligt språk och matematik.”

Vi valde att fördjupa oss i tekniken bakom hur AI-modeller tolkar språk – och kom fram till att Word Embeddings är centrala för att förstå hur AI “tänker”.

Genom att koppla ord till vektorer i ett flerdimensionellt rum kan en AI-modell, trots att den bara räknar med siffror, faktiskt förstå mänskligt språk.


Del 3: AI i Azure – verktyg med potential och variation

“Azure är en föränderlig värld – förståelse för verktygen gör skillnad.”

Eftersom vi på Contica arbetar i Azure, fördjupade vi oss i vad Microsofts plattform erbjuder inom AI – från enkla API:er till mer kraftfulla modeller i samarbete med OpenAI.

Vi diskuterade:

  • Vilka verktyg som är mest användbara just nu

  • Hur mycket man själv behöver förstå bakom kulisserna

  • När det är läge att välja vilken lösning


Vill du veta mer – eller utforska framtiden tillsammans med oss?

Är du också nyfiken på AI – vare sig det handlar om prompt engineering, modellförståelse eller hur tekniken fungerar i Azure?

Just nu är vi särskilt fascinerade av AI-agenter – intelligenta system som inte bara förstår vad du vill, utan också tar reda på hur det ska göras. Vi tror att de kan spela en avgörande roll i nästa generations integrationer.

<>Håkan Åkerblom

Continue reading

AI – Den svartaste av alla lådor

AI – Den svartaste av alla lådor

“Att titta in i den svarta lådan är inget stackars människor förmår.”

Vad händer egentligen i en AI-modell? I det här blogginlägget delar vår kollega Håkan Åkerblom med sig av tankar om AI som en black box – och varför det är viktigare än någonsin att förstå vad som pågår under huven.

Vad menas med en “Black Box”?

Betänk begreppet Black Box. Det används på lite olika sätt beroende på sammanhang, men generellt kan man säga att det är ett system eller en funktion där du känner till inputen, alltså vad du stoppar in i, eller ger till lådan, samt outputen, alltså vad som kommer ut på andra sidan av lådan.

Vad som sker därinne i lådan för att din input förvandlas till lådans output är höljt i det dolda.

Kanske väljer du att “blackboxa” något för att förenkla visualiseringen av en process, medan man i andra fall “blackboxar” för att man helt enkelt inte vet vad som händer i lådan.

AI – en av de mest ogenomträngliga lådorna

Idag ska vi prata om den svartaste av alla lådor (möjligtvis undantaget vår egen hjärna) – nämligen AI.

Vi har alla sett bevis på olika AI-modellers fantastiska förmågor att spela schack och go, skriva texter, diagnosticera tumörer osv. Men förstår vi hur dessa modeller får fram sina svar?

Hur fungerar AI egentligen?

Vissa delar av AI-modellernas väg till framgång är höljd i dunkel – även för våra främsta AI-ingenjörer.

Hur känner en bildigenkänningsmodell igen en hund? Tittar den på öronen? Pälsen? Sammanhanget?

Exakt hur en modell kan känna igen en hund är svårt att förklara. Vi kan konstatera att ett CNN-nätverk är bra på bildigenkänning. Vi kan konstatera att en viss storlek på kernel är optimal. Vi kan konstatera att ett visst djup på nätverket ger bäst resultat. Men…

Att titta in i den svarta lådan är inget stackars människor förmår.

Det enda som sker därinne är en ofantlig mängd matrismultiplikationer av tal vi initialt slumpat fram.

Kunskap om AI – viktigare än någonsin

AI är sannerligen en gåta och samtidigt en större, viktigare och kanske mer skrämmande del av vår världsekonomi.

Därför tror vi på Contica mycket på att öka den generella kunskapen om AI. Vi har nyligen hållit en utbildning uppdelad i tre föreläsningar med tillhörande quiz där vi behandlade följande ämnen:

1. AI för att förenkla yrkesliv och vardag

Fokus på prompt engineering och tillämpning i praktiken.

2. Vad sker under huven?

Fokus på några centrala AI-tekniker, framför allt word embeddings.

3. AI i Azure

Vilka AI/ML-tjänster finns tillgängliga i Azure och vad kan man göra med dem?

Vill du också förstå mer?

Det finns så klart mycket mer att prata om än detta lilla axplock. På Contica kommer vi fortsätta att utbilda oss internt för att båda öka vår generella förståelse för AI men också specifikt inom vårt område. Exempelvis på hur morgondagens integration, stöttat av AI, kommer se ut.

Är du intresserad av att lära dig själv eller ditt företag mer om AI?

Oavsett om du är mest intresserad av tekniken, matematiken, etiken eller den praktiska användningen så kan vi kanske erbjuda något som passar dig. På Contica utforskar vi inte bara hur er verksamhet kan dra nytta av dagens teknik utan även hur framtidens integration kommer påverkar och förbättras av AI. Det delar vi gärna med oss av.

<>Håkan Åkerblom

Continue reading

Azure Logic Apps Hybrid Deployment Model – Public Preview Refresh

Public Preview Refresh –
Azure Logic Apps Hybrid Deployment Model

Flera viktiga frågor får svar. Starkare stöd för “Lift n Shift” av era mappningar från BizTalk och möjlighet att använda RabbitMQ on-prem med inbyggt stöd i Logic Apps Hybrid. Ett stort steg mot General Availability (GA) och en (ännu) enklare väg för migrering till Azure

Logic Apps Hybrid – Public Preview Refresh där stora frågor blir besvarade och General Availability närmar sig!

Den senaste Public Preview Refresh för Azure Logic Apps Hybrid Deployment Model besvarar flera viktiga frågor – och signalerar att General Availability är nära!

Microsoft har tagit stora steg för att göra Logic Apps Hybrid till en ännu starkare integrationsplattform. Med den senaste uppdateringen får vi tre efterlängtade nyheter:

Inbyggt stöd för RabbitMQ för on-prem message queues
Möjlighet att använda .NET Custom Code i BizTalk-mappningar
SAP-connector som nu fungerar på Linux-containers

Läs vidare för att upptäcka vad detta innebär för dig!


📌 RabbitMQ – Inbyggd message broker on-prem

En integrationsplattform anses av många inte vara komplett utan stöd för en message broker. En av de största frågorna har därför varit: Hur hanterar vi on-prem message queues i Logic Apps Hybrid?

Microsoft har nu gett oss svaret – en inbyggd RabbitMQ-connector

Detta gör det möjligt att enkelt ansluta till RabbitMQ utan att behöva skicka meddelanden till molnet. Perfekt för företag som har krav på lokal meddelandehantering eller vill behålla befintliga RabbitMQ-lösningar. Eftersom Logic Apps Hybrid bygger på Logic Apps Standard, kommer denna connector också att bli tillgänglig i molnversionen av Logic Apps inom kort.


📌 Starkare stöd att lyfta BizTalk-mappningar utan ändringar

En annan stor fråga har varit hur enkelt det är att migrera mappningar från BizTalk till Logic Apps Hybrid. Svaret är: nu ännu enklare!

Med stöd för .NET Custom Code på Linux-containers kan du nu lyfta “custom code” från dina BizTalk-mappningar utan att behöva skriva om logiken. Det betyder att det enklare går att köra “lift & shift” på de mappningar du inte vill lägga tid på att skriva om.

Detta är en viktig pusselbit för företag som vill modernisera sin integrationsplattform utan att behöva bygga om sina mappningar från grunden.



📌 Starkare stöd för SAP-Connector

För företag som använder SAP är enkel och stabil integration avgörande. Tidigare var den inbyggda SAP-connectorn i Logic Apps beroende av .NET Framework NCO DLLs, vilket krävde en Windows-miljö.

Nu har Microsoft löst detta genom att göra SAP-connectorn kompatibel med Linux-containers. Det innebär att företag kan köra SAP-integrationer i hybridmiljöer, nära sina affärskritiska system, utan att behöva hantera Windows-specifika beroenden.

En stor förbättring för alla som vill använda Logic Apps Hybrid för SAP-integrationer på ett smidigare och mer flexibelt sätt!


📌 Prestandaförbättringar & nästa steg

Utöver dessa stora nyheter har Microsoft även gjort flera prestandaoptimeringar för att förbättra hur Logic Apps Hybrid körs. Man arbetar nu med att publicera benchmarks som visar förväntad prestanda, samt dokumentera bästa praxis för CI/CD-processer.

Vi närmar oss General Availability, och vi ser med spänning fram emot detta! 


🚀 Läs mer & se alla nyheter i detalj

Gräv djupare! I inlägget från Kent Weare har du möjlighet att läsa mer och gräva ännu djupare i alla uppdateringar i detalj, inklusive videodemonstrationer:

🔗 Läs Kent Weares blogginlägg här


Behöver du stöd i din migrering från BizTalk till Azure? Vi kan hjälpa dig.

Vi har lång erfarenhet av att hjälpa företag migrera från BizTalk till Azure, och vår expertis inom Logic Apps Hybrid Deployment Model växer snabbt. Med stöd från Microsofts produktgrupp har vi på kort tid byggt en Azure-integrationsplattform med en RabbitMQ Message Broker – direkt på vår lokala server.

Vi har kunskapen, verktygen och insikterna för att guida dig genom nästa steg. Vill du utforska möjligheterna? Hör av dig till oss!

<>Ahmed Bayoumy

Continue reading