Skip to main content

Security isn’t something you sprinkle on later. It’s baked into the design

Security isn’t something you sprinkle on later. It’s baked into the design

At this year’s Integrate conference, a clear theme emerged for anyone working with Azure Integration Services: security needs to be part of the platform design and not an afterthought

API Management – your hidden security layer

Several sessions showed how API Management can do more than just route traffic. Used right, it becomes a central part of your detection and prevention strategy. By analyzing traffic patterns and integrating with tools like Microsoft Fabric, you can uncover anomalies and spot fraud attempts early. That’s a powerful capability hiding in plain sight. 

Key Points:

  • Monitoring traffic patterns

  • Integration with Microsoft Fabric

  • Early fraud detection

Enterprise-scale security patterns & the AI Gateway

We also saw how large organizations approach API security at scale, layering policies for access control, identity validation, and traffic protection. And as AI-powered workloads become more common, APIM’s new AI Gateway capabilities are stepping in to help control the chaos. 

Shortcuts, costs – and the real price of insecurity

One session reminded us just how complex integration solutions can become over time. With every design choice, especially around security, there’s a tradeoff. Strong isolation and advanced controls sound great – until they double your cost or cripple your agility. Finding the right balance between cost and security isn’t just smart, it’s essential if you want your platform to be both safe and sustainable.

And perhaps the most relatable point came from the discussion around real-world integration projects: as services multiply and deadlines loom, shortcuts happen. Those shortcuts, like shared keys, overly broad permissions, or “temporary” public endpoints tend to stick around and come back to bite you.

💬 Biggest takeaway?

Security isn’t something you sprinkle on later. It’s baked into the design, the automation, and the defaults.
Get it right early or spend a lot more fixing it later.

<>Vill du prata mer säkerhet? Kontakta mig!

Continue reading

Integrate 2025: What you really need to explore now

Integrate 2025: What You Really Need to Explore Now

Contica’s CTO and Microsoft Azure MVP, Ahmed Bayoumy, shares his reflections from Integrate 2025. AI agents aren’t the future—they’re the new normal. This is your essential checklist for what to explore now to stay ahead in an increasingly intelligent integration landscape.

Integrate 2025: Your Essential Exploration Checklist 

Yes, everything is AI and AI agents now. And yes, we can’t ignore it anymore. 

The Reality Check 

After  Integrate 2025, one thing became crystal clear: There’s no way back from this. 

I know, I know, another “AI will change everything” article. But hear me out. This isn’t about hype anymore. Microsoft just showed us a world where AI agents are handling loan approvals, fixing production issues at 3 AM, and making business decisions that used to require human judgment. 

The most surprising part? These aren’t prototypes or far-future concepts. They’re shipping today. Whether you’re ready or not, the AI agent revolution is already here. The question isn’t “if” you should explore this technology, but “what exactly” you need to explore to stay relevant. 

Looking at below, I can see that a lot of businesses are running a few steps behind, and we need to reshape our thinking to simply keep up. Instead of rigid, rule-based integrations, we’re moving toward intelligent workflows that can reason through complex scenarios. 

We in phase 8 → AI Agents represent the next evolutionary step 

In this article, I thought of sharing my plan navigating this new reality your essential exploration checklist for the post-Integrate 2025 world. From Agent Loop in Logic Apps to MCP, hybrid deployments, and more these are the technologies you need to understand now. 

The “Must Explore” List:


1. Start with Agent Loop in Logic Apps

Agent Loop stands as logic apps bold answer to embedding AI decision-making directly into Logic Apps workflows. After the demonstrations at Integrate 2025, I’ve seen firsthand how this technology transforms integration patterns by adding intelligence to existing processes. 

What it is: AI agents that can reason through business processes instead of just following rules.

Why Agent Loop should be your first exploration: Because it already sits at the heart of your integration strategy. The brilliant thing about Agent Loop is you don’t need to change much, you’re already using Logic Apps for your business processes. Now you just add intelligence to them. 

The beauty of starting here: 

Leverage existing investments:  Your current Logic Apps workflows become smarter, not replaced 

Use familiar tools:  Same Visual Studio Code, same connectors, same deployment process 

Gradual transformation: Add Agent Loop to one step in an existing workflow, see the difference 

Immediate impact : Turn rigid if-then logic into intelligent reasoning without rebuilding everything  

The Critical Mindset Shift 

Agent Loop requires thinking differently about integration: 

From: “How do I integrate every possible scenario?” 

To: “How do I teach AI to reason about my business domain?” 

From: “My workflow must be 100% predictable” 

To: “My workflow should be intelligent and adaptive” 

From: “I control every decision point” 

To: “I govern the decision-making process” 

This isn’t about losing control, it’s about upgrading from manual control to intelligent governance. 

New Patterns for a New Era 

What caught my attention at Integrate 2025 were the agent orchestration patterns being demonstrated. These represent entirely new design approaches we need to consider. 

These patterns signal that we’re entering an exciting new era of integration design where intelligence is distributed throughout our business processes. 

📚 Key Resources: 


2. Model Context Protocol (MCP) – The New Standard

MCP functions as an open standard enabling AI models to interact seamlessly with external data sources and tools. Based on JSON-RPC 2.0 for messaging, MCP utilizes a client-host-server architecture that supports two primary transport methods: 

Remote MCP servers: Uses HTTP and Server-Sent Events (SSE) for network communication 

Local MCP servers: Employs standard input/output for same-machine communication 

The protocol addresses the traditional challenge of creating custom connectors for each new integration by providing a unified approach for connecting agents to both local and remote data sources

The simple explanation: As you expose more APIs as MCP servers (AI tools), you need a way to manage them all. API Center becomes your enterprise catalog where teams can: 

  • Discover what AI tools are available (“Oh, we already have a customer lookup tool!”) 
  • Govern who can use which tools (“Only finance team can access the billing APIs”) 
  • Track versions and ownership (“Marketing owns the campaign API, IT owns the infrastructure APIs”) 
  • Control access and permissions (“Junior agents can read data, senior agents can modify it”) 

Why you need this: Without a registry, you’ll end up with chaos – duplicate AI tools, security gaps, and teams building the same thing twice. API Center prevents the “wild west” of AI agent development. 

Real scenario: Developer wants to build an AI agent that checks inventory. Instead of building a new tool, they search API Center, find the existing inventory MCP server, and use it immediately. 

Why This Matters 

Every REST API you’ve built over the past decade can now: 
✅ Be used by AI agents 
✅ Without changes to logic 
✅ Exposed securely via Azure API Management (APIM) 
✅ Governed with API Center 

So instead of rewriting your systems for AI, you just wrap them with MCP and plug into the AI ecosystem. No rebuilding required , just expose it through MCP and AI agents can use it in natural language. 

📚 Key Resources: 

Expose your REST APIs as MCP servers: 

MCP Client Auth with APIM as your AI gateway: 

  • .NET: https://aka.ms/mcp-remote-apim-auth-dotnet 

API Center – Enterprise MCP registry: 


3. Logic apps Hybrid Deployment – Your Door to the Future

Now generally available (GA)!  

What it is: Running the full power of Logic Apps on your own infrastructure – and guess what? You get ALL the benefits: AI agents, automated testing, codeful workflows, and all 1,400+ connectors! 

The game-changer: This isn’t “hybrid lite” or “on-premises with limitations.” This is the complete Logic Apps platform running in your data center with every single capability: 

Agent Loop – AI agents making intelligent decisions on your infrastructure 

Automated unit testing – Full testing framework for production reliability 

Codeful workflows – Write code alongside visual design 

All 1,400+ connectors – Every SaaS integration you need 

Local data processing – Keep sensitive data on-premises 

Cloud management – Still manage everything through Azure portal 

Why this is your door to the future: You get tomorrow’s AI-powered integration platform running on today’s compliance-friendly infrastructure. No compromises, no “choose between cloud power and local control” – you get both. 

Perfect for: Financial services, healthcare, manufacturing, government – anyone who needs the future but can’t compromise on where their data lives. 

📚 Key Resources: 

When to explore this: 

  • You have data residency requirements 
  • You need to process data locally (manufacturing, IoT) 
  • You’re migrating from BizTalk Server 
  • You have intermittent connectivity issues 
  • Compliance requires on-premises processing 

Your evaluation process: 

  • Assess your Kubernetes maturity (you’ll need Arc-enabled clusters) 
  • Identify pilot workloads (start with non-critical processes) 
  • Plan your local architecture  

Pro tip: Don’t go hybrid just because you can. Go hybrid because you have a specific business need that cloud-only can’t meet.


4. Rules Engine – AI with Guardrails

What it is: Deterministic business rules that constrain AI agent decisions.

📚 Key Resources: 

Critical for: 

  • Financial services (regulatory compliance) 
  • Healthcare (safety protocols) 
  • Manufacturing (quality standards) 
  • Any business with strict governance requirements 

Your implementation approach: 

  • Document existing business rules (the ones humans follow today) 
  • Identify rule conflicts (what happens when rules contradict?) 
  • Start with simple rules (approval limits, routing logic) 
  • Test with AI agents (ensure they respect the boundaries) 
  • Monitor rule effectiveness (are they too restrictive or too loose?) 

Remember: Rules aren’t about limiting AI they’re about ensuring AI operates within your business policies. 


5. Logic Apps Testing Framework – Making It Production-Ready

What it is: Proper unit testing for your Logic Apps and AI agent workflows – because if AI agents are making business decisions, you better test them thoroughly. 

Why this is absolutely critical: Before this framework, testing Logic Apps meant manually clicking through workflows and hoping for the best. Now you can write automated tests that verify your workflows work correctly every time. 

The features: 

  • Mock external systems – Test without hitting real Salesforce, SAP, or databases 
  • Test AI reasoning – Verify agents make correct decisions for specific scenarios 
  • Visual Studio Code integration – Write and run tests right in your development environment 
  • CI/CD pipeline support – Automatic testing before production deployment 
  • Simulate different scenarios – Test edge cases and error conditions safely 

Why you can’t skip this: AI agents will make thousands of decisions without human oversight. Would you deploy code that transfers money without testing? Then don’t deploy AI agents that approve loans, process returns, or handle customer data without proper testing. 

The bottom line: This framework is what separates experimental AI projects from production-ready business solutions. It’s the difference between “cool demo” and “trusted system.” 

📚 Key Resources: 

Your testing strategy: 

  • Start with simple workflows (test inputs and expected outputs) 
  • Mock external dependencies (don’t hit real systems during tests) 
  • Test AI agent decisions (verify reasoning and compliance) 
  • Automate testing in CI/CD (no manual testing for production deployments) 
  • Monitor in production (testing doesn’t end at deployment) 

Non-negotiable: If you’re putting AI agents in charge of business decisions, you need automated testing. Period.


The skills we need now

For Developers: 

  • Learn prompt engineering and AI reasoning patterns 
  • Understand Model Context Protocol implementation 
  • Master hybrid workflow design (visual + code) 
  • Practice AI agent testing and debugging 

For Architects: 

  • Design AI-first integration patterns 
  • Plan governance for autonomous systems 
  • Evaluate security implications of AI agents 
  • Create standards for MCP server development 

For Business Analysts: 

  • Identify processes suitable for AI decision-making 
  • Learn to design AI agent workflows 
  • Understand the boundaries between human and AI judgment 
  • Practice writing business rules for AI systems 

For Operations Teams: 

  • Monitor AI agent performance and decisions 
  • Understand when to override AI recommendations 
  • Design escalation paths for complex scenarios 
  • Learn to work alongside AI operational tools 

 

💡 The Mindset Shift Required 

From Programming to Training 

You’re not just writing code anymore, you’re teaching AI how to think about your business problems. 

From Deterministic to Probabilistic 

Your workflows won’t always do exactly the same thing with the same inputs, and that’s not a bug, it’s a feature. 

From Control to Governance 

You can’t control every AI decision, but you can set the boundaries and monitor the outcomes. 

From Reactive to Proactive 

AI agents don’t just respond to events, they anticipate needs and take preventive action. 

🎯 Your Next Steps (Start Tomorrow) 

  1. Pick ONE thing from this list (don’t try to do everything at once) 
  2. Set up a development environment (Logic Apps Standard + VS Code) 
  3. Find a simple business process to experiment with (something low-risk but real) 
  4. Document your learning (you’ll need to teach others) 
  5. Plan for organizational change (this affects more than just Integrations) 

The Truth About Where We Are 

Integrate 2025 wasn’t just a product announcement, it was a declaration that the age of “dumb” automation is over. Microsoft just showed us that AI agents can reason, decide, and act autonomously within business processes. 

You can resist this change, but you can’t stop it. Your competitors are already exploring these capabilities. Your customers are already expecting this level of intelligent automation. 

The choice isn’t whether to adopt AI agents, it’s whether you’ll lead the transformation or be forced to catch up later. 

The exploration list above isn’t optional. It’s your roadmap to staying relevant in a world where intelligence is becoming the default expectation for every business process. 

Start exploring. Start today. The future doesn’t wait for anyone to be ready. 

<>Want to know more? Contact me know!

Continue reading

Agentic Loop – När drag-and-drop möter intelligens

Insikter från Integrate 2025 – när Agentic Loop möter verkligheten

Vad händer när AI-agenter flyttar in i Logic Apps och utmanar vårt sätt att tänka integration?
Håkan Åkerblom skriver sina insikter från Integrate 2025 med konkreta reflektioner om drag-and-drop, determinism – och varför framtiden kanske faktiskt är här nu.

Agentisk AI för dig som gillar drag-and-drop

I veckan var jag och några kollegor på ”Integrate 2025”, en integrationsmässa i London. Här kommer några insikter därifrån:

1. Det är utmattande att lyssna på föreläsningar hela dagen.
Fler mässor borde varva med workshops eller andra publikaktiverande aktiviteter. (Denna insikt får jag dock varje gång jag är på mässa).

2. AI-agenter är i ropet.
Alla vi som är det minsta intresserade av AI-agenter vet såklart redan detta, men det blir alltid lite tydligare när man får diskutera ämnet med andra tekniknördar under ett par intensiva dagar.

”Agent” är ett vitt begrepp som innefattar någon slags entitet som uppfattar sin omgivning och tar beslut därefter.

I den vidaste bemärkelsen kan en termostat sägas uppfylla beskrivningen, men när man pratar om AI-agenter brukar man oftast hänvisa till språkmodeller som har tillgång till olika verktyg och själv tar beslut för när och hur dessa ska användas.

En av mässans stora snackisar var att AI-agenter implementerats i low-code/no-code-verktyget Logic Apps, som används flitigt inom integration.

En av förtjänsterna med Logic Apps är att flöden man skapar blir väldigt visuella på ett sätt som inte kodblock blir. Om man föredrar att arbeta med kod framför drag-and-drop så kan man såklart göra det – men just när det gäller agenter tror jag det finns ett värde i att få koden presenterad visuellt.

Det blir tydligt:

  • vilka verktyg din agent har i verktygslådan

  • vilka flöden din agent kan trigga

  • hur hierarkin ser ut i ett nätverk med flera olika agenter

3. Inom integration gillar man determinism. AI är dock till sin design icke-deterministisk.

Determinism betyder här att man förväntar sig att om inputen är densamma, så är outputen också densamma.

Den absoluta majoriteten av AI-modeller är dock till sin natur icke-deterministiska – så varför i hela fridens namn skulle man vilja blanda in AI i integration?

Som jag ser det finns det tre tydliga tillfällen:

a. Agenten som startmotor:
Låt en agent starta ett specifikt deterministiskt flöde beroende på input. Lägg in vägräcken (direktöversättning av guardrails) för tillfällen då agenten skulle välja fel.

b. Agenten som räddningsplanka:
Aktivera endast agenten om ditt deterministiska flöde misslyckas. Istället för att flödet bara avbryts – ge agenten en chans att försöka lösa problemet, föreslå sin lösning till sin överordnade människa, och om denne godkänner (t.ex. via en knapptryckning i Teams – funktionaliteten finns inbyggd i Logic Apps) – låt agenten köra sin lösning.

c. Agenten som problemlösare:
Använd agenter när en deterministisk lösning är omöjlig eller opraktisk. Om ett problem är för komplext för att lösa inom rimlig tid – låt en agent prova att lösa det åt dig. Men: håll en människa “in the loop” som kan granska agentens lösningsförslag innan du sätter tilltro till den.

4. Föreläsares powerpoints har blivit snyggare – men mindre användbara.
Jag såg många AI-genererade presentationer. Jättesnygga! Men hjälpte de till att få fram budskapet? Nja.

Som gammal lärare kommer jag fortsätta göra mina fula presentationer själv – tack så mycket.


Hur som helst – AI-agenter har stor potential att radikalt förändra vårt IT-landskap och vår arbetsmarknad. (Jag vet att det har sagts länge – men den här gången kan det faktiskt vara på riktigt.)

👉 Vill du diskutera mer om AI-agenter och hur de kan implementeras i ditt affärsflöde? Hör av dig till mig på hakan.akerblom@contica.se

<>Vill du prata om hur AI kan förbättra era arbetsprocesser? Kontakta mig!

Continue reading

Agentic Logic Apps: A Potential Black Swan Moment in System Integration

Agentic AI – A Potential Black Swan Moment in System Integration

What happens when integrations are no longer hardcoded step by step—but instead guided by AI that understands goals, rules, and context?
In this article, I share my hands-on experience with Microsoft’s new Agentic Logic Apps—and why I believe we’re entering a new paradigm.

Agentic Logic Apps: A Potential Black Swan Moment in System Integration

What Is a Black Swan Event?

In history, a Black Swan event refers to something unexpected and highly impactful—an innovation that breaks away from conventional norms and forces a complete shift in thinking.

“We already have horses,” they said. “Let’s just focus on improving them.”

When automobiles were first introduced, many resisted. But over time, the car didn’t just replace the horse—it redefined how society moved, built infrastructure, and interacted with the world.

That kind of shift is what I believe is beginning to happen in the integration landscape.


What Does “Agentic” Mean?

To grasp agentic AI, it helps to contrast it with what we’re used to.

Traditional AI tools—like ChatGPT, GitHub Copilot, or other LLM-based apps—generate content, suggest code, and assist with documentation. But they rely on human input to act. They are passive.

We’ve improved workflows by embedding these models into pipelines. But they haven’t fundamentally changed how we build integrations.

That changes now.


Introducing Agentic Logic Apps

Agentic Logic Apps allow you to build workflows with built-in intelligence. Instead of following a strict, predefined script, they include an AI agent that:

  • Understands your goals

  • Decides how to achieve them

  • Uses the tools you define

Think of it like adding a smart assistant to your integration team—someone who reads your business process, knows your rules, and acts independently based on your intent.

Smart orchestration replaces static workflows.

You don’t hardcode everything. You define goals and give the agent the right tools—it figures out the rest.

You’re still in control:

  • You define available tools

  • You decide when humans should step in

  • You control how far the agent can go

As confidence grows, you can gradually hand over more responsibility.


Getting Started: Setting Up an Agentic Workflow

Important: Before diving into setup, let’s clarify one key term: tool. In this context, a tool is any predefined action the agent can use like calling an API, running a function, or triggering another workflow.

Step 1: Set up your Azure AI Foundry project

his is where you define your agent’s capabilities and access to models.

Follow the official instructions here: Create an Azure AI Foundry project in Azure AI Foundry portal – Microsoft Learn

Once the project is ready, open Azure AI Foundry Studio.

Step 2: Create model endpoints

Go to “My Assets” and create model endpoints. This is important, you’ll later connect these models to your Agentic Logic App to enable reasoning and decision-making.

Step 3: Create the Agentic Logic App

1. In Logic Apps Standard, select the new Agent option when creating your workflow.

2. Set up your trigger (as you would in a regular Logic App).

Define your goal using natural language. This is the most critical step. Be clear with your instructions and include any restrictions or steps the agent should follow.


3. Add your tools it can be any reusable logic blocks.

    • When creating a tool, describe its purpose so the agent can understand when to use it.
    • Define the tool’s parameters to indicate what kind of input it expects. This can include dynamic data or plain English instructions the model can interpret both.

When creating a tool its also critical to provide a description of its purpose so the agent can understand.

You should also provide a parameter to this tool, to define what kind of input data you will use.

Here there a magic can also happened as you can just define parameters not only from your data but also as instruction in plain English and the agent will understand and do the rest.



Now you are all set. This is just the beginning but it’s a promising one!

Next Steps for Success: Change your mindset

  1. Identify human bottlenecks: Look for manual steps in your processes that could benefit from AI assistance.
  2. Practice prompt engineering: Write clear, concise prompts to guide the AI effectively.
  3. Get feedback and improve: Test your integrations, gather feedback, and refine your workflows.

This is a legitimate Black Swan event for system integration. Why?

  1. Engineers will stop writing code: Endless logic code will be replaced. The agents handles translation and orchestration. Developers must shift focus from code to process. Business logic becomes the new core skill.
  2. Conversation replaces documentation: In near furure Instead of reading through hours of documentation, you’ll simply instruct the AI “Connect to my Azure SQL database and extract the sales data from last quarter.”
  3. Integration becomes composable: Once your tools and services are exposed, combining them becomes effortless. The whole becomes greater than the sum of its parts.

What This Means For Developers

Your focus must change, focus on business logic: We need to fully focus on what matters (solving business problems) instead of fighting with incompatible APIs

The Future Is Already Here

Agentic integration might sound like the distant future, but they’re happening right now.

Welcome to the black swan event. The water’s fine.  jump in!

Want to know more?

Contant me, Ahmed, CTO of Contica and Azure MVP.

<>Ahmed Bayoumy

Continue reading

Så utbildar vi oss i AI – Från prompt engineering till Azure

Så utbildar vi oss i AI – från prompt engineering till Azure

Hur bygger man AI-kunskap som verkligen fastnar – och samtidigt blickar framåt? På Contica har vi testat ett nytt upplägg med föreläsningar, quiz och intern nyfikenhet som drivkraft. Vi har djupdykt i prompt engineering, språkförståelse och Azure – men kanske mest spännande just nu är vår fascination för AI-agenter

Ett steg närmare att förstå AI:s svarta låda

“Tre föreläsningar och tre quiz – sex tillfällen att få AI att fastna i vardagen.”

I ett försök att öka transparensen i den svarta lådan som är AI har vi på Contica genomfört en intern utbildning i tre delar. Varje föreläsning följdes av ett kort quiz för att stärka lärandet.

Syftet? Att skapa kontinuitet, nyfikenhet och en vana att integrera AI-tänk i det dagliga arbetet.

📌 Ps. Missade du vårt tidigare inlägg om AI som svart låda? Läs det här: www.contica.se/blogg/ai-svart-lada


Del 1: Prompt Engineering – instruktioner som gör skillnad

“Det är lätt att fnysa åt titeln ‘prompt engineer’ – men grunden är viktigare än man tror.”

Att skriva effektiva prompter till en LLM (Large Language Model) kan vara både en konst och en vetenskap. Vi utforskade allt från enkla tekniker till mer avancerade koncept som RAG (Retrieval Augmented Generation).

Oavsett ambitionsnivå är prompt engineering ett grundläggande verktyg för dig som vill förstå och använda AI i praktiken.


Del 2: Word Embeddings – vad händer egentligen under huven?

“Word Embeddings är bryggan mellan mänskligt språk och matematik.”

Vi valde att fördjupa oss i tekniken bakom hur AI-modeller tolkar språk – och kom fram till att Word Embeddings är centrala för att förstå hur AI “tänker”.

Genom att koppla ord till vektorer i ett flerdimensionellt rum kan en AI-modell, trots att den bara räknar med siffror, faktiskt förstå mänskligt språk.


Del 3: AI i Azure – verktyg med potential och variation

“Azure är en föränderlig värld – förståelse för verktygen gör skillnad.”

Eftersom vi på Contica arbetar i Azure, fördjupade vi oss i vad Microsofts plattform erbjuder inom AI – från enkla API:er till mer kraftfulla modeller i samarbete med OpenAI.

Vi diskuterade:

  • Vilka verktyg som är mest användbara just nu

  • Hur mycket man själv behöver förstå bakom kulisserna

  • När det är läge att välja vilken lösning


Vill du veta mer – eller utforska framtiden tillsammans med oss?

Är du också nyfiken på AI – vare sig det handlar om prompt engineering, modellförståelse eller hur tekniken fungerar i Azure?

Just nu är vi särskilt fascinerade av AI-agenter – intelligenta system som inte bara förstår vad du vill, utan också tar reda på hur det ska göras. Vi tror att de kan spela en avgörande roll i nästa generations integrationer.

<>Håkan Åkerblom

Continue reading

AI – Den svartaste av alla lådor

AI – Den svartaste av alla lådor

“Att titta in i den svarta lådan är inget stackars människor förmår.”

Vad händer egentligen i en AI-modell? I det här blogginlägget delar vår kollega Håkan Åkerblom med sig av tankar om AI som en black box – och varför det är viktigare än någonsin att förstå vad som pågår under huven.

Vad menas med en “Black Box”?

Betänk begreppet Black Box. Det används på lite olika sätt beroende på sammanhang, men generellt kan man säga att det är ett system eller en funktion där du känner till inputen, alltså vad du stoppar in i, eller ger till lådan, samt outputen, alltså vad som kommer ut på andra sidan av lådan.

Vad som sker därinne i lådan för att din input förvandlas till lådans output är höljt i det dolda.

Kanske väljer du att “blackboxa” något för att förenkla visualiseringen av en process, medan man i andra fall “blackboxar” för att man helt enkelt inte vet vad som händer i lådan.

AI – en av de mest ogenomträngliga lådorna

Idag ska vi prata om den svartaste av alla lådor (möjligtvis undantaget vår egen hjärna) – nämligen AI.

Vi har alla sett bevis på olika AI-modellers fantastiska förmågor att spela schack och go, skriva texter, diagnosticera tumörer osv. Men förstår vi hur dessa modeller får fram sina svar?

Hur fungerar AI egentligen?

Vissa delar av AI-modellernas väg till framgång är höljd i dunkel – även för våra främsta AI-ingenjörer.

Hur känner en bildigenkänningsmodell igen en hund? Tittar den på öronen? Pälsen? Sammanhanget?

Exakt hur en modell kan känna igen en hund är svårt att förklara. Vi kan konstatera att ett CNN-nätverk är bra på bildigenkänning. Vi kan konstatera att en viss storlek på kernel är optimal. Vi kan konstatera att ett visst djup på nätverket ger bäst resultat. Men…

Att titta in i den svarta lådan är inget stackars människor förmår.

Det enda som sker därinne är en ofantlig mängd matrismultiplikationer av tal vi initialt slumpat fram.

Kunskap om AI – viktigare än någonsin

AI är sannerligen en gåta och samtidigt en större, viktigare och kanske mer skrämmande del av vår världsekonomi.

Därför tror vi på Contica mycket på att öka den generella kunskapen om AI. Vi har nyligen hållit en utbildning uppdelad i tre föreläsningar med tillhörande quiz där vi behandlade följande ämnen:

1. AI för att förenkla yrkesliv och vardag

Fokus på prompt engineering och tillämpning i praktiken.

2. Vad sker under huven?

Fokus på några centrala AI-tekniker, framför allt word embeddings.

3. AI i Azure

Vilka AI/ML-tjänster finns tillgängliga i Azure och vad kan man göra med dem?

Vill du också förstå mer?

Det finns så klart mycket mer att prata om än detta lilla axplock. På Contica kommer vi fortsätta att utbilda oss internt för att båda öka vår generella förståelse för AI men också specifikt inom vårt område. Exempelvis på hur morgondagens integration, stöttat av AI, kommer se ut.

Är du intresserad av att lära dig själv eller ditt företag mer om AI?

Oavsett om du är mest intresserad av tekniken, matematiken, etiken eller den praktiska användningen så kan vi kanske erbjuda något som passar dig. På Contica utforskar vi inte bara hur er verksamhet kan dra nytta av dagens teknik utan även hur framtidens integration kommer påverkar och förbättras av AI. Det delar vi gärna med oss av.

<>Håkan Åkerblom

Continue reading

Azure Logic Apps Hybrid Deployment Model – Public Preview Refresh

Public Preview Refresh –
Azure Logic Apps Hybrid Deployment Model

Flera viktiga frågor får svar. Starkare stöd för “Lift n Shift” av era mappningar från BizTalk och möjlighet att använda RabbitMQ on-prem med inbyggt stöd i Logic Apps Hybrid. Ett stort steg mot General Availability (GA) och en (ännu) enklare väg för migrering till Azure

Logic Apps Hybrid – Public Preview Refresh där stora frågor blir besvarade och General Availability närmar sig!

Den senaste Public Preview Refresh för Azure Logic Apps Hybrid Deployment Model besvarar flera viktiga frågor – och signalerar att General Availability är nära!

Microsoft har tagit stora steg för att göra Logic Apps Hybrid till en ännu starkare integrationsplattform. Med den senaste uppdateringen får vi tre efterlängtade nyheter:

Inbyggt stöd för RabbitMQ för on-prem message queues
Möjlighet att använda .NET Custom Code i BizTalk-mappningar
SAP-connector som nu fungerar på Linux-containers

Läs vidare för att upptäcka vad detta innebär för dig!


📌 RabbitMQ – Inbyggd message broker on-prem

En integrationsplattform anses av många inte vara komplett utan stöd för en message broker. En av de största frågorna har därför varit: Hur hanterar vi on-prem message queues i Logic Apps Hybrid?

Microsoft har nu gett oss svaret – en inbyggd RabbitMQ-connector

Detta gör det möjligt att enkelt ansluta till RabbitMQ utan att behöva skicka meddelanden till molnet. Perfekt för företag som har krav på lokal meddelandehantering eller vill behålla befintliga RabbitMQ-lösningar. Eftersom Logic Apps Hybrid bygger på Logic Apps Standard, kommer denna connector också att bli tillgänglig i molnversionen av Logic Apps inom kort.


📌 Starkare stöd att lyfta BizTalk-mappningar utan ändringar

En annan stor fråga har varit hur enkelt det är att migrera mappningar från BizTalk till Logic Apps Hybrid. Svaret är: nu ännu enklare!

Med stöd för .NET Custom Code på Linux-containers kan du nu lyfta “custom code” från dina BizTalk-mappningar utan att behöva skriva om logiken. Det betyder att det enklare går att köra “lift & shift” på de mappningar du inte vill lägga tid på att skriva om.

Detta är en viktig pusselbit för företag som vill modernisera sin integrationsplattform utan att behöva bygga om sina mappningar från grunden.



📌 Starkare stöd för SAP-Connector

För företag som använder SAP är enkel och stabil integration avgörande. Tidigare var den inbyggda SAP-connectorn i Logic Apps beroende av .NET Framework NCO DLLs, vilket krävde en Windows-miljö.

Nu har Microsoft löst detta genom att göra SAP-connectorn kompatibel med Linux-containers. Det innebär att företag kan köra SAP-integrationer i hybridmiljöer, nära sina affärskritiska system, utan att behöva hantera Windows-specifika beroenden.

En stor förbättring för alla som vill använda Logic Apps Hybrid för SAP-integrationer på ett smidigare och mer flexibelt sätt!


📌 Prestandaförbättringar & nästa steg

Utöver dessa stora nyheter har Microsoft även gjort flera prestandaoptimeringar för att förbättra hur Logic Apps Hybrid körs. Man arbetar nu med att publicera benchmarks som visar förväntad prestanda, samt dokumentera bästa praxis för CI/CD-processer.

Vi närmar oss General Availability, och vi ser med spänning fram emot detta! 


🚀 Läs mer & se alla nyheter i detalj

Gräv djupare! I inlägget från Kent Weare har du möjlighet att läsa mer och gräva ännu djupare i alla uppdateringar i detalj, inklusive videodemonstrationer:

🔗 Läs Kent Weares blogginlägg här


Behöver du stöd i din migrering från BizTalk till Azure? Vi kan hjälpa dig.

Vi har lång erfarenhet av att hjälpa företag migrera från BizTalk till Azure, och vår expertis inom Logic Apps Hybrid Deployment Model växer snabbt. Med stöd från Microsofts produktgrupp har vi på kort tid byggt en Azure-integrationsplattform med en RabbitMQ Message Broker – direkt på vår lokala server.

Vi har kunskapen, verktygen och insikterna för att guida dig genom nästa steg. Vill du utforska möjligheterna? Hör av dig till oss!

<>Ahmed Bayoumy

Continue reading

AI som skattkarta – navigera i ditt dataarkiv med precision

AI som skattkarta – navigera i ditt dataarkiv med precision

Data är en ovärderlig resurs – men utan rätt verktyg kan den bli en svårnavigerad skattkista. Med hjälp av AI som skattkarta gjorde vi arkiv sökbara, hittar kritisk data snabbare och skapar en enklare väg till insikt.

Från rådata till värdefull information

Att använda en skattkista som metafor för data är något jag tidigt mötte i IT-branschen. Och för att din data ska vara något värd behöver du en bra skattkarta. Här följer en arkivlösning vi skapat för en av våra kunder, där en enkel AI-modell fungerar som karta i en ibland snårig djungel av data.

Utmaningen – ett arkiv med
15 000 meddelanden per dag

Datan i det här fallet är ett arkiv som loggar ungefär 15 000 meddelanden per dag. Informationen kommer från olika integrationer i Azure och sparas i ett blob storage. Användarna behöver kunna hitta enskilda meddelanden för att:

  • Identifiera felaktigheter
  • Skicka om meddelanden
  • Söka efter specifik information

Men utan en effektiv sökmetod är detta en tidskrävande process.

Lösningen – AI som strukturerar och gör datan sökbar

Numera finns det connectors i Logic App Standard för att skapa en RAG-struktur (Retrieval Augmented Generation). Det innebär att vi kan bygga en chatapp som endast svarar på frågor baserat på ett fördefinierat dataset.

Designen för vår lösning ser ut så här:

  1. En Logic App hämtar datan från blob storage.
  2. Logic Appen genomför transformationer – extraherar relevant information och dekodar kodad data.
  3. OpenAI-connectorn skapar word embeddings av den relevanta datan.
  4. AI Search-connectorn indexerar dokumentet, vilket gör datan sökbar.

Två sökmetoder för maximal träffsäkerhet

Denna struktur möjliggör två söksätt:

🔹 Keyword Search – Hitta exakta matchningar, t.ex. ett löpnummer.
🔹 Vector Search – Identifiera den datapunkt som är mest relevant, även om ingen exakt matchning finns.

Användaren behöver inte själv välja sökmetod – det sker automatiskt via chatappen.

Testning och driftsättning i Azure AI Foundry

För att säkerställa bästa prestanda testades chatappen i Azure AI Foundry. Där kunde vi jämföra olika AI-modeller, såsom GPT-4, GPT-4o och GPT-4o-mini. När vi hittade en modell vi var nöjda med driftsatte vi en webapp direkt via Azure AI Foundry.

Om användaren föredrar att inte använda chatappen, går det också att göra API-calls direkt till AI Search för att få träffsäkra resultat.

Vad är vinsten med denna AI-lösning?

Den största fördelen är enkelheten – det blir lättare och snabbare att hitta rätt data jämfört med att söka manuellt i blob storage.

🔹 Anpassad indexering – Vi kan välja exakt vilka fält som ska indexeras.
🔹 Tolerans för inexakta sökningar – Även om en sökning är ofullständig eller otydlig kan systemet ge relevanta svar.
🔹 Högre träffsäkerhet – Användaren hittar snabbare det meddelande som behövs, vilket sparar tid och minskar fel.

Med andra ord – vi skapar en bättre skattkarta för att navigera i datadjungeln och hitta de riktiga guldkornen!

Att tänka på vid implementering av en RAG-lösning

Innan du implementerar en RAG-app för sökbar data finns några viktiga faktorer att ha i åtanke:

📌 En RAG-app kan endast svara på frågor baserade på referensdatan. Frågor utanför datasetet besvaras med “jag vet inte”.

📌 RAG kan inte aggregera data. Exempelvis kan den inte svara på “hur många meddelanden skickades mellan 2 och 7 januari?” eftersom den inte sammanställer statistik.

📌 AI-kostnader och tokenförbrukning. En RAG-app konsumerar många tokens, så det är viktigt att säkerställa att kvotan räcker. Dock minskar kostnaderna stadigt – i skrivande stund kostar en miljon input-tokens för GPT-4o-mini cirka 15 cent.

Vill du utforska möjligheterna med AI-drivna arkiv?

Vill du veta hur AI kan hjälpa dig att göra din data mer sökbar, strukturerad och användbar? Eller är du nyfiken på de teknologier vi använt i denna lösning?

Vill du snacka mer om AI och smarta arkivlösningar?

Jag tycker att det här projektet var ett spännande exempel på hur AI kan användas för att förenkla navigering i stora datamängder. Om du är nyfiken på hur en liknande lösning skulle kunna funka för er, eller om du bara vill prata AI, integration och smart datahantering – hör av dig!

Släng iväg ett mejl eller connecta på LinkedIn – alltid kul att prata AI!

/ Håkan Åkerblom, Data Analyst & AI Integration Specialist

<>Håkan Åkerblom

Continue reading

Azure Arc och Logic Apps för Hybrida Molnlösningar: Effektiv BizTalk migration

BizTalk till Azure utan komplikationer
 Azure Arc och Logic App hybrid gör det möjligt!

Hur Azure Arc och Logic Apps förändrar spelplanen för organisationer

Varför hybridmiljöer är ett naturligt steg efter BizTalk för vissa organisationer

Har du använt BizTalk Server som en del av din organisations integrationslösningar? Då vet du att det är en pålitlig plattform för att hantera komplexa integrationer. Men idag, med molnets möjligheter och ökande krav på flexibilitet, kan det vara dags att fundera på nästa steg: hybridmiljöer.

Varför hybrid?

  • Flexibilitet i dataplacering: Du kan köra känsliga eller regelstyrda arbetsflöden lokalt, samtidigt som du drar nytta av molnets skalbarhet för andra processer.
  • Gradvis modernisering: I stället för att migrera allt på en gång kan du flytta arbetsflöden stegvis, vilket minskar risken och kostnaderna.
  • Möt nya krav: Hybridlösningar gör det möjligt att integrera moderna molntjänster, som AI och avancerad analys, utan att överge beprövad lokal teknik.


En smidigare väg för utvecklare med erfarenhet av BizTalk

BizTalk Server har varit en pålitlig plattform för integrationslösningar, men dagens krav på snabb innovation och globala integrationer ställer nya krav. För utvecklare med erfarenhet av BizTalk är övergången till Azure Integration Services och hybridlösningar både logisk och smidig.

Vad innebär det för utvecklare?

  • Återanvänd dina kunskaper: De integrationsmönster och tekniker som används i BizTalk, som orkestrering och meddelandetransformation, kan direkt tillämpas i Logic Apps och Azure Service Bus.
  • Kör arbetsflöden lokalt och i molnet: Arbetsflöden som tidigare kördes i BizTalk kan enkelt flyttas till Logic Apps Hybrid och köras på din egen infrastruktur.
  • Mindre förändring, större möjligheter: Du kan fortsätta arbeta på liknande sätt som med BizTalk, men med modernare verktyg som erbjuder högre flexibilitet och bättre prestanda.


Vad är Azure Arc och Logic Apps Hybrid?

Låt oss bryta ner det.

Vad är Azure Arc?

Azure Arc är en hybrid- och multicloud-lösning som låter organisationer hantera resurser utanför Azure, som servrar, Kubernetes-kluster och databaser, som om de vore inbyggda Azure-resurser. Detta innebär att lokala resurser kan hanteras från Azure-portalen och dra nytta av Azures kraftfulla verktyg för säkerhet, övervakning och automatisering.

Huvudfunktioner i Azure Arc:

  • Hantera resurser var som helst: Koppla fysiska eller virtuella servrar, Kubernetes-kluster och databaser till Azure, oavsett om de finns i ditt datacenter, på edge eller i andra moln.
  • Azure-tjänster lokalt: Kör molntjänster som Azure SQL Managed Instance och Azure Machine Learning på din egen infrastruktur med stöd från Azure Arc.
  • Central styrning och efterlevnad: Med Azure Policy och Microsoft Defender for Cloud kan du säkra och övervaka resurser i både lokala och molnbaserade miljöer.


Vad är Logic Apps Hybrid?

Logic Apps Hybrid är en avancerad förlängning av Azure Logic Apps som ger organisationer möjligheten att köra arbetsflöden direkt på Kubernetes-kluster, hanterade via Azure Arc. Denna lösning är särskilt anpassad för verksamheter som kräver låg latens, strikt dataplacering eller fungerar i miljöer med begränsad molnanslutning.

Nyckelfunktioner i Logic Apps Hybrid

  • Exekvering nära datakällan: Genom att köra arbetsflöden lokalt reduceras latens och bearbetningstider förbättras, vilket möjliggör effektiv hantering av data i realtid.

  • Flexibel molnintegration: Logic Apps Hybrid gör det möjligt att kombinera lokalt körda arbetsflöden med molnbaserade tjänster för att skapa en dynamisk och balanserad infrastruktur.

  • Skalbarhet och flexibilitet: Som containerbaserade applikationer på Kubernetes erbjuder Logic Apps Hybrid en lösning som kan skalas och anpassas efter verksamhetens växande behov.

Med Logic Apps Hybrid får organisationer en kraftfull plattform för att bygga integrationslösningar som förenar lokal prestanda och säkerhet med molnets innovation och skalbarhet.


Hur ser infrastruktur för Logic Apps hybrid ut och hur fungerar deployment?

Exempel på Infrastruktur för Logic Apps Hybrid

lösningen består av följande komponenter:

  1. Azure Arc: Hanterar och ansluter Kubernetes-kluster och andra resurser till Azure-kontrollplanet.
  2. Kubernetes-kluster: Kör Logic Apps Hybrid Runtime och andra containerbaserade applikationer som API-hantering.
  3. Logic Apps Hybrid Runtime: Ansvarar för att exekvera arbetsflöden lokalt och integrera med både lokala och molnbaserade tjänster.
  4. SMB-delning: Lagrar arbetsflödesartefakter och tillhörande data som distribueras till Logic Apps Hybrid.
  5. Self-hosted Gateway för API Management (APIM): En lokal version av Azure API Management Gateway som körs på Kubernetes eller en fysisk server. Ger säker och kontrollerad åtkomst till API:er, oavsett om de körs lokalt eller i molnet.
  6. RabbitMQ för meddelandehantering: RabbitMQ hanterar meddelandeköer och möjliggör asynkron kommunikation mellan system och arbetsflöden.
  7. Integreras med Logic Apps: För att skicka och ta emot meddelanden.


Hur fungerar deployment av Logic Apps hybrid?

När infrastrukturen är på plats är nästa steg att distribuera en Logic App och ett arbetsflöde. Så här fungerar processen:

  1. Skapa och skicka en ARM-mall:
    • Börja med att skapa en ARM-template som beskriver Logic App och arbetsflödet.
    • Skicka mallen Azure, till exempel  via Azure-portalen eller en CI/CD-pipeline.
  2. Azure Arc upptäcker ändringen:
    • Azure Arc-runtime kontrollerar regelbundet Azures kontrollplan och upptäcker den nya distributionen som skickats via ARM-mallen.
  3. Kubernetes Deployment triggas:
    • Azure Container Apps-runtime aktiverar en deployment i Kubernetes-klustret.
    • Arbetsflöden och relaterade data sparas i SMB-delningen.
  4. En ny pod skapas:
    • Som en del av Kubernetes-deployment skapas en ny pod i klustret.
  5. Logic Apps-poden hanterar arbetsflödet:
    • Den nyinstallerade logicapps-base-containern i poden hämtar arbetsflödet från SMB-delningen.
    • Containern exekverar arbetsflödet och gör det tillgängligt för användning.

Början på din hybridresa

Att kombinera Azure Arc och Logic Apps Hybrid handlar inte bara om teknologi – det är en strategi för att framtidssäkra din organisations integrations- och automationsbehov. Med en hybridinfrastruktur kan du dra nytta av molnets kraft och flexibilitet samtidigt som du behåller den kontroll och säkerhet som lokala resurser erbjuder.

Denna modell är särskilt fördelaktig för organisationer som redan använder BizTalk Server och vill modernisera sina integrationslösningar utan att behöva överge beprövade processer. Det är också en optimal lösning för företag som behöver hantera dataplacering, regelefterlevnad och krav på låg latens.

Med kraftfulla verktyg som Self-hosted Gateway för API-hantering och RabbitMQ för meddelandehantering kan du bygga robusta, säkra och skalbara lösningar. Genom att lägga till Kubernetes och Azure Arc får du en enhetlig hanteringsmodell som täcker både lokala och molnbaserade arbetsflöden – allt styrt från en central kontrollplan i Azure.

<>Ahmed Bayoumy

Continue reading