Skip to main content

Agentic Logic Apps: A Potential Black Swan Moment in System Integration

Agentic AI – A Potential Black Swan Moment in System Integration

What happens when integrations are no longer hardcoded step by step—but instead guided by AI that understands goals, rules, and context?
In this article, I share my hands-on experience with Microsoft’s new Agentic Logic Apps—and why I believe we’re entering a new paradigm.

Agentic Logic Apps: A Potential Black Swan Moment in System Integration

What Is a Black Swan Event?

In history, a Black Swan event refers to something unexpected and highly impactful—an innovation that breaks away from conventional norms and forces a complete shift in thinking.

“We already have horses,” they said. “Let’s just focus on improving them.”

When automobiles were first introduced, many resisted. But over time, the car didn’t just replace the horse—it redefined how society moved, built infrastructure, and interacted with the world.

That kind of shift is what I believe is beginning to happen in the integration landscape.


What Does “Agentic” Mean?

To grasp agentic AI, it helps to contrast it with what we’re used to.

Traditional AI tools—like ChatGPT, GitHub Copilot, or other LLM-based apps—generate content, suggest code, and assist with documentation. But they rely on human input to act. They are passive.

We’ve improved workflows by embedding these models into pipelines. But they haven’t fundamentally changed how we build integrations.

That changes now.


Introducing Agentic Logic Apps

Agentic Logic Apps allow you to build workflows with built-in intelligence. Instead of following a strict, predefined script, they include an AI agent that:

  • Understands your goals

  • Decides how to achieve them

  • Uses the tools you define

Think of it like adding a smart assistant to your integration team—someone who reads your business process, knows your rules, and acts independently based on your intent.

Smart orchestration replaces static workflows.

You don’t hardcode everything. You define goals and give the agent the right tools—it figures out the rest.

You’re still in control:

  • You define available tools

  • You decide when humans should step in

  • You control how far the agent can go

As confidence grows, you can gradually hand over more responsibility.


Getting Started: Setting Up an Agentic Workflow

Important: Before diving into setup, let’s clarify one key term: tool. In this context, a tool is any predefined action the agent can use like calling an API, running a function, or triggering another workflow.

Step 1: Set up your Azure AI Foundry project

his is where you define your agent’s capabilities and access to models.

Follow the official instructions here: Create an Azure AI Foundry project in Azure AI Foundry portal – Microsoft Learn

Once the project is ready, open Azure AI Foundry Studio.

Step 2: Create model endpoints

Go to “My Assets” and create model endpoints. This is important, you’ll later connect these models to your Agentic Logic App to enable reasoning and decision-making.

Step 3: Create the Agentic Logic App

1. In Logic Apps Standard, select the new Agent option when creating your workflow.

2. Set up your trigger (as you would in a regular Logic App).

Define your goal using natural language. This is the most critical step. Be clear with your instructions and include any restrictions or steps the agent should follow.


3. Add your tools it can be any reusable logic blocks.

    • When creating a tool, describe its purpose so the agent can understand when to use it.
    • Define the tool’s parameters to indicate what kind of input it expects. This can include dynamic data or plain English instructions the model can interpret both.

When creating a tool its also critical to provide a description of its purpose so the agent can understand.

You should also provide a parameter to this tool, to define what kind of input data you will use.

Here there a magic can also happened as you can just define parameters not only from your data but also as instruction in plain English and the agent will understand and do the rest.



Now you are all set. This is just the beginning but it’s a promising one!

Next Steps for Success: Change your mindset

  1. Identify human bottlenecks: Look for manual steps in your processes that could benefit from AI assistance.
  2. Practice prompt engineering: Write clear, concise prompts to guide the AI effectively.
  3. Get feedback and improve: Test your integrations, gather feedback, and refine your workflows.

This is a legitimate Black Swan event for system integration. Why?

  1. Engineers will stop writing code: Endless logic code will be replaced. The agents handles translation and orchestration. Developers must shift focus from code to process. Business logic becomes the new core skill.
  2. Conversation replaces documentation: In near furure Instead of reading through hours of documentation, you’ll simply instruct the AI “Connect to my Azure SQL database and extract the sales data from last quarter.”
  3. Integration becomes composable: Once your tools and services are exposed, combining them becomes effortless. The whole becomes greater than the sum of its parts.

What This Means For Developers

Your focus must change, focus on business logic: We need to fully focus on what matters (solving business problems) instead of fighting with incompatible APIs

The Future Is Already Here

Agentic integration might sound like the distant future, but they’re happening right now.

Welcome to the black swan event. The water’s fine.  jump in!

Want to know more?

Contant me, Ahmed, CTO of Contica and Azure MVP.

<>Ahmed Bayoumy

Continue reading

New Strategic Partnership: Contica & DevScope

Contica + DevScope: A Strategic Partnership for Smarter Integration and Data-Driven Growth

Contica enters a new strategic partnership with Portuguese integration experts DevScope – combining forces to deliver world-class integration solutions, and to strengthen our capabilities in business intelligence and AI.

Contica has entered into a partnership with DevScope to further strengthen our delivery of advanced integration services. This collaboration brings together two leading integration teams, led by Microsoft MVPs Ahmed Bayoumy (CTO, Contica) and Sandro Pereira (Head of Enterprise Integration, DevScope), who will now work closely together – both in customer projects and through cross-organizational collaboration.

The partnership enhances not only our ability to deliver seamless system integration – including BizTalk-to-Azure Integration Services migrations – but also expands our offering within business intelligence and AI. DevScope’s broad experience in these areas complements Contica’s proven data-driven delivery model and helps us create even more value for our customers.

With knowledge-sharing at the core and innovation as a driving force, this collaboration is built to deliver future-proof solutions that turn business data into business value.

Stay tuned – several new initiatives and offerings will be announced soon.

<>Stefan Wånggren

Continue reading

Ace Aviator of the Month – Calle Andersson

Calle Andersson utsedd till “Ace Aviator of the Month”

Att bygga integrationslösningar med säkerhet i fokus har aldrig varit viktigare – och få personer kombinerar nyfikenhet, kunskap och delningsvilja som Calle Andersson.

Nu uppmärksammas han av Microsofts Logic Apps-community globalt, som månadens “Ace Aviator” i maj 2025.

Säkerhet är inte längre en teknisk detalj i slutet av ett projekt. Det är ett fundament som måste byggas in från start – särskilt när det gäller integrationslösningar där data flödar mellan system, verksamheter och molntjänster. Därför är vi på Contica både stolta och glada över att Calle Andersson, Head of Security – Integration & Cloud, nu har blivit utsedd till Ace Aviator of the Month av Microsofts Logic Apps Aviators-program.

Utmärkelsen delas ut till personer som gör ett betydelsefullt bidrag till communityn kring Logic Apps – Microsofts plattform för integration och automatisering. I maj 2025 föll valet på Calle, bland annat för hans starka engagemang i att sprida kunskap om hur man bygger säkra, hållbara och välstrukturerade lösningar i molnet.

“Secure by design” är mer än en slogan för Calle – det är ett förhållningssätt. Med sin pedagogiska förmåga, tekniska skärpa och passion för att dela med sig av erfarenheter, har han blivit en viktig röst i communityn för säker integration.

Hos oss på Contica är vi förstås inte förvånade. Vi ser varje dag hur Calle arbetar nära både kollegor och kunder för att omsätta säkerhetsprinciper till konkret, fungerande teknik. Och vi är särskilt glada över att han inte bara gör detta inom våra väggar – utan också för hela Azure Logic Apps-communityt globalt.

KONTAKTA OSS

Continue reading

Så sparade en kund miljoner med vår leveransmodell

Så sparade en kund miljoner med vår leveransmodell

Många företag betalar onödigt mycket för konsulttjänster som inte matchar deras verkliga behov. På Contica jobbar vi annorlunda – vi levererar rätt kompetens i rätt tid och mängd. Det sparar våra kunder stora pengar. Nyligen räknade vi på besparingen för en av våra kunder.

Leverans som följer verkligt behov snarare än en fast bokning

Traditionella konsultupplägg bygger ofta på antagandet att kompetensbehovet är linjärt över tid. Vi förstår. Det blir en enkel beställning. Men i praktiken är vi nog alla övertygade om att i verkligheten så varierar behoven över tid. Ibland behövs en arkitekt, ibland en eller flera utvecklare, ibland en som är expert på cybersäkerhet och ibland en som är bäst på infrastruktur. I vissa fall har en person flera färdigheter men vi har alla sett konsultförfrågningar där man ganska enkelt kan svara – all denna kompetens finns inte i en person.

Vår modell på Contica utgår från det faktiska behovet i varje stund. Vi skalar upp eller ner och säkerställer att du alltid får rätt kompetens i rätt mängd, precis när du behöver det – varken mer eller mindre.


Hur vi sparade miljoner till en av våra kunder

För bara några dagar sedan gjorde vi en uträkning för en av våra kunder. Genom att använda vår behovsstyrda leveransmodell istället för att boka fasta konsulter enligt ett traditionellt upplägg, hade kunden sparat flera miljoner kronor i konsultkostnader.

Och detta är inte unikt. Vi kan ofta ganska enkelt visa på de stora besparingar våra kunder gör genom att slippa binda upp sig till resurser som inte alltid behövs – och genom att få tillgång till exakt den kompetens som behövs i varje fas av projektet.


Värdestyrd leverans ger maximalt resultat

Vår leveransmodell bygger på värdestyrning, inte resursbokning. Det innebär:

  • Du får rätt expertis när du verkligen behöver den

  • Du betalar bara för den faktiska insatsen, inte för tomgång

  • Du slipper risken att boka resurser som inte matchar det faktiska behovet

  • Din verksamhet blir mer flexibel och kostnadseffektiv

Ingen konsult kan kunna allt. Genom vår modell får du istället tillgång till ett helt team av specialister som tillsammans täcker alla dina behov – utan att du behöver betala för onödig tid eller fel kompetens.


Vill du också se hur mycket du kan spara?

Vi hjälper gärna fler företag att räkna på sin potentiella besparing.
Kontakta oss så tar vi fram en beräkning baserat på ditt behov – och visar hur vår modell kan skapa stort värde för din verksamhet.

KONTAKTA OSS

Continue reading

Så utbildar vi oss i AI – Från prompt engineering till Azure

Så utbildar vi oss i AI – från prompt engineering till Azure

Hur bygger man AI-kunskap som verkligen fastnar – och samtidigt blickar framåt? På Contica har vi testat ett nytt upplägg med föreläsningar, quiz och intern nyfikenhet som drivkraft. Vi har djupdykt i prompt engineering, språkförståelse och Azure – men kanske mest spännande just nu är vår fascination för AI-agenter

Ett steg närmare att förstå AI:s svarta låda

“Tre föreläsningar och tre quiz – sex tillfällen att få AI att fastna i vardagen.”

I ett försök att öka transparensen i den svarta lådan som är AI har vi på Contica genomfört en intern utbildning i tre delar. Varje föreläsning följdes av ett kort quiz för att stärka lärandet.

Syftet? Att skapa kontinuitet, nyfikenhet och en vana att integrera AI-tänk i det dagliga arbetet.

📌 Ps. Missade du vårt tidigare inlägg om AI som svart låda? Läs det här: www.contica.se/blogg/ai-svart-lada


Del 1: Prompt Engineering – instruktioner som gör skillnad

“Det är lätt att fnysa åt titeln ‘prompt engineer’ – men grunden är viktigare än man tror.”

Att skriva effektiva prompter till en LLM (Large Language Model) kan vara både en konst och en vetenskap. Vi utforskade allt från enkla tekniker till mer avancerade koncept som RAG (Retrieval Augmented Generation).

Oavsett ambitionsnivå är prompt engineering ett grundläggande verktyg för dig som vill förstå och använda AI i praktiken.


Del 2: Word Embeddings – vad händer egentligen under huven?

“Word Embeddings är bryggan mellan mänskligt språk och matematik.”

Vi valde att fördjupa oss i tekniken bakom hur AI-modeller tolkar språk – och kom fram till att Word Embeddings är centrala för att förstå hur AI “tänker”.

Genom att koppla ord till vektorer i ett flerdimensionellt rum kan en AI-modell, trots att den bara räknar med siffror, faktiskt förstå mänskligt språk.


Del 3: AI i Azure – verktyg med potential och variation

“Azure är en föränderlig värld – förståelse för verktygen gör skillnad.”

Eftersom vi på Contica arbetar i Azure, fördjupade vi oss i vad Microsofts plattform erbjuder inom AI – från enkla API:er till mer kraftfulla modeller i samarbete med OpenAI.

Vi diskuterade:

  • Vilka verktyg som är mest användbara just nu

  • Hur mycket man själv behöver förstå bakom kulisserna

  • När det är läge att välja vilken lösning


Vill du veta mer – eller utforska framtiden tillsammans med oss?

Är du också nyfiken på AI – vare sig det handlar om prompt engineering, modellförståelse eller hur tekniken fungerar i Azure?

Just nu är vi särskilt fascinerade av AI-agenter – intelligenta system som inte bara förstår vad du vill, utan också tar reda på hur det ska göras. Vi tror att de kan spela en avgörande roll i nästa generations integrationer.

<>Håkan Åkerblom

Continue reading

AI-trender från GAIA – så påverkar de framtidens företag

AI-trender från GAIA – så påverkar de framtidens företag

Fullsatt, framtidsspaningar och fascinerande föreläsningar. På GAIA i Göteborg samlades 1200 AI-intresserade deltagare för en heldag med insikter om agentnätverk, datakvalitet och hur AI förändrar allt från marknadsföring till brottsbekämpning. Våra kollegor Ahmed och Håkan var där – här är deras viktigaste spaningar.

AI-agenter – framtidens självständiga problemlösare

“Istället för att säga åt ditt agent-nätverk exakt hur de ska göra något kan du istället precisera vad det är du vill åstadkomma.”

En av de hetaste snackisarna på GAIA var AI-agenter – eller “Agentic AI”. Det handlar om nätverk av AI-entiteter med olika roller, där en huvudagent (“orchestrator”) delegerar uppgifter till andra.

Det som gör agentnätverk särskilt spännande är deras förmåga att agera självständigt utifrån mål, snarare än att följa hårdkodade instruktioner.

Vad det här innebär för framtiden? Kanske kommer AI-agenter ta över rutinuppgifter, eller kanske blir de bara ett kraftfullt stöd för människan. Svaret får vi först med tiden.


Data – grunden för allt

“Garbage in, garbage out – ju kraftfullare AI, desto viktigare med korrekt data.”

Med mer avancerade AI-system blir datakvaliteten allt viktigare. Bias, felaktiga slutsatser eller rent av farliga resultat är ofta en direkt följd av dålig data.

Föreläsningarna på GAIA påminde om vikten av att:

  • Kontrollera att data är uppdaterad

  • Säkerställa att den är tillförlitlig

  • Och att förstå hur den påverkar AI-modellen

Utan rätt data kan till och med den mest sofistikerade modellen ge oanvändbara resultat.


AI:s tillämpningar – bara fantasin sätter gränser

“Från schack och text till bild, video och kanske snart medicin och säkerhet?”

Det är lätt att tänka på AI som något teoretiskt, men under GAIA blev det tydligt att möjligheterna för tillämpning är enorma.

Visst, AI har länge varit bra på schack – men idag klarar modeller både textanalys, bildigenkänning och video med imponerande träffsäkerhet.

Vad står näst på tur?

  • Medicinska diagnoser?

  • Säkerhet och övervakning?

  • Marknadsföring på helt nya sätt?

Vi vet inte än – men utvecklingen går snabbt.


Vill du veta mer?

Är du nyfiken på hur AI skulle kunna integreras i ditt företags verksamhet eller processer? Vi hjälper dig gärna att utforska möjligheterna!

<>Håkan Åkerblom

Continue reading

Contica är nu Solutions Partner inom Digital & App Innovation

Vi fortsätter växa med Microsoft – nu som Solutions Partner inom Digital & App Innovation

Contica har tagit ytterligare ett steg i vårt partnerskap med Microsoft. Som Solutions Partner inom Digital & App Innovation (Azure) visar vi än en gång att vi är en pålitlig och drivande kraft för smarta, moderna lösningar på Microsofts plattformar.

Solutions Partner – Ett väldigt naturligt steg i vårt partnerskap med Microsoft

Vi på Contica är stolta över att nu officiellt vara Solutions Partner inom Digital & App Innovation (Azure) – en kvalitetsstämpel från Microsoft som bekräftar vår expertis inom modern applikationsutveckling och systemintegration på Azure-plattformen.

Att uppnå denna partnerstatus innebär att vi uppfyller Microsofts högt ställda krav när det gäller kompetens, kundframgång och teknisk leveransförmåga. För våra kunder innebär det trygghet: ni samarbetar med en partner som inte bara kan Microsofts teknik, utan också vet hur den ska användas för att skapa värde i verkligheten.

Vi älskar systemintegration och har under lång tid byggt lösningar som kopplar samman affärskritiska system med hjälp av Microsofts molnplattformar. Att ta detta nästa steg i partnerskapet var därför helt naturligt för oss. Men vi nöjer oss inte här.

För att behålla vår status som Solutions Partner investerar vi kontinuerligt i kompetensutveckling, certifieringar och i att utveckla våra metoder – alltid med kundnytta i fokus. Vi vet att teknikens verkliga styrka ligger i hur den används, och det är där vi gör skillnad.

Vill du veta mer om vad vår partnerstatus betyder för dig som kund? Hör gärna av dig – vi delar gärna med oss!

<>Robin Wilde

Continue reading

AI – Den svartaste av alla lådor

AI – Den svartaste av alla lådor

“Att titta in i den svarta lådan är inget stackars människor förmår.”

Vad händer egentligen i en AI-modell? I det här blogginlägget delar vår kollega Håkan Åkerblom med sig av tankar om AI som en black box – och varför det är viktigare än någonsin att förstå vad som pågår under huven.

Vad menas med en “Black Box”?

Betänk begreppet Black Box. Det används på lite olika sätt beroende på sammanhang, men generellt kan man säga att det är ett system eller en funktion där du känner till inputen, alltså vad du stoppar in i, eller ger till lådan, samt outputen, alltså vad som kommer ut på andra sidan av lådan.

Vad som sker därinne i lådan för att din input förvandlas till lådans output är höljt i det dolda.

Kanske väljer du att “blackboxa” något för att förenkla visualiseringen av en process, medan man i andra fall “blackboxar” för att man helt enkelt inte vet vad som händer i lådan.

AI – en av de mest ogenomträngliga lådorna

Idag ska vi prata om den svartaste av alla lådor (möjligtvis undantaget vår egen hjärna) – nämligen AI.

Vi har alla sett bevis på olika AI-modellers fantastiska förmågor att spela schack och go, skriva texter, diagnosticera tumörer osv. Men förstår vi hur dessa modeller får fram sina svar?

Hur fungerar AI egentligen?

Vissa delar av AI-modellernas väg till framgång är höljd i dunkel – även för våra främsta AI-ingenjörer.

Hur känner en bildigenkänningsmodell igen en hund? Tittar den på öronen? Pälsen? Sammanhanget?

Exakt hur en modell kan känna igen en hund är svårt att förklara. Vi kan konstatera att ett CNN-nätverk är bra på bildigenkänning. Vi kan konstatera att en viss storlek på kernel är optimal. Vi kan konstatera att ett visst djup på nätverket ger bäst resultat. Men…

Att titta in i den svarta lådan är inget stackars människor förmår.

Det enda som sker därinne är en ofantlig mängd matrismultiplikationer av tal vi initialt slumpat fram.

Kunskap om AI – viktigare än någonsin

AI är sannerligen en gåta och samtidigt en större, viktigare och kanske mer skrämmande del av vår världsekonomi.

Därför tror vi på Contica mycket på att öka den generella kunskapen om AI. Vi har nyligen hållit en utbildning uppdelad i tre föreläsningar med tillhörande quiz där vi behandlade följande ämnen:

1. AI för att förenkla yrkesliv och vardag

Fokus på prompt engineering och tillämpning i praktiken.

2. Vad sker under huven?

Fokus på några centrala AI-tekniker, framför allt word embeddings.

3. AI i Azure

Vilka AI/ML-tjänster finns tillgängliga i Azure och vad kan man göra med dem?

Vill du också förstå mer?

Det finns så klart mycket mer att prata om än detta lilla axplock. På Contica kommer vi fortsätta att utbilda oss internt för att båda öka vår generella förståelse för AI men också specifikt inom vårt område. Exempelvis på hur morgondagens integration, stöttat av AI, kommer se ut.

Är du intresserad av att lära dig själv eller ditt företag mer om AI?

Oavsett om du är mest intresserad av tekniken, matematiken, etiken eller den praktiska användningen så kan vi kanske erbjuda något som passar dig. På Contica utforskar vi inte bara hur er verksamhet kan dra nytta av dagens teknik utan även hur framtidens integration kommer påverkar och förbättras av AI. Det delar vi gärna med oss av.

<>Håkan Åkerblom

Continue reading

Azure Logic Apps Hybrid Deployment Model – Public Preview Refresh

Public Preview Refresh –
Azure Logic Apps Hybrid Deployment Model

Flera viktiga frågor får svar. Starkare stöd för “Lift n Shift” av era mappningar från BizTalk och möjlighet att använda RabbitMQ on-prem med inbyggt stöd i Logic Apps Hybrid. Ett stort steg mot General Availability (GA) och en (ännu) enklare väg för migrering till Azure

Logic Apps Hybrid – Public Preview Refresh där stora frågor blir besvarade och General Availability närmar sig!

Den senaste Public Preview Refresh för Azure Logic Apps Hybrid Deployment Model besvarar flera viktiga frågor – och signalerar att General Availability är nära!

Microsoft har tagit stora steg för att göra Logic Apps Hybrid till en ännu starkare integrationsplattform. Med den senaste uppdateringen får vi tre efterlängtade nyheter:

Inbyggt stöd för RabbitMQ för on-prem message queues
Möjlighet att använda .NET Custom Code i BizTalk-mappningar
SAP-connector som nu fungerar på Linux-containers

Läs vidare för att upptäcka vad detta innebär för dig!


📌 RabbitMQ – Inbyggd message broker on-prem

En integrationsplattform anses av många inte vara komplett utan stöd för en message broker. En av de största frågorna har därför varit: Hur hanterar vi on-prem message queues i Logic Apps Hybrid?

Microsoft har nu gett oss svaret – en inbyggd RabbitMQ-connector

Detta gör det möjligt att enkelt ansluta till RabbitMQ utan att behöva skicka meddelanden till molnet. Perfekt för företag som har krav på lokal meddelandehantering eller vill behålla befintliga RabbitMQ-lösningar. Eftersom Logic Apps Hybrid bygger på Logic Apps Standard, kommer denna connector också att bli tillgänglig i molnversionen av Logic Apps inom kort.


📌 Starkare stöd att lyfta BizTalk-mappningar utan ändringar

En annan stor fråga har varit hur enkelt det är att migrera mappningar från BizTalk till Logic Apps Hybrid. Svaret är: nu ännu enklare!

Med stöd för .NET Custom Code på Linux-containers kan du nu lyfta “custom code” från dina BizTalk-mappningar utan att behöva skriva om logiken. Det betyder att det enklare går att köra “lift & shift” på de mappningar du inte vill lägga tid på att skriva om.

Detta är en viktig pusselbit för företag som vill modernisera sin integrationsplattform utan att behöva bygga om sina mappningar från grunden.



📌 Starkare stöd för SAP-Connector

För företag som använder SAP är enkel och stabil integration avgörande. Tidigare var den inbyggda SAP-connectorn i Logic Apps beroende av .NET Framework NCO DLLs, vilket krävde en Windows-miljö.

Nu har Microsoft löst detta genom att göra SAP-connectorn kompatibel med Linux-containers. Det innebär att företag kan köra SAP-integrationer i hybridmiljöer, nära sina affärskritiska system, utan att behöva hantera Windows-specifika beroenden.

En stor förbättring för alla som vill använda Logic Apps Hybrid för SAP-integrationer på ett smidigare och mer flexibelt sätt!


📌 Prestandaförbättringar & nästa steg

Utöver dessa stora nyheter har Microsoft även gjort flera prestandaoptimeringar för att förbättra hur Logic Apps Hybrid körs. Man arbetar nu med att publicera benchmarks som visar förväntad prestanda, samt dokumentera bästa praxis för CI/CD-processer.

Vi närmar oss General Availability, och vi ser med spänning fram emot detta! 


🚀 Läs mer & se alla nyheter i detalj

Gräv djupare! I inlägget från Kent Weare har du möjlighet att läsa mer och gräva ännu djupare i alla uppdateringar i detalj, inklusive videodemonstrationer:

🔗 Läs Kent Weares blogginlägg här


Behöver du stöd i din migrering från BizTalk till Azure? Vi kan hjälpa dig.

Vi har lång erfarenhet av att hjälpa företag migrera från BizTalk till Azure, och vår expertis inom Logic Apps Hybrid Deployment Model växer snabbt. Med stöd från Microsofts produktgrupp har vi på kort tid byggt en Azure-integrationsplattform med en RabbitMQ Message Broker – direkt på vår lokala server.

Vi har kunskapen, verktygen och insikterna för att guida dig genom nästa steg. Vill du utforska möjligheterna? Hör av dig till oss!

<>Ahmed Bayoumy

Continue reading

Ahmed Bayoumy utsedd till Microsoft Azure MVP

Ahmed Bayoumy utsedd till Microsoft MVP

En förmåga att aldrig se en utmaning som annat än en möjlighet, ett driv som är inspirerande och en vilja att alltid bidra till kunskapsspridning.

Grattis till vår CTO Ahmed Bayoumy, nybliven Microsoft Azure MVP!

På Contica har vi alltid vetat att vår CTO, Ahmed Bayoumy, är något alldeles extra. Han har en unik förmåga att se varje utmaning som en möjlighet, en outtröttlig vilja att hitta lösningar och en passion för att dela sin kunskap med andra. Därför är vi inte förvånade – men otroligt stolta – över att han nu blivit utsedd till Microsoft Azure MVP (Most Valuable Professional)!

Att få MVP-titeln är en stor bedrift. Microsoft delar ut den till experter som inte bara har en djup teknisk kunskap utan också aktivt bidrar till communityn genom att sprida insikter och hjälpa andra att lyckas. Och det är precis det Ahmed gör, varje dag.

”Det finns inget som inte kan fixas”
En av Ahmeds mest inspirerande egenskaper är hans inställning till problem – för honom är de bara pusselbitar som väntar på att falla på plats. Oavsett om det handlar om komplexa molnarkitekturer, strategiska beslut eller att hjälpa en kollega att förstå en teknisk detalj, är hans svar alltid detsamma: ”Det finns alltid en lösning.”

Vi ser denna MVP-utmärkelse som ett kvitto på något vi redan vet – Ahmed är en fantastisk ledare, mentor och innovatör. Att Microsoft nu också ser det är bara ytterligare en bekräftelse på hans betydelse för Azure-communityn.

Vad händer nu?
Med denna utmärkelse får Ahmed ännu fler möjligheter att inspirera och påverka. Han kommer fortsätta att tala på event, skriva om de senaste teknologierna och, som alltid, se till att vi på Contica ligger i framkant inom Azure och molnlösningar.

Vi är glada att få arbeta med en MVP varje dag – och ännu gladare att han råkar vara just vår CTO. Stort grattis, Ahmed!

Continue reading