Del 1: Prompt Engineering – instruktioner som gör skillnad
“Det är lätt att fnysa åt titeln ‘prompt engineer’ – men grunden är viktigare än man tror.”
Att skriva effektiva prompter till en LLM (Large Language Model) kan vara både en konst och en vetenskap. Vi utforskade allt från enkla tekniker till mer avancerade koncept som RAG (Retrieval Augmented Generation).
Oavsett ambitionsnivå är prompt engineering ett grundläggande verktyg för dig som vill förstå och använda AI i praktiken.
Del 2: Word Embeddings – vad händer egentligen under huven?
“Word Embeddings är bryggan mellan mänskligt språk och matematik.”
Vi valde att fördjupa oss i tekniken bakom hur AI-modeller tolkar språk – och kom fram till att Word Embeddings är centrala för att förstå hur AI “tänker”.
Genom att koppla ord till vektorer i ett flerdimensionellt rum kan en AI-modell, trots att den bara räknar med siffror, faktiskt förstå mänskligt språk.
Del 3: AI i Azure – verktyg med potential och variation
“Azure är en föränderlig värld – förståelse för verktygen gör skillnad.”
Eftersom vi på Contica arbetar i Azure, fördjupade vi oss i vad Microsofts plattform erbjuder inom AI – från enkla API:er till mer kraftfulla modeller i samarbete med OpenAI.
Vi diskuterade:
-
Vilka verktyg som är mest användbara just nu
-
Hur mycket man själv behöver förstå bakom kulisserna
-
När det är läge att välja vilken lösning
Vill du veta mer – eller utforska framtiden tillsammans med oss?
Är du också nyfiken på AI – vare sig det handlar om prompt engineering, modellförståelse eller hur tekniken fungerar i Azure?
Just nu är vi särskilt fascinerade av AI-agenter – intelligenta system som inte bara förstår vad du vill, utan också tar reda på hur det ska göras. Vi tror att de kan spela en avgörande roll i nästa generations integrationer.