Det riskerar att bli en kostsam historia när man börjar använda sig av stora språkmodeller i stor skala i sitt kontaktcenter – det är något Teneo vill råda bot på med sin nya ai-orkestreringsplattform.
Teneo.ai vill orkestrera din ai-användning
kontaktcenter Svenska ai-företaget vill effektivisera användningen av stora språkmodeller inom kundservice, något som kan ge stora kostnadsbesparingar.

Någonting är fel
Läs vidare – starta din prenumeration
Genom att använda sig av tjänsten Teneo LLM Orchestration ska man enligt företaget kunna förenkla hanteringen av stora språkmodeller, så kallade llm:er, och dessutom öka noggrannheten och effektiviteten samtidigt som man minskar sina kostnader.
– Teneo LLM Orchestration är en förändringskraft för företag som förlitar sig på llm:er för att driva kundservice. Den eliminerar begränsningarna med traditionella llm-implementeringar och erbjuder en flexibel plattform med hög precision som smidigt kan växla mellan modeller samtidigt som optimala prestanda och kostnadseffektivitet bibehålls, säger Andreas Wieweg, som är teknikchef på Teneo.ai i ett uttalande.
Teneos nya lösning gär det möjligt att växla mellan valfria ai-modeller, exempelvis GPT-4o, Claude 3, Gemini Ultra 1.0 och Llama 3.1. Genom att göra detta kan man använda den modell som passar bäst för en specifik uppgift och dessutom hålla kostnaderna nere.
Idag kan man som företagsanvändare betala för användningen av ai-modeller på flera olika sätt. Många företag tecknar skräddarsydda avtal medan andra väljer en modell där man betalar för faktisk användning av modellen. Eftersom komplexa modeller är mer kostsamma att använda så kan det med andra ord löna sig att styra förfrågningar till den ai-modell som bäst matchar ett specifikt kundärende.
Teneo hävdar att deras nya tjänst kan leda till kostnadsbesparingar på upp till 98 procent utan att prestanda påverkas negativt. Samtidigt ska det bli möjligt att öka noggrannheten i svaren med 30 procent utan några som helst anpassningar av ai-modellen. Detta tack vare att man lägger till ytterligare ett lager ovanpå det som dagens ai-modeller erbjuder. Man har också lagt till funktionalitet som ytterligare ska minska risken för felaktiga svar och så kallade ai-hallucinationer.
Denna artikel var tidigare publicerad på tidningen telekomidag.se