Teneo.ai vill orkestrera din ai-användning

kontaktcenter Svenska ai-företaget vill effektivisera användningen av stora språkmodeller inom kundservice, något som kan ge stora kostnadsbesparingar.

Teneo.ai vill orkestrera din ai-användning

Det riskerar att bli en kostsam historia när man börjar använda sig av stora språkmodeller i stor skala i sitt kontaktcenter – det är något Teneo vill råda bot på med sin nya ai-orkestreringsplattform.

Någonting är fel

Du är inloggad som prenumerant hos förlaget Pauser Media, men nånting är fel. På din profilsida ser du vilka av våra produkter som du har tillgång till. Skulle uppgifterna inte stämma på din profilsida – vänligen kontakta vår kundtjänst.

Genom att använda sig av tjänsten Teneo LLM Orchestration ska man enligt företaget kunna förenkla hanteringen av stora språkmodeller, så kallade llm:er, och dessutom öka noggrannheten och effektiviteten samtidigt som man minskar sina kostnader.

– Teneo LLM Orchestration är en förändringskraft för företag som förlitar sig på llm:er för att driva kundservice. Den eliminerar begränsningarna med traditionella llm-implementeringar och erbjuder en flexibel plattform med hög precision som smidigt kan växla mellan modeller samtidigt som optimala prestanda och kostnadseffektivitet bibehålls, säger Andreas Wieweg, som är teknikchef på Teneo.ai i ett uttalande.

Teneos nya lösning gär det möjligt att växla mellan valfria ai-modeller, exempelvis GPT-4o, Claude 3, Gemini Ultra 1.0 och Llama 3.1. Genom att göra detta kan man använda den modell som passar bäst för en specifik uppgift och dessutom hålla kostnaderna nere.

Idag kan man som företagsanvändare betala för användningen av ai-modeller på flera olika sätt. Många företag tecknar skräddarsydda avtal medan andra väljer en modell där man betalar för faktisk användning av modellen. Eftersom komplexa modeller är mer kostsamma att använda så kan det med andra ord löna sig att styra förfrågningar till den ai-modell som bäst matchar ett specifikt kundärende.

Teneo hävdar att deras nya tjänst kan leda till kostnadsbesparingar på upp till 98 procent utan att prestanda påverkas negativt. Samtidigt ska det bli möjligt att öka noggrannheten i svaren med 30 procent utan några som helst anpassningar av ai-modellen. Detta tack vare att man lägger till ytterligare ett lager ovanpå det som dagens ai-modeller erbjuder. Man har också lagt till funktionalitet som ytterligare ska minska risken för felaktiga svar och så kallade ai-hallucinationer.

Denna artikel var tidigare publicerad på tidningen telekomidag.se

Senaste artiklarna

Hämtar fler artiklar
Till startsidan
Techtidningen

Techtidningen Premium

Nyhetstjänsten för dig som jobbar med professionell kommunikation. Få nischade nyhetsbrev för ditt intresseområde och utbildnings-tv.