Google-chefen: Så lyckas du med konversationell AI

AI AI-utvecklingen går oerhört fort just nu, inte minst inom konversationell AI. Ted Schönbeck, teknikchef på Google Cloud i Norden, berättar hur företag kan lyckas med sin satsning på konversationell AI och varför Google har en unik position i AI-kapplöpningen.

Google-chefen: Så lyckas du med konversationell AI
Ted Schönbeck, foto: Google.

När analysföretaget Gartner nyligen presenterade en magisk kvadrant över aktörerna som är verksamma inom konversationell AI visade det sig att Google hade flyttat fram sina positioner.

Någonting är fel

Du är inloggad som prenumerant hos förlaget Pauser Media, men nånting är fel. På din profilsida ser du vilka av våra produkter som du har tillgång till. Skulle uppgifterna inte stämma på din profilsida – vänligen kontakta vår kundtjänst.

Gartner definierar en plattform för konversationell AI som något som gör det möjligt att bygga applikationer som kan simulera mänsklig interaktion i både digitala kanaler och röstkanaler. Dessa applikationer används främst för att automatisera kontaktcenter- och kundserviceinteraktioner, men i och med att tekniken utvecklas har den även hittat andra användningsområden

Techtidningen träffade Ted Schönbeck, teknikchef på Google Cloud i Norden, för att ta reda på hur man bäst drar nytta av den snabba teknikutvecklingen och varför Google lyckas flytta fram sina positioner på AI-området så snabbt just nu.

– Jag såg en analys där man delat in AI-aktörerna i tre cirklar: de som bygger modeller, de som gör utvecklingsplattformar och de som bygger infrastruktur och hårdvara. Där har du Nvidia, Microsoft och OpenAI men det är bara Google som finns i alla tre ringarna. Det är lite som Apples framgångssaga, där man har lyckats ta kontroll över helheten, säger Ted Schönbeck.

Google är alltså just nu ensamt om att utveckla hela AI-stacken, hela vägen från hårdvara och infrastruktur till plattformar och språkmodeller. Genom att göra detta uppnår man en flexibilitet som andra saknar. Ted Schönbeck berättar att det gör det möjligt att optimera varje komponent, från språkmodellen till AI-chippet, och att avlasta funktioner mellan dem. Andra företag försöker knyta ihop olika delar av kedjan genom att bygga partnerskap, men det kan ta tid att uppnå samma effekt av detta.

– Jag tror att vår magi ligger i att vi utvecklar allt själva. Visst kan man komma en bit genom samarbeten, men det är svårt när man inte kontrollerar hela värdekedjan.

Frågan om vi befinner oss i en AI-bubbla dyker ofta upp, men Ted Schönbeck tonar ned den risken. Han tror att AI-användningen är här för att stanna och att vi bara har sett början.

– Jag tror absolut inte att det är en AI-bubbla. Vi ser redan nu företag som vågar satsa och komma igång och de som gör det ser också resultat. Det kommer att bli en fantastisk utveckling de kommande åren. Om börsvärdena är uppblåsta kan man diskutera, men tekniken är här för att stanna.

Oväntade allianser bildas

Han menar att just den våg av partnerskap som just nu sker i branschen är ett tecken på att det finns substans i utvecklingen. Nvidia investerar i Nokia, och Google har egna samarbeten med både Ericsson och Nokia. Samtidigt bildas oväntade allianser, faktiskt även mellan konkurrenter.

– I somras tecknade Meta avtal med oss om att använda Googles infrastruktur, och i augusti berättade OpenAI att de kommer att använda vår infrastruktur för att träna ChatGPT. Det visar att vi rör oss mot ett mer samarbetsdrivet ekosystem, även mellan aktörer som normalt konkurrerar, förklarar Ted Schönbeck.

När det gäller konversationell AI konstaterar Ted Schönbeck att Google tidigt kombinerade sina tekniska styrkor i en samlad plattform.

– För sju, åtta år sedan var vi duktiga på teknologin bakom, med exempelvis Dialogflow. Men det var först när vi lanserade Contact Center AI för omkring fem år sedan som vi började samla allt i en helhet. Och i september förra året lanserade vi Customer Engagement Suite, där allt från agenter och träningsmodeller till telefoni och dataanalys samlades i samma stack.

När det gäller tekniktrender inom området konversationell AI ser Ted Schönbeck flera viktiga skiften. Ett av de tydligaste handlar om hur kundservicefunktioner blir mer intelligenta. De första chattbotarna byggde på fördefinierade frågor och svar medan dagens agenter både förstår sammanhang och kan resonera sig fram till rätt svar.

– Vi går från förprogrammerade system till agenter som kan resonera och förstå användarens behov. Det är en enorm skillnad. Dessutom blir modellerna multimodala och kan förstå text, tal, bild och video. Du kan till exempel filma hur du försöker starta bilen och låta agenten analysera ljudet i realtid. Det öppnar helt nya möjligheter.

En annan viktig trend är det som Google kallar ”grounding”, eller jordning, där man kopplar språkmodeller till företags egna data.

– Många tror att en AI-modell vet allt, men när den jordas i ditt data glömmer den sin allmänna kunskap och fokuserar på just ditt innehåll. Då minskar hallucinationerna och svaren blir mer relevanta. Det är en avgörande teknik för tillförlitlighet.

Avancerade skydd mot illasinnade angrepp

När diskussionen går in på säkerhet nämner Ted Schönbeck tre områden som han menar gjort stor skillnad under det senaste halvåret: ovan nämnda grounding, ”deep thinking” och allt mer avancerade skydd mot illasinnade angrepp.

– Deep thinking innebär att modellen skapar en kopia av sig själv som granskar svaret innan det skickas tillbaka. De två versionerna diskuterar i princip svaret och rättar till eventuella fel. Det sker på sekunder men ger mycket högre kvalitet. Och för att skydda modellerna mot attacker, som prompt injection, använder vi en teknik som heter Model Armor. Den fungerar som en anomalidetektor som upptäcker konstiga beteenden och stoppar dem.

Utvecklingen på AI-området går snabbt, och enligt Ted Schönbeck har språkmodellerna sett en explosionsartad förbättring under de senaste tre åren. Vissa menar att kurvan börjar plana ut, men han tror snarare på nästa steg i forskningen.

– Vi arbetar med nästa generations modeller och utan att avslöja för mycket ser vi ingen avmattning. Det hänger ihop med att vi har Deep Mind som bedriver djupforskning inom AI, inte bara tillämpad utveckling. Alla dagens språkmodeller bygger på transformer-arkitekturen som Google tog fram 2017, och vi fortsätter att förfina den.

Fokus på modellernas integrationsförmåga

Samtidigt förflyttas fokus mot modellernas integrationsförmåga. Enligt Schönbeck handlar mycket av innovationen nu om hur agenter ska kunna samarbeta med olika verktyg och datakällor.

– Om du har en kundtjänstagent vill du att den ska kunna läsa kunddatabasen, produktdatabasen och kanske till och med titta på Google Maps för att svara på frågor om närmaste butik. Det kräver att modellerna kan prata med många olika system, och där sker det jättemycket utveckling nu.

Ett viktigt exempel är MCP-protokollet, som gör det möjligt för agenter att komma åt olika datakällor. Det är ett open source-projekt från Meta som Google integrerat i sina plattformar. Ted Schönbeck berättar också om tre öppna standarder som Google själva lanserat för att driva utvecklingen framåt.

– I maj släppte vi Agent Development Kit, ett ramverk för hur man bygger och rullar ut AI-modeller. I somras lanserade vi Agent-to-Agent Protocol, en öppen standard för hur agenter samarbetar, och i augusti Agent Payments Protocol för säkra transaktioner. Alla tre håller på att etableras som industristandarder, med stöd från aktörer som Microsoft, Salesforce, Service Now, Mastercard, Paypal och Klarna. Det visar vilken kraft det finns i öppen innovation just nu.

I framtiden ser Ted Schönbeck hur språkmodeller och konversationell AI kommer att förändra vardagen både för konsumenter och företag. Kundtjänster blir smartare och mer proaktiva, men den största förändringen handlar om agentifieringen, det vill säga att AI blir en aktiv komponent i både produkter och arbetsflöden.

– Vi kommer att se AI-agenter i allt från bilar till tvättmaskiner. Du ska kunna prata med produkten och få hjälp direkt, inte bara när något gått fel. Samtidigt kommer företag att kunna bygga egna agenter som automatiserar repetitiva uppgifter. Det är ett steg mot en AI-demokratisering där alla anställda kan skapa värde med hjälp av agenter.

”Kommer att skapa nya arbetssätt”

Google lanserade nyligen Gemini Enterprise, en produkt som gör det möjligt för vem som helst i organisationen att bygga egna agenter. Ted Schönbeck tror att den utvecklingen kan förändra hur arbete organiseras.

– Oavsett om du sitter i receptionen eller är ekonomichef har du många återkommande uppgifter. Med AI-agenter kan du automatisera dem själv. Det kommer att frigöra tid och skapa helt nya arbetssätt.

När agenttekniken blir mogen nog att utföra uppgifter åt användaren i realtid kommer även gränssnittet att förändras. Ted Schönbeck beskriver hur Google redan testar lösningar där användaren kan be en agent att göra köp eller jämföra priser automatiskt.

– Jag kan säga till agenten: ”Köp ett par skor av en viss modell i storlek 42 till bästa pris” och agenten gör hela transaktionen åt mig. Det är agentteknik i praktiken och det kommer vi att se mer av.

Många tror att vi kommer att se en utveckling där röststyrning blir ett allt vanligare sätt att interagera med AI, men Ted Schönbeck ser ett annat mönster. Han tror att kundserviceavdelningar i allt högre grad kommer att baseras på chatt, särskilt bland yngre användare, medan röstinteraktion får ett uppsving i vardagliga situationer.

– Unga människor använder knappt telefonen för att prata längre, de föredrar att chatta. Så traditionell kundtjänst kommer nog bli mer textbaserad. Men röst kommer att växa i andra sammanhang, som i hemmet eller bilen, där det är naturligt att prata. När generativ AI ger röstassistenter verklig intelligens blir upplevelsen helt annorlunda.

Viktigt att utgå från affärsproblemen

När Techtidningen frågar Ted Schönbeck vilka hans viktigaste råd är till de företag som vill lyckas med sina satsningar på konversationell AI lyfter han vikten av att utgå från affärsproblemen och inte själva tekniken.

– Det är lätt att förföras av hur häftig tekniken är. Men man måste börja med frågan: vilket affärsproblem försöker vi lösa och vilket värde skapar det? Det är först då AI-projekten blir hållbara. Hitta ett konkret use case och bygg vidare därifrån, säger han.

Han uppmanar också företag att undvika den fragmentering som tidigare drabbade it-utvecklingen när olika avdelningar byggde egna lösningar utan helhetsgrepp.

– Vi ser nu något som liknar skugg-it, fast med agenter. Varje avdelning bygger sin egen agent, och efter två veckor vet ingen hur den fungerar eller var data kommer ifrån vilket är riskfyllt. Bygg på en plattform där du kan träna modeller och hantera dem långsiktigt. Det låter kanske tråkigt, men det är nödvändigt för att lyckas.

För den som tar klivet in i konversationell AI väntar dock stora möjligheter, inte bara att effektivisera, utan att skapa helt nya affärsmodeller.

– AI-agenter kan inte bara lösa problem utan också skapa nya värden. De kan förvandla kundtjänster från att vara reaktiva till att bli aktiva delar av värdeskapandet. Det är ett skifte som kommer att förändra hela branscher, säger Ted Schönbeck.

Senaste artiklarna

Hämtar fler artiklar
Till startsidan
Techtidningen

Techtidningen Premium

Nyhetstjänsten för dig som jobbar med professionell kommunikation. Få nischade nyhetsbrev för ditt intresseområde och utbildnings-tv.