UPPDATERAD. Länge har målet för ai-utvecklarna varit att klara Turingtestet. Det dikterar att 30 procent av försökspersonerna inte inser att de faktiskt kommunicerar med en artificiell intelligens – detta efter fem minuter vid datorns tangentbord. Många anser att genombrottet kom 2014. Då lyckades ett dataprogram som imiterar en 13-årig ukrainsk pojke för första gången klara av kriterierna.
Ai-begreppen du bör känna till – testa dig i vår guide
AI
Är du redo för att interagera med artificiell intelligens? Det bör du vara – för regeringen storsatsar.
Här lär du dig mer om några av de vanligaste begreppen som omger ai.

Någonting är fel
Läs vidare – starta din prenumeration
Alan Turing utformade sitt test 1950, och sex år senare etablerades forskningsområdet ai vid en konferens på Dartmouth College i New Hampshire. Under mitten av 60-talet hade USA:s försvarsdepartement blivit en starkt pådrivande kraft, men efter tio år av stora satsningar på artificiell intelligens ansåg kongressen att landet borde rikta medlen mot mer produktiva områden.
Ai-vintrar
1974 lade både USA och Storbritannien ned all oriktad grundforskning kring ai, och därmed följde den första så kallade ”ai-vintern” – en period då teknikområdet var tämligen kallt. Under 1980-talet tinade intresset för ai tillfälligt upp tack vare expertsystem som simulerade kunskaper och analytiska färdigheter, men innan årtiondet var över kom en andra vinter.
I forskningens barndom imponerades världen av att programmerare lyckades skapa speldatorer vars ai kunde klå den mänskliga hjärnan i exempelvis damspel, men det var först 1997 som schackdatorn Deep Blue klarade av den optimala utmaningen – att slå världsmästaren Garry Kasparov.
Sverige ska vara bäst
In på 2000-talet öppnade den ökande datorkraften upp för ett genombrott. Ai började användas för allt från medicinsk diagnos till logistik, och i dag står teknikområdet högt upp på politikernas agenda. Nu har regeringen proklamerat att Sverige ska vara bäst i världen på digitalisering – och ett viktigt fokusområde är att främja utvecklingen av artificiell intelligens.
Här är ai-begreppen du bör känna till
Maskininlärning
Istället för att programmera alla uppgifter som en dator ska utföra kan man ta fram en ai vars beslutsprocesser fungerar mer som människor. Med maskininlärning kan den artificiella intelligensen bygga vidare på egna kunskaper och erfarenheter. Med utgångspunkt från ett informationsunderlag kan den fatta egna beslut, utan att detta har programmerats.
Djup maskininlärning
Det här är en mer avancerad form av maskininlärning, med skillnaden att systemet skriver sina egna algoritmer och förbättrar dem – så kallad icke symbolisk ai. För detta krävs enorma datamängder som ai:n kan analysera och träna sig på. Kravet för djup maskininlärning är att processen huvudsakligen ska vara automatiserad.
Snäv ai
”Narrow AI” eller ”weak AI” är artificiell intelligens som inte är människolik inom alla områden. Snäv/svag ai används bland annat autonom bilteknik – bildigenkänning, samt strategidatorspel och språköversättning.
Artificiella neuronnät
Ett exempel på biologiska neuronnät är vår egen hjärna. Artificiella neuronnät är ett samlingsnamn på de självlärande algoritmer som försöker imitera hur den mänskliga hjärnan jobbar. De har visat sig vara effektivare än konventionella datalogiska metoder när det kommer till vissa uppgifter, som mönsterigenkänning, informationsutvinning, prognoser och optimeringsproblem. Neuronnät måste tränas innan användning.
Genetisk programmering
Genetisk programmering används exempelvis för att lära ai i robotar hur man går. Med inspiration från den biologiska revolutionen lutar man sig mot en form av trial and error, Träningen genererar algoritmer över flera generationer och dessa korsas över tid för att få fram roboten med de optimala algoritmerna.
Expertsystem
Beslutstödsystemen bygger på symbolisk ai där programmerare har skapat algoritmerna Den artificiella intelligensen drar slutsatser och baserar sina svar på förutbestämda regler och lagrade fakta. Expertsystemen kan exempelvis ställa diagnos med utgångspunkt från symtom och personlig historik. Renodlade expertsystem har dock tappat i popularitet.
Artificiell generell intelligens
AGI, även kallad full- eller stark ai, har inte bara vissa mänskliga förmågor, utan klarar faktiskt av alla tänkbara uppdrag som en verklig människa kan utföra. Den teoretiska nivån förknippas bland annat med förnuft och självmedvetande. I forskarvärldens spänner prognosen för när AGI blir verklighet från år 2029 för optimisterna till 2050 för pessimisterna.
Ytterligare några förkortningar att känna till
ASR – Automatic speech recognition
ASR, automatisk röstigenkänning, refererar till förmågan en maskin har att förstå och processa talade kommandon. Olika typer av ASR-system används av röstassistenter, chatbotar, maskinöversättning och liknande
CNN – convolutional neural netwrok
Inom ai så används CNN, konvolutionerande neurala nätverk, ofta för datorseende. Alltså att man använder CNN för exempelvis ansiktsigenkänning, bildanalys eller språkprocesser. Förenklat kan man beskriva CNN som att lägga pussel.
CSV – comma-separate values.
Det här är ett filformat som ofta används för att träna ai. Och precis som namnet antyder så innebär CSV att kommatecken används för att separera värden i datan.
FKP – facial key point
I bildanalys och ansiktsigenkänning är FKP något som används för att plotta ut hur näsa, ögon, mun samt andra ansiktssignaturer ser ut. Dessa punkter har även angivna platser kallade ”landmark annotation”, och de används för att träna data för ansiktsigenkänningsmodeller.
GAN – generative adversarial network
En GAN är ett neuralt nätverk som kan användas för att generera nytt och unikt innehåll. På senare år har det bland annat används för att generera otroligt realistiska ansiktsbilder.
LSTM – long short-term memory
Det här är en variant av återkommande neuralt nätverk vars styrka är att kunna komma ihåg information under lång tid och sedan applicera det på uppgiften för hand.
MNIST – Modified National Institute of Standards and Technology
MNIST är en databas och som sådan en av de mer kända benchmarken när det kommer till maskininlärning. Tack vare sin användbarhet och relativt lilla storlek så används den ofta för att jämföra prestanda för algoritmer.
NER – named entity recognition
Det här är en viktig del i flertalet olika språkprocess-modeller. Så kallade ”Named entities” är referat till namngivna delar i en text. Oftast handlar det om personer, platser eller organisationer. . Genom att identifiera och tagga dessa entiteter – så kan man använda datan för att lära algoritmen information om dessa och hur de ska känna igen nya namngivna entiteter i framtiden.
NLP – natural language processing
Det här är ett stort område inom maskininlärning och slutmålet är att få maskiner att förstå nyanserna i hur människor pratar.
OCR – optical character recognition
Precis som namnet antyder så handlar det om att identifiera skrivna bokstäver. Efter detta så konverteras bokstäverna till data.
PFE – probabilistic facial embeddings
Det här är en metod för ansiktsigenkänning som konverterar ansiktsbilder till distribuerad data för att kunna hantera okända parametrar. När man sedan matar in flera bilder så kan maskinen sortera dessa även om kvaliteten på bilderna är låg.
RNN – recurrent neural network
Det här beskriver neurala nätverk som har loopar. Designen innebär att tidigare processad information påverkar hur systemet tolkar ny information.
Denna artikel var tidigare publicerad på tidningen telekomidag.se