Vad är artificiell intelligens (AI)? Allt du behöver veta och hur vi på lynes använder det

Kommer du ihåg scenen i TV-serien Vänner när Joey får frågan

 Let me ask you one question. Do your friends ever have a conversation and you just nod along even though you’re not really sure what they’re talking about?

Lite så har det varit för mig och artificiell intelligens (AI).

Jag känner till begreppet och grundläggande konceptet, men när någon kunnig inom ämnet börjar babbla om snäv AI, AI-vinter och deep learning ställs i alla fall jag i offside, och precis som Joey nickar jag instämmande och hoppas att det går obemärkt förbi.

Därför tänkte jag göra mig själv, kanske även dig, en tjänst och besvara frågan vad AI är, hur det fungerar och används i praktiken.

Som hjälp har jag som vanligt hela internet till mitt förfogande men även Johan Åberg, vår CPO på lynes.

Johan har nämligen forskat inom datavetenskap på Linköpings Universitet, bland annat inom artificiell intelligens.

Med det sagt, håll inte Johan ansvarig för denna text (det kan bli lite konstig stämning bland hans gamla forskar-kollegor).

Vill du bli expert inom AI? Häng på.

Vad är AI?

I min jakt på kunskap bokade jag in en föreläsning med Johan för att besvara frågan vad AI är och mitt korta svar är som följer:

Artificiell intelligens (AI) eller maskinintelligens som det också kallas är en maskins förmåga att efterlikna vårt beteende och naturliga intelligens.

Det inkluderar kognitiva funktioner som att lära sig av tidigare erfarenheter, förmågan att lösa problem och planera och utföra en sekvens av handlingar i syfte för att generalisera.

Det är även namnet på studieområdet där man lär sig och studerar hur datorprogram med intelligenta beteenden skapas.

När ”uppfanns” det?

John McCarthy myntade uttrycket och definierade vad AI är på Dartmouth-konferensen 1956, det sägs vara startskottet även om Alan Turing sysslade med intelligenta maskiner redan på 40-talet när han knäckte Enigma-koden vilket banade väg för de Allierades seger i andra världskriget.

John McCarthy vid IBM 7080 console på Stanford University

John McCarthy Stanford

Jaja, tillbaka till Dartmouth. Där samlades män i skägg till introduktionen

We propose that a 2 month, 10 man study of artificial intelligence be carried out during the summer of 1956 at Dartmouth College in Hanover, New Hampshire. The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it. An attempt will be made to find how to make machines use language, form abstractions and concepts, solve kinds of problems now reserved for humans, and improve themselves. We think that a significant advance can be made in one or more of these problems if a carefully selected group of scientists work on it together for a summer. – McCarthy, 1955

Och vips så var AI ”uppfunnet” och dessutom definierat. Så enkelt var det. Typ.

Dunning Kruger-effekten

När man kikar på ämnet och dess utveckling görs det enklast med ”Technology hype cycle” vilken består av fem faser definierade av konsult-företaget Gartner som använder en Dunning Kruger-kurva för att illustrera det:

  • Innovation trigger
  • Peak of Inflated Expectations
  • Trough of Disillusionment
  • Slope of Enlightenment
  • Plateau of Productivity

Så här ser det ut för AI 2022

Källa: Gartner

Den här fräsiga grafen visar alltså hur teknik växer fram över tid, det börjar som oftast med en hype, du vet en klassisk buzz där media och andra på-hejare talar upp något.

Därefter peakar den och vänder ner när alla inser att den är grejen inte riktigt fungerar – ännu.

Sen tågar det på och de som når slutstationen, eller platån av produktivitet, är de saker som appliceras i program och appar som faktiskt fungerar och bidrar på riktigt.

Forskning inom AI

Det har hänt en del inom sfären sedan 50-talet. Nu är det lyckligtvis inte bara män i skägg som driver forskningen framåt. Idag drivs den av män (med och utan skägg), kvinnor och ickebinära.

Det görs bland annat på Open AI som startade som en non-profitorganisation grundat av Elon Musk med flera. Idag bedriver de etisk AI-forskning, med andra ord – kontrollerar att robotar inte tar över världen, Open AI är välfinansierat och Microsoft har investerat runt en miljard dollar.

De har flertalet produktifierade lösningar så som DALL-E 2 & summering av text.

  • DALL-E 2 är en AI som skapar en bild utifrån den text du ger den, enkelt sagt en digital konstnär. Om jag ger den inputen ”dog walking in the dessert with an astronaut, in retro style” får jag ut den här bilden

  • Text-summering är precis som det låter, den klarar av att ta en bok/text och ge dig en kort summering av vad den handlar om, så att du slipper läsa hela. Tänk om det hade funnit när man gick i skolan…

    I nedan exempel har den alltså läst in Alice i Underlandet, analyserat, brutit ned den i stycken och kommit fram med en summering som faktiskt är väldigt bra! (OBS, min bedömning baseras på att jag sett filmen inte läst boken)

    *Spoiler alert*

    Bild: OpenAI

De här två funktionerna kan idag användas via API eller byggas in i egna appar.

Svensk forskning

Även vi svenskar kan stoltsera att vi är med och bedriver forskning inom området.

Wallenbergarna hårdsatsar med vad som är ett av de största forsknings-projekten i svensk Universitetshistoria, de görs på WASP (Wallenberg AI, Autonomous Systems and Software Program) ej att förväxla med W.A.S.P. ett heavy metal-band som var stora på 80-talet.

En anledning till att det här är så pass viktigt är att forskning primärt sker på engelska vilket gör att en del data som krävs till algoritmer för inlärning och naturlig språkhantering saknas då vi inte har samma underlag för svenskt ljud och text.

Extra viktigt är det när vi slänger in dialekter i ekvationer, sorry Skåne men jag pratar om er.

AI i vardagen

Något alla kanske inte inser är att AI finns överallt och vi stöter på det dagligen.

Det kan till exempel vara i form av:

  • Självkörande bilar, du kanske har hört talas om Tesla? När grundaren Elon inte köper microbloggar sysslar han och gänget en del med just självkörande bilar

  • När du gör en sökning på internet (det kanske var så du hittade det här inlägget?)

  • Smarta hem, ett sådant smart hem som lär sig ert schema, justera temperatur efter utetemperaturen osv
  • E-handel och marknadsföring, som du säkert vet är det inte en slump att du matas med bilder på Air Fryers när du surfat runt på den typen av sidor

AI för företagstelefoni och contact center

Okej, det finns lite över allt. Men hur ser det ut inom företagstelefoni, vad krävs och vilka hinder finns?

Två viktiga förutsättningar är att det behöver fungera i realtid och på webben.

Snabb AI (i realtid)

Här har det skett ett trendskifte, från algoritmer som skulle ge god precision till sådana med snabb exekvering. (Snabb exekvering är ett finare sätt att säga ett snabbt utförande)

Dels för att dagens algoritmer har så pass god precision, dels för att kommersiella lösningar behöver snabba exekveringar för att fungera rent praktiskt i en tjänst.

Det här syns i nya specialchip, som behövs för att kunna processa den här typen av funktionalitet, från tillverkare som Intel, AMD, NVIDIA och Apple. Nu har även dessa chip börjat hamna i ”vanliga” mobiler och datorer vilket möjliggör en herras massa grejer för oss slutanvändare.

AI på webben

För att du ska få tillgång till olika typer av fräsiga funktioner behöver AI kunna exekveras i realtid och på webben. På webben menas i en flik i din browser och eller i en mobilapp.

Det möjliggörs bland annat av:

  • WebAssembly som gör det möjligt att köra hårdvarunära kod i en webbläsare så som tung kod för bildanalys och augmented reality. Riktigt enkelt förklarat är den är något som gör det möjligt för tunga operationer att köras i din webbläsare när de får utnyttja hårdvarans kraft

  • WebGL, ett API som renderar 3D-grafik i webbläsare (OpenGL)

  • WebGPU, API för direktåtkomst av operationen i datorns GPU via webbläsare. Alltså kan det här dra nytta av datorns grafikprocessor och göra saker snabbare… och bättre

  • Open Source-ramverk där bland annat Tensor flow är en AI-motor för webbläsare. Open Source är öppen källkod tillgänglig för andra att nyttja

via GIPHY

AI-funktioner i lynes

Nu när de tekniska förutsättningarna finns på plats kan vi börja (och fortsätta) implementera AI-baserad funktionalitet i lynes.

Om det är tack vare Johan Åberg, McCarthy eller WebGPU låter jag vara osagt.

Skoja bara, det är såklart tack vare dig Johan <3

Några bra exempel hur vi har produktifierat det är:

  • Ansiktsdetektering i konferenser där tekniken kan detektera ansikten i bild och visa en beskuren & inzoomad bild av personen. Den klarar även av att följa fler ansikten i en och samma video-feed vilket gör det möjligt till bredare bild i säg ett konferensrum
  • Selfie-segmentering identifierar och skär ut kroppsytor och gör det möjligt nyttja funktioner så som blurrad bakgrund, pressvägg och en animerad bakgrund
  • Borttagning av bakgrundsbrus fungerar så att appen lär sig vad som är en människa som talar och inte. På så sätt klarar den av att förstärka det ljudet (om det behövs) och reducera störande bakgrundsljud

Eftersom jag är precis lagom självgod valde jag att illustrera ansiktsdetektering och selfie-segmentering med en bild på mig.

Bilden illustrerar hur vi idag jobbar med ansiktsdetektering och selfie-segmentering för att sen kunna placera personen på valfri bakgrund, pressvägg eller animerad bild.

AI-effekter i lynes

Närliggande AI-lösningar i branschen

Självklart kunde jag inte hålla mig. För mycket vill ha mer, så jag frågade Johan om hur AI kan användas framöver och vilken typ av funktioner vi kan förvänta oss  (Läs: kräva) framöver.

I supportsammanhang är speech-to-text en sådan grej vilket skulle göra så att samtal automatiskt transkriberas och även summeras i text-form.

En annan häftig grej är automatisk kategorisering av samtal, tänk en nöjd kund / en missnöjd kund. Då skulle tekniken kunna dra en slutsats utifrån vad som sagt och hur kunden har uttryck sig och därefter kategorisera samtalet.

Lite längre fram i spåkulan hittar vi ännu smaskigare saker så som generell Artificiell Intelligens.

Tänk dig en Bot som lär sig en tjänst och sen autonomt kan interagera med kunder och hantera supportärenden med hjälp av naturligt språk och självlärande *rysningar*

Även om jag hoppas på det tänker jag spontant att det kan dröja en liiiiten stund.

Speciellt med tanke på lågkonjunkturen som står för dörren. #EnBotTogMittJobb

Sammanfattning

Jag har redan nämnt det, en häftig funktion som idag finns produktifierad är text-summering.

Nu har jag inte tillgång till en sådan ”grunka” så jag får helt enkelt applicera klassikern ”Vill man ha något gjort, får man göra det själv”

Så här kommer min egen variant på en AI-baserad funktion när jag summerar hela inlägget ovan med endast 77 ord.

Joey i Vänner är mindre intelligent än sina vänner. Han och Filip kan inte så mycket om AI. AI har årstider. Filip googlar och pratar med Johan som forskat inom AI. Alan Turing avslutar andra världskriget och män i skägg åker på konferens. Gartner använder stora ord så som Disillusionment. W.A.S.P. är ett heavy metal-band från 80 talet. Intel och AMD tillverkar chips. Lynes har AI-funktioner i appen tack vare Johan och mycket vill alltid ha mer.

Et voilá!

Vill du läsa mer om AI? Här är vårt senaste inlägg!

Vill du veta mer om vår smarta telefonväxel?

Lämna din e-post nedan så kontaktar vi dig inom en arbetsdag.


Skriven av

Filip Flink

Självutnämnd digitalvetare som ser trender innan trenden själv ser det. Har även en förmåga att överdriva saker. Fast bara ibland.