Staffan Larsson om hur AI-hallucinationer kan stoppas
Professor Staffan Larsson har forskat på konversationell AI i 25 år. Nu har hans bolag Talkamatic utvecklat en metod som garanterar att AI-agenter talar sanning – något som öppnar dörrar till säkerhetskritiska branscher.

Detta är ett avsnitt av Teknikvisionärerna – en podcast om människor och företag i teknikens framkant.
När ChatGPT lanserades 2022 fick Staffan Larsson smått panik. Efter 25 år av forskning inom konversationell AI verkade hans livsverk plötsligt överflödigt. Men snart insåg han att de stora språkmodellerna hade en fundamental brist – de hallucinerar.
– Första reaktionen blev okej, har vi något existensberättigande alls längre? Det var ju lite jobbigt, berättar han i podcasten.
Men ur krisen föddes insikten om en helt ny möjlighet.
Problemet ingen annan löser
Språkmodeller som ChatGPT "hittar på" information utan att användaren kan veta när det händer. Det gör dem oanvändbara för säkerhetskritiska uppgifter.
– Man har liksom ingen kontroll över de här systemen och då insåg vi att det finns en enormt viktig nische vi kan fylla med vår lösning, säger Staffan Larsson.
Talkamatic, som Larsson grundade 2009 tillsammans med kollegan Fredrik Kronlid, har utvecklat en unik metod som i grunden handlar om tre delar: generera, kurera, publicera.
Generera, kurera, publicera
Istället för att låta AI:n improvisera i realtid genererar systemet först en komplett dialog som en människa sedan granskar och godkänner. När dialogen väl är publicerad kan AI-agenten föra tusentals konversationer baserat på det i förväg godkända innehållet.
– Vi löser det fundamentala problemet med de här stora språkmodellerna, att de inte går att kontrollera, att de hallucinerar, förklarar Staffan Larsson.
Metoden öppnar upp helt nya marknader för AI-agenter – marknader som annars hade varit stängda på grund av just hallucinations-problemet.
Säkerhetskritiska tillämpningar
– Om du vill göra något du verkligen tycker är viktigt, när det är centralt att det blir rätt och att systemet inte hittar på saker eller säger konstiga saker, då har du nytta av vårt system, säger Larsson.
Företaget siktar på chatbottar för säkerhetskritiska områden som medicinsk utbildning och flygteknik, där felaktig information kan få katastrofala konsekvenser.
Chain of trust
Larsson beskriver sin approach som "chain of trust" – en kedja av förtroende.
Du pratar med ett system, precis som med ChatGPT, men en människa har kontrollerat det. Det finns en kedja med kontrollmekanismer som gör att du kan lita på vad boten säger.
Staffan Larsson tror att talad dialog med AI bara är i sin linda.
– Rösten är ju det enklaste sättet i jättemånga sammanhang att interagera med datorer. Du sänker ju tröskeln för användning till noll. Jag tror helt klart röst är medium nummer ett för interaktion mellan människa och maskin i framtiden.
Varningen för viskleken
Samtidigt varnar han för övertro på AI-agenter som arbetar tillsammans utan mänsklig kontroll:
– Om du inte har löst hallucinationsproblemet så kommer det att bli viskleken. Hallucinationer kommer att fortplanta sig och bli större. Det är något vi vill lösa med vår produkt.
Lyssna på hela avsnittet: Teknikvisionärerna på Acast
Gäst: Staffan Larsson, professor i datalingvistik vid Göteborgs universitet och VD för Talkamatic
Teknikvisionärerna produceras av Teknikministeriet.
