Språkförståelse har varit en utmaning för AI-robotar under lång tid. Men nu börjar robotar lära sig att skriva begriplig text på alltfler språk, efter försök att vidareutveckla systemet GPT-3.

ANNONS

GPT-3 är ett system som använder djupinlärning för att producera text som ligger nära mänskligt språk i formuleringar och syntax. Microsofts Turing NGL är en föregångare.

Utvecklare i företag världen över arbetar nu med att ytterligare utveckla tekniken. En uppsjö av nya företag har dykt upp i branschen i Kina, Sydkorea, Tyskland och Israel, skriver Wired.

Programmen är användbara i en rad sammanhang, både för att skapa automatiska chattfunktioner och för att skriva datakod som senare kan användas.

Som en konsekvens blir AI-robotar allt bättre på att uttrycka sig på ett flertal språk.

Det som har hänt i utvecklingen på senare år är att AI-robotar har lärt sig mänskligt språk genom att systematiskt läsa igenom en mängd olika texter på Internet.

ANNONS
ANNONS

De har sedan genom statistiska jämförelser lärt sig hur människor formulerar sig på sina språk. Därefter använder AI språket utifrån den inlärningen.

När algoritmerna tidigare framför allt skrev på engelska börjar de nu lära sig allt fler språk.

Men framgångarna för sådan språkinlärning är fortfarande begränsad.

Metoden leder ibland till att en AI börjar uttrycka exempelvis inkorrekta påståenden eller rasism.

I Kina fick utvecklandet av en språklig AI-modell resultatet att algoritmen skapade en egen modell istället, som talade koreanska.

ANNONS
ANNONS

Utvecklarna fortsätter att hitta sätt att komma ifrån sådana misstag, men man är fortsatt osäker på hur det kommer att gå.

Jie Tang, professor påTsinghua University, arbetar med en modell som ska lägga större vikt vid fakta hämtad från databaser, men han är inte helt säker på att den modellen kommer att uttrycka sig mer korrekt.

– Jag är verkligen inte säker, säger han till Wired.
– Det här är en stor fråga för oss och alla som arbetar med de här stora modellerna.