En fascinerade aspekt av dagens stora språkmodeller är att inte ens experter och utvecklare förstår exakt hur de fungerar. Ett exempel är att Open AI:s modell O1 ibland börjar ”tänka” på kinesiska, persiska eller något annat språk som frågan inte ställdes på.
O1 introducerades i början av hösten förra året och är Open AI:s första ”resonerande” modell som har vetenskaplig fokus och är bättre på självständig forskning. Modellen ger svaren på rätt språk men stegen – ”tänkandet” – som leder fram till svaret kan utföras på kinesiska eller andra språk.
Techcrunch har frågat flera AI-experter som inte helt förstår vad beteendet beror på. Några hävdade att egenheten är ett tecken på kinesiskt språkligt inflytande genom dataetikettering. Andra avfärdar teorin och säger att modellen lika gärna kan börja ”tänka” på andra språk än kinesiska.
En av de tillfrågade experterna – Matthew Guzdial från Albertas universitet – påpekar att modellen inte vet vad ett språk är för något eller att språk är olika. För modellen är allt bara tecken och tokens. Teorin är att modellen helt plötsligt väver in andra språk på grund av associationer modellen gjorde under träningen.
Gemini uppvisade ett liknande beteende i somras, fast värre eftersom själva svaren ibland kunde ske på helt andra språk än frågan ställdes på: just kinesiska och persiska. Google verkar dock ha lyckats bli av med den nyckfullheten sedan dess.