I følge sjefen i OpenAI, Sam Altman, er det (dataguruen) Stephen Wolfram som har gitt den beste forklaringen på hva chatGPT gjør. Wolfram skriver at en grunn til at chatGPT lykkes så godt, er at menneskelig språk egentlig er enklere enn vi har trodd. Og han sammenligner språkmodellenes prestasjoner med små barns: De lærer seg nemlig også språk på en helt utrolig rask måte. Ikke bare enkeltord, men også grammatikken. De lærer de nødvendige reglene, uten at noen har fortalt dem hva eller hvordan disse er. Akkurat som chatGPT, lærer barna å bruke språk ved mengdetrening. Og ofte uten noen form for instruksjon.
Wolfram mener forklaringen på dette er at det finnes strukturer i språket som vi enda ikke har identifisert, men som gjør det enklere å lære enn vi har antatt. Dette gir språket en regularitet som begrenser hvor mye det nevrale nettet må lære. Og disse strukturene er noe barn -og språkmodeller - kan lære gjennom store inntak av data.