Мадэль mGPT можа выкарыстоўвацца як для генерацыі тэксту, так і для апрацоўкі натуральнай мовы. Нейрасетка паказвае высокія вынікі на шматлікіх задачах few-shot і zero-shot learning: у гэтай галіне машыннага навучання не патрабуецца асобна давучваць мадэль - дастаткова сфармуляваць задачу тэкстам і прывесці некалькі прыкладаў, пасля чаго mGPT навучыцца выконваць новую задачу.
Тым самым можна навучыць сістэму адказваць на пытанні, вызначаць эмацыйную афарбоўку тэксту, здабываць з яго імёны, прозвішчы, назвы кампаній і г.д. Мадэль можа таксама выкарыстоўвацца як кампанент розных маўленчых тэхналогій: напрыклад, для паляпшэння якасці распазнання прамовы ці генерацыі сцэнарыяў дыялогавых сістэм.
«У 2020 годзе мы прадставілі рускамоўную версію нейрасеткі GPT-3. Мы працягнулі развіваць нашы NLP-тэхналогіі і прадставілі мадэль mGPT, якая падтрымлівае больш за 60 моў, пры гэтым для многіх з іх раней генератыўных мадэляў проста не існавала», – растлумачыў CEO SberDevices і віцэ-прэзідэнт па новых лічбавых паверхнях Салют Сбербанка Дзяніс Філіпаў,
Разам з беларускай нейрасетка валодае яшчэ 60 мовамі – ад арабскай да японскай. Сярод незвычайных – ёруба, тувінская і якуцкая.