
Sudėtingoje aplinkoje žmonės gali suprasti kalbos prasmę geriau nei AI, nes mes naudojame ne tik savo ausis, bet ir akis.
Pvz., Mes matome, kad kieno nors burna juda ir gali intuityviai žinoti, kad garsas, kurį girdime, turi sklisti iš to žmogaus.
„Meta AI“ dirba prie naujos AI dialogo sistemos, ty mokyti AI taip pat išmokti atpažinti subtilias koreliacijas tarp to, ką ji mato ir girdi pokalbyje.
„VisualVoice“ mokosi panašiai kaip tai, kaip žmonės išmoksta įgyti naujų įgūdžių, įgalindami garso ir vaizdo kalbų atskyrimą mokydamiesi vaizdinių ir klausos užuominų iš nepaženklintų vaizdo įrašų.
Mašinams tai sukuria geresnį suvokimą, o žmogaus suvokimas gerėja.
Įsivaizduokite, kad galėsite dalyvauti grupių susitikimuose „Metaverse“ su kolegomis iš viso pasaulio, prisijungdami prie mažesnių grupių susitikimų, kai jie juda per virtualią erdvę, kurios metu garsas keičia ir tembrai scenoje, atsižvelgiant į aplinką, atitinkamai koreguoja.
Tai yra, tuo pačiu metu jis gali gauti garso, vaizdo ir teksto informaciją ir turi turtingesnį aplinkos supratimo modelį, leidžiantį vartotojams turėti „labai wow“ patikimą patirtį.
Pašto laikas: 2012 m. Liepos 20 d