
Yn komplekse omjouwings kinne minsken de betsjutting fan spraak begripe as AI, om't wy net allinich ús earen brûke, mar ek ús eagen.
Wy sjogge bygelyks de mûle fan immen bewege en kin yntuieel witte dat it lûd dat wy hearre om fan dy persoan te kommen.
Meta AI wurket oan in nij AI-dialoochsysteem, dat is om AI te learen om ek te learen om sublelaasjes te learen tusken wat it sjocht en heart yn in petear.
Visualvoice leart op in soartgelikense manier hoe't minsken nije feardigens leare, ynskeakelje audio-fisuele spraakskieding troch it learen fan 'e fisuele en auditive oanwizings út unlabeled fideo's.
Foar masines skept dit bettere persepsje, wylst minsklike persepsje ferbetteret.
Stel jo foar dat jo kinne meidwaan oan groepsgearkomsten yn 'e metaverse mei hiele wrâld, meidwaan oan lytsere groepsgearkomsten, om't se troch de firtuele romte bewege, wêrtroch't de sêne yn' e sêne docht, oanpasse.
Dat is, it kin tagelyk audio en tekstynformaasje krije, en hat in riker miljeu-begryp model, wêrtroch brûkers in "heul wow" lûdûnderfining hawwe.
Posttiid: jul-20-2022