
Yn komplekse omjouwings kinne minsken de betsjutting fan spraak better begripe as AI, om't wy net allinich ús earen brûke, mar ek ús eagen.
Bygelyks, wy sjogge immen syn mûle bewegen en kinne yntuïtyf witte dat it lûd dat wy hearre fan dy persoan komme moat.
Meta AI wurket oan in nij AI-dialoochsysteem, dat AI leare moat om ek subtile korrelaasjes te werkennen tusken wat it sjocht en heart yn in petear.
VisualVoice leart op in fergelykbere manier as hoe't minsken leare om nije feardigens te behearskjen, wêrtroch audiofisuele spraakskieding mooglik wurdt troch fisuele en auditive oanwizings te learen fan net-labelde fideo's.
Foar masines soarget dit foar bettere waarnimming, wylst de minsklike waarnimming ferbetteret.
Stel jo foar dat jo meidwaan kinne oan groepsgearkomsten yn 'e metaverse mei kollega's fan oer de hiele wrâld, meidwaan kinne oan lytsere groepsgearkomsten as se troch de firtuele romte bewege, wêrby't de lûdgalm en timbres yn 'e sêne har oanpasse oan 'e omjouwing.
Dat is, it kin tagelyk audio-, fideo- en tekstynformaasje krije, en hat in ryker model foar miljeubegryp, wêrtroch brûkers in "tige wow" lûdsûnderfining hawwe kinne.
Pleatsingstiid: 20 july 2022