Ingurune konplexuetan, gizakiek AI baino hobeto uler dezakete hizketaren esanahia, belarriak ez ezik, begiak ere erabiltzen baititugu.
Adibidez, norbaiten ahoa mugitzen ikusten dugu eta intuizioz jakin dezakegu entzuten dugun soinua pertsona horrengandik etorri behar dela.
Meta AI AI elkarrizketa-sistema berri bat lantzen ari da, hau da, AI elkarrizketa batean ikusten eta entzuten duenaren arteko korrelazio sotilak ezagutzen ikas dezan irakasteko.
VisualVoice-k gizakiek trebetasun berriak menderatzen ikasten duten moduaren antzera ikasten du, ikus-entzunezko hizkera bereiztea ahalbidetuz, etiketarik gabeko bideoetatik ikusizko eta entzumenezko seinaleak ikasiz.
Makinentzat, horrek pertzepzio hobea sortzen du, gizakiaren pertzepzioa hobetzen den bitartean.
Imajinatu mundu osoko lankideekin metabertsoko talde-bileretan parte hartzeko gai zarela, talde txikiagoko bileretan sartuz espazio birtualean zehar mugitzen diren heinean, eta horietan eszenako soinu-erreberbs eta tinbreak ingurunearen arabera moldatzen dira.
Hau da, audio, bideo eta testu informazioa aldi berean lor dezake eta ingurumena ulertzeko eredu aberatsagoa du, erabiltzaileek soinu-esperientzia "oso harrigarria" izan dezaten.
Argitalpenaren ordua: 2022-07-20