
Ingurune konplexuetan, gizakiek hizketaren esanahia hobeto uler dezakete IA baino, ez baititugu belarriak bakarrik erabiltzen, baita begiak ere.
Adibidez, norbaiten ahoa mugitzen ikusten dugu eta intuitiboki jakin dezakegu entzuten dugun soinua pertsona horrengandik datorrela.
Meta AI elkarrizketa-sistema berri batean ari da lanean, AIri elkarrizketa batean ikusten eta entzuten duenaren arteko korrelazio sotilak ezagutzen ere irakasteko.
VisualVoice-k gizakiek trebetasun berriak menderatzen ikasten duten antzera ikasten du, ikus-entzunezkoen eta hizketa-bereizketa ahalbidetuz etiketarik gabeko bideoetatik ikusizko eta entzumen-arrastoak ikasiz.
Makinentzat, honek pertzepzio hobea sortzen du, eta gizakien pertzepzioa, berriz, hobetzen da.
Imajinatu mundu osoko lankideekin metabertsoan talde-bileretan parte hartu ahal izatea, espazio birtualean zehar mugitzen diren bitartean talde txikiagoetako bileretan sartuz, non eszenako soinu-oihartzunak eta tinbreak ingurunearen arabera doitzen diren.
Hau da, audio, bideo eta testu informazioa aldi berean lor dezake, eta ingurumena ulertzeko eredu aberatsagoa du, erabiltzaileei "oso harrigarria" den soinu esperientzia izan dezaten.
Argitaratze data: 2022ko uztailak 20