A imersão do usuário com uma aplicação pode se dar de diferentes maneiras, sejam elas por meio de estímulos que complementam uma informação sendo apresentada (aroma, iluminação, etc.), pelo formato ou dispositivo pelo qual uma informação é apresentada (áudio binaural, navegadores de realidade aumentada, etc.), ou mesmo por meio da interação via comandos verbais, gestuais, de apontamento, etc.
Diferente de aplicações tradicionais, buscamos desenvolver novas formas de se definir a sincronização entre objetos de mídia (incluindo efeitos sensoriais, quando for o caso) de uma aplicação. A ideia é que a sincronização possa ser definida em função de outras “informações” presentes em uma aplicação.
Buscamos dar suporte ao desenvolvimento de modelos e linguagens, bem como ferramentas para autoria de aplicações. Em particular busca-se definir construções que permitam especificar de maneira abstrata a execução de efeitos sensoriais e a captura da interação multimodal, bem como o suporte a múltiplos ambientes e usuários em uma mesma aplicação.
Utilização das tecnologias desenvolvidas para a construção de aplicações nessas áreas chave, promovendo maior retorno para a sociedade.