Pesquisadores da Universidade Estadual da Pensilvânia, nos Estados Unidos, desenvolveram um novo aplicativo de inteligência artificial que promete transformar a rotina de pessoas com deficiência visual. Batizado de NaviSense, o sistema permite localizar objetos apenas com comandos de voz, oferecendo orientações precisas em tempo real.
A tecnologia combina diferentes recursos avançados, como modelos de linguagem, visão computacional, realidade aumentada e sensores LiDAR. A partir do momento em que o usuário descreve o objeto que deseja encontrar, o aplicativo analisa o ambiente, identifica a solicitação e passa a direcionar a pessoa por meio de áudio e vibrações no aparelho.
Caso o sistema tenha dúvidas sobre qual objeto o usuário procura, ele faz perguntas adicionais para refinar a busca, tornando a experiência mais natural e eficiente. Além disso, o aplicativo acompanha os movimentos da mão do usuário em tempo real, guiando o celular até a posição correta do item.
Especialistas em acessibilidade destacam que o diferencial do NaviSense está na integração de tecnologias já existentes em uma única plataforma. Isso elimina a necessidade de cadastrar previamente objetos ou limitar as buscas a categorias fixas, algo comum em aplicativos tradicionais voltados para esse público.
Durante os testes, realizados com 12 pessoas com deficiência visual ou baixa visão, o aplicativo demonstrou resultados positivos. Os participantes conseguiram encontrar objetos com mais rapidez e apontaram preferência pelo novo sistema em comparação com outras tecnologias semelhantes.
Segundo os desenvolvedores, antes do lançamento comercial ainda serão realizados ajustes, como otimização do consumo de bateria e melhoria do desempenho dos modelos de inteligência artificial. A expectativa da equipe é tornar a ferramenta ainda mais acessível e funcional nos próximos meses.
O projeto representa um avanço importante na inclusão digital e na autonomia de pessoas com deficiência visual, ampliando o acesso à tecnologia e tornando o dia a dia mais seguro e independente.
Foto: Caleb Craig/Penn State
Redação Brasil News