Desenvolvimento de um dispositivo vestível de assistência à locomoção utilizando visão computacional e internet das coisas

dc.contributor.advisor1Silva, Cledja Karina Rolim da
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/1770216488772332
dc.contributor.referee1Silva, Cledja Karina Rolim da
dc.contributor.referee1Latteshttp://lattes.cnpq.br/1770216488772332
dc.contributor.referee2Souza, Tarsis Marinho de
dc.contributor.referee2Latteshttp://lattes.cnpq.br/9808563385937929
dc.contributor.referee3Tenório, Fernando Antonio Guimarães
dc.contributor.referee3Latteshttp://lattes.cnpq.br/0678507623542382
dc.creatorPereira, Guilherme Barbosa
dc.creator.Latteshttp://lattes.cnpq.br/3597190133245798
dc.date.accessioned2026-05-06T14:29:55Z
dc.date.available2026-05-06T14:29:55Z
dc.date.issued2026-02-27
dc.description.abstractAutonomous urban mobility is an essential aspect of the quality of life for visually impaired individuals, who often face physical and architectural barriers aggravated by the lack of accessibility in cities. Traditional tools, such as the white cane, although fundamental, have limitations in detecting aerial obstacles and in the semantic identification of the environment. Given this scenario, this work proposes the development of a wearable visual assistance system based on the Internet of Things (IoT) and Artificial Intelligence. The solution applies Computer Vision technology as a way to understand the environment. The Image capture and distance measurement are performed by an ESP32-CAM module, while heavy processing and inference occur on an external server. The main innovation lies in the feedback delivery: the server processes the image and sends the synthesized audio alert (Text-to-Speech) in real-time via the WebSocket protocol to an Android mobile application, which instantly reproduces the message through the user's headphones. To validate the proposal, tests were performed that could identify objects and report their distance with low latency. The results demonstrate that the integration between IoT, cloud processing, and mobile devices contributes significantly to increasing safety, contextual perception, and locomotion independence for the visually impaired.
dc.description.resumoA mobilidade urbana autônoma é um aspecto essencial para a qualidade de vida de pessoas com deficiência visual, que frequentemente enfrentam barreiras físicas e arquitetônicas agravadas pela falta de acessibilidade nas cidades. Ferramentas tradicionais, como a bengala branca, embora fundamentais, possuem limitações na detecção de obstáculos aéreos e na identificação semântica do ambiente. Diante desse cenário, este trabalho propõe o desenvolvimento de um sistema vestível de assistência visual baseado em Internet das Coisas (IoT) e Inteligência Artificial. A solução utiliza recursos de Visão Computacional como mecanismo de avaliação do ambiente. A captura de imagens e a medição de distância são realizadas por um módulo ESP32-CAM, enquanto o processamento e a inferência ocorrem em um servidor externo. A inovação principal reside na entrega do feedback: o servidor processa a imagem e envia o alerta sonoro sintetizado (Text-to-Speech) em tempo real via protocolo WebSocket para uma aplicação móvel Android, que reproduz a mensagem instantaneamente nos fones de ouvido do usuário. Para validação da proposta, foram executados testes capazes de identificar objetos e informar sua distância com baixa latência. Os resultados demonstram que a integração entre IoT, processamento em nuvem e dispositivos móveis contribui significativamente para o aumento da segurança, da percepção contextual e da independência na locomoção de deficientes visuais.
dc.identifier.citationPereira, Guilherme Barbosa. Desenvolvimento de um dispositivo vestível de assistência à locomoção utilizando visão computacional e internet das coisas / Guilherme Barbosa Pereira. – Dados eletrônicos (1 arquivo: 47.705 KB). – 2026. Sistema requerido: Adobe Acrobat Reader. Modo de acesso: Internet. Orientação: Profa. Dra. Cledja Karina Rolim da Silva. Trabalho de Conclusão de Curso (Bacharelado em Sistemas de Informação) – Instituto Federal de Alagoas, Campus Arapiraca, Arapiraca, 2026. 1. Tecnologia assistiva. 2. Internet das coisas (IoT). 3. Visão computacional. II. Título.
dc.identifier.urihttps://repositorio.ifal.edu.br/handle/123456789/3037
dc.language.isopt
dc.publisherINSTITUTO FEDERAL DE ALAGOAS - Ifal
dc.publisher.countryBrasil
dc.publisher.departmentCampus Arapiraca
dc.rightsAttribution-NonCommercial-NoDerivs 3.0 Brazilen
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/br/
dc.subjectTecnologia assistiva
dc.subjectInternet das coisas (IoT)
dc.subjectVisão computacional
dc.subjectESP32-CAM
dc.subjectAcessibilidade
dc.subjectAssistive technology
dc.subjectInternet of things (IoT)
dc.subjectComputer vision
dc.subjectAccessibility
dc.subject.cnpqCIENCIAS SOCIAIS APLICADAS::CIENCIA DA INFORMACAO
dc.titleDesenvolvimento de um dispositivo vestível de assistência à locomoção utilizando visão computacional e internet das coisas
dc.typeTrabalho de Conclusão de Curso

Arquivos

Pacote Original
Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
TCC_Guilherme Barbosa Pereira.pdf
Tamanho:
1.83 MB
Formato:
Adobe Portable Document Format
Licença do Pacote
Agora exibindo 1 - 1 de 1
Nenhuma Miniatura disponível
Nome:
TCC_Guilherme Barbosa Pereira.license.txt.
Tamanho:
1.66 KB
Formato:
Item-specific license agreed upon to submission
Descrição: