Visão Computacional Flexível para Autonomia Assistiva: Uma Solução Edge AI Não-Invasiva de Baixo Custo

Authors

DOI:

https://doi.org/10.5753/reic.2026.6703

Keywords:

Tecnologia Assistiva, Visão Computacional, Edge AI, Fine-Tuning

Abstract

No Brasil, milhões de pessoas enfrentam barreiras diárias para manter sua independência devido a limitações motoras. Embora a Visão Computacional e a Inteligência Artificial (IA) tenham avançado o campo da tecnologia assistiva, a maioria das soluções disponíveis no mercado é de alto custo, inacessível e carece de padronização para adaptação individualizada. Diante deste cenário, este trabalho propõe o desenvolvimento e a avaliação de um Dispositivo Assistivo Flexível (DAF) de baixo custo, utilizando Edge AI e Visão Computacional. O DAF visa promover a autonomia de indivíduos com severas limitações motoras, permitindo o controle de dispositivos externos através da detecção e interpretação de gestos ou expressões faciais. O grande diferencial metodológico reside na arquitetura flexível, que permite a customização individualizada por meio de fine-tuning remoto. O cuidador utiliza o DAF (baseado na placa Sipeed MAix Bit/Maixduino) para capturar imagens automaticamente rotuladas. Em seguida, essas imagens são enviadas a uma Plataforma Web para que o servidor realize o fine-tuning do modelo pré-treinado (MobileNet 2.5). Os novos pesos são então devolvidos por e-mail para serem atualizados no dispositivo. Em comparação com tecnologias existentes, o DAF demonstrou grandes diferenciais, sendo uma solução não-invasiva, de baixo custo e que não exige um host (computador auxiliar), facilitando sua modularização e transporte. O sistema apresentou um tempo de resposta satisfatório (1 a 2 segundos), propício para uso prático. O trabalho atende, assim, à necessidade de dispositivos flexíveis, acessíveis e adaptáveis às necessidades específicas de cada usuário.

Downloads

Não há dados estatísticos.

Referências

Ariza, J. and Pearce, J. M. (2022). Low-cost assistive technologies for disabled people using open-source hardware and software: A systematic literature review. IEEE Access, 10:124894–124927. DOI: 10.1109/ACCESS.2022.3221449.

Domellöf, F. P. (2019). The extraocular muscles are selectively spared in als. In Hegde, M. L., editor, Amyotrophic Lateral Sclerosis - Recent Advances and Therapeutic Challenges, chapter 6. IntechOpen, London. DOI: 10.5772/intechopen.89504.

González-Cely, A. X., Callejas-Cuervo, M., and Bastos-Filho, T. (2022). Wheelchair prototype controlled by position, speed and orientation using head movement. HardwareX, 11:e00306. DOI: https://doi.org/10.1016/j.ohx.2022.e00306.

Instituto Brasileiro de Geografia e Estatística, . (2022). Censo Demográfico 2022. IBGE, Rio de Janeiro.

Liu, Y., Jiang, F., and Gowda, M. (2020). Application informed motion signal processing for finger motion tracking using wearable sensors. In ICASSP 2020 - 2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pages 8334–8338. DOI: 10.1109/ICASSP40776.2020.9053466.

Majaranta, P. and Räihä, K.-J. (2002). Twenty years of eye typing: systems and design issues. In Proceedings of the 2002 Symposium on Eye Tracking Research & Applications, ETRA ’02, page 15–22, New York, NY, USA. Association for Computing Machinery. DOI: 10.1145/507072.507076.

Miller, R. B. (1968). Response time in man-computer conversational transactions. In Proceedings of the December 9-11, 1968, Fall Joint Computer Conference, Part I, AFIPS ’68 (Fall, part I), page 267–277, New York, NY, USA. Association for Computing Machinery. DOI: 10.1145/1476589.1476628.

Naves, E., Rocha, L., and Pino, P. (2012). Alternative communication system for people with severe motor disabilities using myoelectric signal control. In 2012 ISSNIP Biosignals and Biorobotics Conference: Biosignals and Robotics for Better and Safer Living (BRC), pages 1–4. DOI: 10.1109/BRC.2012.6222176.

Pandey, M., Chaudhari, K., Kumar, R., Shinde, A., Totla, D., and Mali, N. (2018). Assistance for paralyzed patient using eye motion detection. In 2018 Fourth International Conference on Computing Communication Control and Automation (ICCUBEA), pages 1–5. DOI: 10.1109/ICCUBEA.2018.8697455.

Rabhi, Y., Mrabet, M., and Fnaiech, F. (2018). A facial expression controlled wheelchair for people with disabilities. Computer Methods and Programs in Biomedicine, 165:89–105. DOI: https://doi.org/10.1016/j.cmpb.2018.08.013.

Rafal, T., Grzegorz, W., Piotr, G., Nikodem, C., and Sebastian, L. (2023). Edge devices inference performance comparison. Journal of Computing Science and Engineering, 17(2):51–59. DOI: 10.5626/jcse.2023.17.2.51.

Rosero-Montalvo, P. D., Tözün, P., and Hernandez, W. (2024). Optimized cnn architectures benchmarking in hardware-constrained edge devices in iot environments. IEEE Internet of Things Journal, 11(11):20357–20366. DOI: 10.1109/JIOT.2024.3369607.

Torres-Sánchez, E., Alastruey-Benedé, J., and Torres-Moreno, E. (2020). Developing an ai iot application with open software on a risc-v soc. In 2020 XXXV Conference on Design of Circuits and Integrated Systems (DCIS), pages 1–6. DOI: 10.1109/DCIS51330.2020.9268645.

Wang, M.-Y., Kogkas, A. A., Darzi, A., and Mylonas, G. P. (2018). Free-view, 3d gaze-guided, assistive robotic system for activities of daily living.

Downloads

Published

2026-01-23

Como Citar

Lourenço, L., & Neris, L. (2026). Visão Computacional Flexível para Autonomia Assistiva: Uma Solução Edge AI Não-Invasiva de Baixo Custo. Revista Eletrônica De Iniciação Científica Em Computação, 24(1), 20–27. https://doi.org/10.5753/reic.2026.6703

Issue

Section

Artigos