Please use this identifier to cite or link to this item:
http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/38358
Title: | Análise de técnicas de explicabilidade em redes neurais convolucionais para diagnóstico de glaucoma, retinopatia diabética e catarata. |
Other Titles: | Analysis of explainability techniques in convolutional neural networks for diagnosing glaucoma, diabetic retinopathy and cataracts. |
???metadata.dc.creator???: | SILVA, Wendson Magalhães da. |
???metadata.dc.contributor.advisor1???: | GOMES, Herman Martins. |
???metadata.dc.contributor.referee1???: | MARINHO, Leandro Balby. |
???metadata.dc.contributor.referee2???: | BRASILEIRO, Francisco Vilar. |
Keywords: | Inteligência Artificial;Redes Neurais Convolucionais;Explicabilidade;Saúde Ocular;Diagnóstico por Imagem;Artificial Intelligence;Convolutional Neural Networks;Explainability;Ocular Health;Image Diagnosis |
Issue Date: | 15-May-2024 |
Publisher: | Universidade Federal de Campina Grande |
Citation: | SILVA, Wendson Magalhães da. Análise de técnicas de explicabilidade em redes neurais convolucionais para diagnóstico de glaucoma, retinopatia diabética e catarata. 2024. 19 f. Artigo (Bacharelado em Ciência da Computação) - Universidade Federal de Campina Grande, Centro de Engenharia Elétrica e Informática, Campina Grande, Paraíba, Brasil, 2024. Disponível em: http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/38358 |
???metadata.dc.description.resumo???: | Doenças oftalmológicas, como catarata, glaucoma e retinopatia diabética, representam um desafio significativo para a saúde pública, com potencial de causar perda de visão. No entanto, a maioria desses casos poderia ser evitada ou tratada se diagnosticada precocemente. Neste contexto, a imagem de fundo de olho surge como uma ferramenta de diagnóstico eficaz, rápida e não invasiva. A interpretação manual de imagens oftalmológicas é repetitiva e sujeita a erros. Assim, sistemas computacionais podem ser utilizados para auxiliar os profissionais na triagem automatizada, reduzindo tempo, erros e esforço na análise das doenças. Os sistemas de aprendizado profundo provaram ser eficazes nesse contexto, entretanto, sua falta de transparência tem sido um desafio para a adoção clínica, o que destaca a importância da explicabilidade nos modelos de aprendizado de máquina. Este estudo contribui para o avanço da compreensão e interpre-tação de modelos de aprendizado profundo na área da saúde ocular, visando melhorar o diagnóstico e tratamento de condições oftalmológicas. Ele compara as técnicas LIME e Grad-CAM aplicadas a diferentes arquiteturas de redes neurais convolucionais (CNNs) treinadas para classificar condições oftalmológicas a partir de imagens de fundo de olho. Os resultados indicam que o modelo VGG16 se destaca, alcançando uma acurácia de 93,17% no treinamento e 87,16% na validação. Além disso, as técnicas de explicabilidade, embora distintas em abordagem, identificaram quase as mesmas regiões de interesse nas imagens oftalmológicas. Ainda assim, apesar de haver limitações, como a aleatoriedade do LIME e a necessidade de ajustes no Grad-CAM, o LIME destacou áreas críticas de forma mais sutil, enquanto o Grad-CAM forneceu representações visuais mais diretas e intuitivas. |
Abstract: | Ophthalmic diseases, such as cataracts, glaucoma, and diabetic retinopathy, pose a significant challenge to public health, with the potential to cause vision loss. However, the majority of these cases could be prevented or treated if diagnosed early. In this context, fundus imaging emerges as an effective, fast and non-invasive diagnosis tool. Manual interpretation of ophthalmic images is repetitive and prone to error. Thus, computational systems can be used to assist professionals in automated screening, reducing time, errors, and effort in disease analysis. Deep learning systems have proven effective in this context, however, their lack of transparency has been a challenge for clinical adoption, highlighting the importance of explainability in machine learning models. This study contributes to advancing the understanding and interpretation of deep learning models in the field of ocular health, aiming to improve the diagnosis and treatment of ophthalmic conditions. It compares the LIME and Grad-CAM techniques applied to different architectures of convolutional neural networks (CNNs) trained to classify ophthalmic conditions from fundus images. The results indicate that the VGG16 model stands out, achieving an accuracy of 93.17% in training and 87.16% in validation. Additionally, explainability techniques, though distinct in approach, identified nearly the same regions of interest in ophthalmic images. Nevertheless, despite limitations such as the randomness of LIME and the need for adjustments in Grad-CAM, LIME highlighted critical areas more subtly, while Grad-CAM provided more direct and intuitive visual representations. |
Keywords: | Inteligência Artificial Redes Neurais Convolucionais Explicabilidade Saúde Ocular Diagnóstico por Imagem Artificial Intelligence Convolutional Neural Networks Explainability Ocular Health Image Diagnosis |
???metadata.dc.subject.cnpq???: | Ciência da Computação |
URI: | http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/38358 |
Appears in Collections: | Trabalho de Conclusão de Curso - Artigo - Ciência da Computação |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
WENDSON MAGALHÃES DA SILVA-ARTIGO-CEEI-CIÊNCIA DA COMPUTAÇÃO (2024).pdf | 737.18 kB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.