Mostrar registro simples

dc.creatorSilva, Álvaro Jaime Gomes de Sá
dc.date.accessioned2023-09-21T18:16:27Z
dc.date.available2023-09-21T18:16:27Z
dc.date.issued2023-07-28
dc.identifier.urihttps://repositorio.ifpe.edu.br/xmlui/handle/123456789/1031
dc.description.abstractThe relevant role, in different areas of society, of Artificial Intelligence and Machine Learning systems is perceptible, especially when used in conjunction with Decision Support Systems. However, the lack of transparency and explainability of these systems has been a frequent concern. Explainable Artificial Intelligence emerges in this scenario as a solution to this problem, enabling intelligent systems to gain the trust of their users. The approach of this study is relevant to improve such systems in critical areas, boosting more reliable and transparent decision-making. Therefore, this work proposes an approach to verify and explain errors made by classifiers, contributing to confidence and wider adoption of artificial intelligence applications. In the bases adopted in this study, the results obtained demonstrated the efficiency of the proposal in correcting all errors in one base, 75% in another and 66% in two others, leaving only three bases uncorrected out of a total of nine bases.inglês
dc.rightsAn error occurred on the license name.*
dc.rights.uriAn error occurred getting the license - uri.*
dc.titleAbordagem para verificação autoexplicativa de erros em classificadorespt_BR
dc.typeArticlept_BR
dc.creator.Latteshttps://lattes.cnpq.br/3271288524509132pt_BR
dc.contributor.advisor1Oliveira, Flávio Rosendo da Silva
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/6828380394080049pt_BR
dc.contributor.referee1Silva, Rodrigo Cesar Lira da
dc.contributor.referee2Moraes, Diogo Cavalcanti Tavares de
dc.contributor.referee1Latteshttp://lattes.cnpq.br/2442224 050349612pt_BR
dc.contributor.referee2Latteshttp://lattes.cnpq.br/3445106 750937471pt_BR
dc.description.resumoÉ perceptível o relevante papel, nas diversas áreas da sociedade, dos sistemas de Inteligência Artificial e Aprendizagem de Máquina, em especial quando utilizado em conjunto com Sistemas de Apoio à Decisão. No entanto, a falta de transparência e explicabilidade desses sistemas tem sido uma preocupação frequente. A Inteligência Artificial Explicável surge nesse cenário como uma solução para esse problema, possibilitando que sistemas inteligentes possam ganhar a confiança de seus usuários. A abordagem deste estudo se mostra relevante para aprimorar tais sistemas em áreas críticas, impulsionando uma tomada de decisão mais confiável e transparente. Portanto, este trabalho propõe uma abordagem para verificar e explicar os erros cometidos por classificadores, contribuindo para a confiança e adoção mais ampla das aplicações de Inteligência Artificial. Nas bases adotadas neste estudo, os resultados obtidos demonstraram a eficiência da proposta ao corrigir todos os erros de uma base, 75% de outra e 66% em mais duas outras, deixando apenas três bases sem correção de um total de nove bases.português
dc.creator.name2Cavalcanti, Rhian Costa Branco
dc.creator.Lattes2http;//lattes.cnpq.br/4122822541155907pt_BR
dc.citation.issue


Arquivos deste item

Thumbnail
Thumbnail

Este item aparece na(s) seguinte(s) coleção(s)

Mostrar registro simples