dc.creator | Silva, Álvaro Jaime Gomes de Sá | |
dc.date.accessioned | 2023-09-21T18:16:27Z | |
dc.date.available | 2023-09-21T18:16:27Z | |
dc.date.issued | 2023-07-28 | |
dc.identifier.uri | https://repositorio.ifpe.edu.br/xmlui/handle/123456789/1031 | |
dc.description.abstract | The relevant role, in different areas of society, of Artificial Intelligence and Machine
Learning systems is perceptible, especially when used in conjunction with Decision
Support Systems. However, the lack of transparency and explainability of these systems has
been a frequent concern. Explainable Artificial Intelligence emerges in this scenario as a
solution to this problem, enabling intelligent systems to gain the trust of their users. The
approach of this study is relevant to improve such systems in critical areas, boosting more
reliable and transparent decision-making. Therefore, this work proposes an approach to
verify and explain errors made by classifiers, contributing to confidence and wider adoption
of artificial intelligence applications. In the bases adopted in this study, the results obtained
demonstrated the efficiency of the proposal in correcting all errors in one base, 75% in
another and 66% in two others, leaving only three bases uncorrected out of a total of nine
bases. | inglês |
dc.rights | An error occurred on the license name. | * |
dc.rights.uri | An error occurred getting the license - uri. | * |
dc.title | Abordagem para verificação autoexplicativa de erros em classificadores | pt_BR |
dc.type | Article | pt_BR |
dc.creator.Lattes | https://lattes.cnpq.br/3271288524509132 | pt_BR |
dc.contributor.advisor1 | Oliveira, Flávio Rosendo da Silva | |
dc.contributor.advisor1Lattes | http://lattes.cnpq.br/6828380394080049 | pt_BR |
dc.contributor.referee1 | Silva, Rodrigo Cesar Lira da | |
dc.contributor.referee2 | Moraes, Diogo Cavalcanti Tavares de | |
dc.contributor.referee1Lattes | http://lattes.cnpq.br/2442224 050349612 | pt_BR |
dc.contributor.referee2Lattes | http://lattes.cnpq.br/3445106 750937471 | pt_BR |
dc.description.resumo | É perceptível o relevante papel, nas diversas áreas da sociedade, dos sistemas de Inteligência Artificial e Aprendizagem de Máquina, em especial quando utilizado em conjunto com Sistemas de Apoio à Decisão. No entanto, a falta de transparência e explicabilidade desses sistemas tem sido uma preocupação frequente. A Inteligência Artificial
Explicável surge nesse cenário como uma solução para esse problema, possibilitando que sistemas inteligentes possam ganhar a confiança de seus usuários. A abordagem deste estudo
se mostra relevante para aprimorar tais sistemas em áreas críticas, impulsionando
uma tomada de decisão mais confiável e transparente. Portanto, este trabalho propõe uma
abordagem para verificar e explicar os erros cometidos por classificadores, contribuindo
para a confiança e adoção mais ampla das aplicações de Inteligência Artificial. Nas bases
adotadas neste estudo, os resultados obtidos demonstraram a eficiência da proposta ao
corrigir todos os erros de uma base, 75% de outra e 66% em mais duas outras, deixando
apenas três bases sem correção de um total de nove bases. | português |
dc.creator.name2 | Cavalcanti, Rhian Costa Branco | |
dc.creator.Lattes2 | http;//lattes.cnpq.br/4122822541155907 | pt_BR |
dc.citation.issue | | |