Abordagem para verificação autoexplicativa de erros em classificadores
Visualizar/ Abrir
Data
2023-07-28Autor
Silva, Álvaro Jaime Gomes de Sá
https://lattes.cnpq.br/3271288524509132
Cavalcanti, Rhian Costa Branco
http;//lattes.cnpq.br/4122822541155907
Metadata
Mostrar registro completoResumo
É perceptível o relevante papel, nas diversas áreas da sociedade, dos sistemas de Inteligência Artificial e Aprendizagem de Máquina, em especial quando utilizado em conjunto com Sistemas de Apoio à Decisão. No entanto, a falta de transparência e explicabilidade desses sistemas tem sido uma preocupação frequente. A Inteligência Artificial
Explicável surge nesse cenário como uma solução para esse problema, possibilitando que sistemas inteligentes possam ganhar a confiança de seus usuários. A abordagem deste estudo
se mostra relevante para aprimorar tais sistemas em áreas críticas, impulsionando
uma tomada de decisão mais confiável e transparente. Portanto, este trabalho propõe uma
abordagem para verificar e explicar os erros cometidos por classificadores, contribuindo
para a confiança e adoção mais ampla das aplicações de Inteligência Artificial. Nas bases
adotadas neste estudo, os resultados obtidos demonstraram a eficiência da proposta ao
corrigir todos os erros de uma base, 75% de outra e 66% em mais duas outras, deixando
apenas três bases sem correção de um total de nove bases.
Os arquivos de licença a seguir estão associados a este item: