Mostrar registro simples

dc.creatorPereira, Pedro Henrique dos Santos
dc.date.accessioned2025-12-04T15:06:35Z
dc.date.available2025-12-04T15:06:35Z
dc.date.issued2025-07-11
dc.identifier.citationPEREIRA, Pedro Henrique dos Santos. Justiça em modelos de inteligência artificial: um estudo comparativo de técnicas de mitigação e suas implementações no contexto educacional. 23p. Artigo. Trabalho de Conclusão de Curso (Tecnólogo em Análise e Desenvolvimento de Sistemas) - Instituto Federal de Educação, Ciência e Tecnologia de Pernambuco, Campus Jaboatão dos Guararapes. Jaboatão dos Guararapes, 2025.pt_BR
dc.identifier.urihttps://repositorio.ifpe.edu.br/xmlui/handle/123456789/1934
dc.description.abstractMachine learning models are increasingly being used to influence decision-making that directly and indirectly impacts people's lives. Specifically, decision-making related to education can have a profound influence, both in the present and in the future, on the repercussions of the results generated by these models. In this context, there has been growing concern about the fairness of models, that is, whether they have biases that are incompatible with the equity of socially stigmatized groups, such as gender, race, age, income, etc. The objective of this work is to compare the main libraries that implement fairness metrics and mitigation techniques, and to provide data that help choose the most appropriate mitigation implementation for similar cases, in addition to demonstrating the impact of sensitive variables on the output of the models.pt_BR
dc.format.extent23p.pt_BR
dc.languagept_BRpt_BR
dc.relationAGARWAL, A. et al. A Reductions Approach to Fair Classification. 6 mar. 2018. ANDERS, J. et al. Grade Expectations: How well can we predict future grades based on past performance? [s.l: s.n.]. Disponível em: <https://EconPapers.repec.org/RePEc:ucl:cepeow:20-14>. BAROCAS, S.; HARDT, M.; NARAYANAN, A. FAIRNESS AND MACHINE LEARNING Limitations and Opportunities. [s.l: s.n.]. Disponível em: <https://fairmlbook.org/>. 2023. BIRD, S. et al. Fairlearn: A toolkit for assessing and improving fairness in AI. [s.l: s.n.]. Disponível em: <https://www.microsoft.com/en-us/research/publication/fairlearn-a-toolkit-for-assessin g-and-improving-fairness-in-ai/>. Acesso em: 3 jun. 2025. CORTEZ, P.; SILVA, A. M. G. Using data mining to predict secondary school student performance. 2008. DWORK, C. et al. Fairness through awareness. Proceedings of the 3rd Innovations in Theoretical Computer Science Conference. Anais...New York, NY, USA: ACM, 8 jan. 2012. FAWCETT, T. An introduction to ROC analysis. Pattern Recognition Letters, v. 27, n. 8, p. 861–874, jun. 2006. GÉRON, A. Mãos à Obra: Aprendizado de Máquina com Scikit-Learn & TensorFlow Conceitos, Ferramentas e Técnicas para a Construção de Sistemas Inteligentes. [s.l: s.n.]. p. 65–66. 2019. HARDT, M.; PRICE, E.; SREBRO, N. Equality of opportunity in supervised learning. Advances in neural information processing systems, v. 29, 2016. IBM. AI Fairness 360 (AIF360): An open-source toolkit for detecting, understanding, and mitigating unwanted bias in machine learning models. Disponível em: https://aif360.readthedocs.io/. Acesso em: 3 jun. 2025. JORDAN, M. I.; MITCHELL, T. M. Machine learning: Trends, perspectives, and prospects. Science, v. 349, n. 6245, p. 255–260, 2015. LE QUY, T. et al. Evaluation of Group Fairness Measures in Student Performance Prediction Problems. In: [s.l: s.n.]. p. 119–136. 2023. MAYER-SCHONBERGER, V.; CUKIER, K. Big data: como extrair volume, variedade, velocidade e valor da avalanche de informação cotidiana. [s.l.] Elsevier Brasil, 2014. v. 1 MEHRABI, N. et al. A survey on bias and fairness in machine learning. ACM computing surveys (CSUR), v. 54, n. 6, p. 1–35, 2021. RIBEIRO, M. T.; SINGH, S.; GUESTRIN, C. “Why Should I Trust You?”: Explaining the Predictions of Any Classifier. Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, San Francisco, CA, USA, August 13-17, 2016. Anais...2016. SU, C.; YU, G; WANG, J; YAN, Z; CUI, L. A review of causality-based fairness machine learning. Intell Robot. 2022. UNESCO. Decifrar o código:educação de meninas e mulheres em ciências, tecnologia, engenharia e matemática (STEM). [s.l.]: UNESCO, 2018. Disponível em: https://unesdoc.unesco.org/ark:/48223/pf0000264691. Acesso em: 11 jul. 2025. WORLD ECONOMIC FORUM. Global Gender Gap Report 2025: Digest. Genebra; Cologny: World Economic Forum, 11 jun. 2025. Disponível em: https://www.weforum.org/publications/global-gender-gap-report-2025/digest/ . Acesso em: 11 jul. 2025. XIMENES, Bianca. Explicabilidade em Machine Learning: isso existe? Campinas: CDG Campinas, 2020. 1 vídeo (26min). Publicado por: InfoQ Brasil. Disponível em: https://www.youtube.com/watch?v=SkojnqoKzPg. Acesso em: 25 nov. 2024. ZAWACKI-RICHTER, O. et al. Systematic review of research on artificial intelligence applications in higher education – where are the educators? International Journal of Educational Technology in Higher EducationSpringer Netherlands, , 1 dez. 2019. ZHANG, B. H.; LEMOINE, B.; MITCHELL, M. Mitigating Unwanted Biases with Adversarial Learning. Proceedings of the 2018 AAAI/ACM Conference on AI, Ethics, and Society. Anais...New York, NY, USA: ACM, 27 dez. 2018.pt_BR
dc.rightsAcesso Abertopt_BR
dc.rightsAn error occurred on the license name.*
dc.rights.uriAn error occurred getting the license - uri.*
dc.subjectEducaçãopt_BR
dc.subjectInteligência artificialpt_BR
dc.subjectMachine intelligencept_BR
dc.titleJustiça em modelos de inteligência artificial: um estudo comparativo de técnicas de mitigação e suas implementações no contexto educacionalpt_BR
dc.title.alternativeFairness in artificial intelligence models: a comparative study of mitigation techniques and their implementations in the educational contextpt_BR
dc.typeArticlept_BR
dc.creator.Latteshttp://lattes.cnpq.br/7641502480929142pt_BR
dc.contributor.advisor1Cabral, Luciano de Souza
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/9 195362898891079pt_BR
dc.contributor.referee1Cabral, Luciano de Souza
dc.contributor.referee2Andrade, Havana Diogo Alves
dc.contributor.referee3Oliveira Junior, Nilson Cândido de
dc.contributor.referee1Latteshttp://lattes.cnpq.br/9 195362898891079pt_BR
dc.contributor.referee2Latteshttp://lattes.cnpq.br/1 553497037631903pt_BR
dc.contributor.referee3Latteshttp://lattes.cnpq.br/2 659562579950192pt_BR
dc.publisher.departmentJaboatão dos Guararapespt_BR
dc.publisher.countryBrasilpt_BR
dc.subject.cnpqCIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO::SISTEMAS DE COMPUTACAOpt_BR
dc.description.resumoCada vez mais, modelos de machine learning vem sendo utilizados para influenciar tomadas de decisão que impactam direta e indiretamente a vida das pessoas. Especificamente tomadas de decisão relacionadas à educação podem influenciar profundamente, tanto no momento presente, como no futuro com a repercussão dos resultados gerados por esses modelos. Nesse contexto, tem crescido a preocupação quanto ao fairness (justiça) dos modelos, ou seja, se possuem vieses incompatíveis com a equidade de grupos socialmente estigmatizados, como por exemplo: gênero, raça, idade, renda e etc. O objetivo deste trabalho é comparar as principais bibliotecas que implementam métricas e técnicas de mitigação de fairness, e fornecer dados que ajudem a escolher a implementação de mitigação mais adequada para casos semelhantes, além de demonstrar o impacto das variáveis sensíveis sobre a saída dos modelos.pt_BR


Arquivos deste item

Thumbnail
Thumbnail

Este item aparece na(s) seguinte(s) coleção(s)

Mostrar registro simples