| dc.creator | Pereira, Pedro Henrique dos Santos | |
| dc.date.accessioned | 2025-12-04T15:06:35Z | |
| dc.date.available | 2025-12-04T15:06:35Z | |
| dc.date.issued | 2025-07-11 | |
| dc.identifier.citation | PEREIRA, Pedro Henrique dos Santos. Justiça em modelos de inteligência artificial: um estudo comparativo de técnicas de mitigação e suas implementações no contexto educacional. 23p. Artigo. Trabalho de Conclusão de Curso (Tecnólogo em Análise e Desenvolvimento de Sistemas) - Instituto Federal de Educação, Ciência e Tecnologia de Pernambuco, Campus Jaboatão dos Guararapes. Jaboatão dos Guararapes, 2025. | pt_BR |
| dc.identifier.uri | https://repositorio.ifpe.edu.br/xmlui/handle/123456789/1934 | |
| dc.description.abstract | Machine learning models are increasingly being used to influence decision-making
that directly and indirectly impacts people's lives. Specifically, decision-making
related to education can have a profound influence, both in the present and in the
future, on the repercussions of the results generated by these models. In this context,
there has been growing concern about the fairness of models, that is, whether they
have biases that are incompatible with the equity of socially stigmatized groups, such as gender, race, age, income, etc. The objective of this work is to compare the main
libraries that implement fairness metrics and mitigation techniques, and to provide
data that help choose the most appropriate mitigation implementation for similar
cases, in addition to demonstrating the impact of sensitive variables on the output of
the models. | pt_BR |
| dc.format.extent | 23p. | pt_BR |
| dc.language | pt_BR | pt_BR |
| dc.relation | AGARWAL, A. et al. A Reductions Approach to Fair Classification. 6 mar. 2018.
ANDERS, J. et al. Grade Expectations: How well can we predict future grades
based on past performance? [s.l: s.n.]. Disponível em:
<https://EconPapers.repec.org/RePEc:ucl:cepeow:20-14>.
BAROCAS, S.; HARDT, M.; NARAYANAN, A. FAIRNESS AND MACHINE
LEARNING Limitations and Opportunities. [s.l: s.n.]. Disponível em:
<https://fairmlbook.org/>. 2023.
BIRD, S. et al. Fairlearn: A toolkit for assessing and improving fairness in AI.
[s.l: s.n.]. Disponível em:
<https://www.microsoft.com/en-us/research/publication/fairlearn-a-toolkit-for-assessin
g-and-improving-fairness-in-ai/>. Acesso em: 3 jun. 2025.
CORTEZ, P.; SILVA, A. M. G. Using data mining to predict secondary school
student performance. 2008.
DWORK, C. et al. Fairness through awareness. Proceedings of the 3rd Innovations
in Theoretical Computer Science Conference. Anais...New York, NY, USA: ACM, 8
jan. 2012.
FAWCETT, T. An introduction to ROC analysis. Pattern Recognition Letters, v.
27, n. 8, p. 861–874, jun. 2006.
GÉRON, A. Mãos à Obra: Aprendizado de Máquina com Scikit-Learn &
TensorFlow Conceitos, Ferramentas e Técnicas para a Construção de Sistemas
Inteligentes. [s.l: s.n.]. p. 65–66. 2019.
HARDT, M.; PRICE, E.; SREBRO, N. Equality of opportunity in supervised learning.
Advances in neural information processing systems, v. 29, 2016.
IBM. AI Fairness 360 (AIF360): An open-source toolkit for detecting,
understanding, and mitigating unwanted bias in machine learning models.
Disponível em: https://aif360.readthedocs.io/. Acesso em: 3 jun. 2025.
JORDAN, M. I.; MITCHELL, T. M. Machine learning: Trends, perspectives, and
prospects. Science, v. 349, n. 6245, p. 255–260, 2015.
LE QUY, T. et al. Evaluation of Group Fairness Measures in Student
Performance Prediction Problems. In: [s.l: s.n.]. p. 119–136. 2023.
MAYER-SCHONBERGER, V.; CUKIER, K. Big data: como extrair volume,
variedade, velocidade e valor da avalanche de informação cotidiana. [s.l.]
Elsevier Brasil, 2014. v. 1
MEHRABI, N. et al. A survey on bias and fairness in machine learning. ACM
computing surveys (CSUR), v. 54, n. 6, p. 1–35, 2021.
RIBEIRO, M. T.; SINGH, S.; GUESTRIN, C. “Why Should I Trust You?”:
Explaining the Predictions of Any Classifier. Proceedings of the 22nd ACM
SIGKDD International Conference on Knowledge Discovery and Data Mining, San
Francisco, CA, USA, August 13-17, 2016. Anais...2016.
SU, C.; YU, G; WANG, J; YAN, Z; CUI, L. A review of causality-based fairness
machine learning. Intell Robot. 2022.
UNESCO. Decifrar o código:educação de meninas e mulheres em ciências,
tecnologia, engenharia e matemática (STEM). [s.l.]: UNESCO, 2018. Disponível
em: https://unesdoc.unesco.org/ark:/48223/pf0000264691. Acesso em: 11 jul. 2025.
WORLD ECONOMIC FORUM. Global Gender Gap Report 2025: Digest. Genebra;
Cologny: World Economic Forum, 11 jun. 2025. Disponível em:
https://www.weforum.org/publications/global-gender-gap-report-2025/digest/ . Acesso
em: 11 jul. 2025.
XIMENES, Bianca. Explicabilidade em Machine Learning: isso existe?
Campinas: CDG Campinas, 2020. 1 vídeo (26min). Publicado por: InfoQ Brasil.
Disponível em: https://www.youtube.com/watch?v=SkojnqoKzPg. Acesso em: 25
nov. 2024.
ZAWACKI-RICHTER, O. et al. Systematic review of research on artificial
intelligence applications in higher education – where are the educators?
International Journal of Educational Technology in Higher EducationSpringer
Netherlands, , 1 dez. 2019.
ZHANG, B. H.; LEMOINE, B.; MITCHELL, M. Mitigating Unwanted Biases with
Adversarial Learning. Proceedings of the 2018 AAAI/ACM Conference on AI,
Ethics, and Society. Anais...New York, NY, USA: ACM, 27 dez. 2018. | pt_BR |
| dc.rights | Acesso Aberto | pt_BR |
| dc.rights | An error occurred on the license name. | * |
| dc.rights.uri | An error occurred getting the license - uri. | * |
| dc.subject | Educação | pt_BR |
| dc.subject | Inteligência artificial | pt_BR |
| dc.subject | Machine intelligence | pt_BR |
| dc.title | Justiça em modelos de inteligência artificial: um estudo comparativo de técnicas de mitigação e suas implementações no contexto educacional | pt_BR |
| dc.title.alternative | Fairness in artificial intelligence models: a comparative study of mitigation techniques and their implementations in the educational context | pt_BR |
| dc.type | Article | pt_BR |
| dc.creator.Lattes | http://lattes.cnpq.br/7641502480929142 | pt_BR |
| dc.contributor.advisor1 | Cabral, Luciano de Souza | |
| dc.contributor.advisor1Lattes | http://lattes.cnpq.br/9 195362898891079 | pt_BR |
| dc.contributor.referee1 | Cabral, Luciano de Souza | |
| dc.contributor.referee2 | Andrade, Havana Diogo Alves | |
| dc.contributor.referee3 | Oliveira Junior, Nilson Cândido de | |
| dc.contributor.referee1Lattes | http://lattes.cnpq.br/9 195362898891079 | pt_BR |
| dc.contributor.referee2Lattes | http://lattes.cnpq.br/1 553497037631903 | pt_BR |
| dc.contributor.referee3Lattes | http://lattes.cnpq.br/2 659562579950192 | pt_BR |
| dc.publisher.department | Jaboatão dos Guararapes | pt_BR |
| dc.publisher.country | Brasil | pt_BR |
| dc.subject.cnpq | CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO::SISTEMAS DE COMPUTACAO | pt_BR |
| dc.description.resumo | Cada vez mais, modelos de machine learning vem sendo utilizados para
influenciar tomadas de decisão que impactam direta e indiretamente a vida das
pessoas. Especificamente tomadas de decisão relacionadas à educação podem
influenciar profundamente, tanto no momento presente, como no futuro com a
repercussão dos resultados gerados por esses modelos. Nesse contexto, tem
crescido a preocupação quanto ao fairness (justiça) dos modelos, ou seja, se
possuem vieses incompatíveis com a equidade de grupos socialmente
estigmatizados, como por exemplo: gênero, raça, idade, renda e etc. O objetivo
deste trabalho é comparar as principais bibliotecas que implementam métricas e
técnicas de mitigação de fairness, e fornecer dados que ajudem a escolher a
implementação de mitigação mais adequada para casos semelhantes, além de
demonstrar o impacto das variáveis sensíveis sobre a saída dos modelos. | pt_BR |