A EVOLUÇÃO DA INTELIGÊNCIA ARTIFICIAL EXPLICÁVEL (IAE)
Resumo
Este artigo analisa a evolução da Inteligência Artificial (IA) até a consolidação da Inteligência Artificial Explicável (XAI), enfatizando como o avanço do machine learning e, sobretudo, do deep learning, aumentou o desempenho dos modelos ao custo de maior opacidade (“caixa-preta”). O estudo evidencia a aplicabilidade da IA nas áreas de saúde, finanças, justiça, segurança e outros contextos críticos, nos quais decisões automatizadas podem afetar direitos fundamentais. Nesses domínios, torna-se imprescindível que os sistemas sejam confiáveis, auditáveis e responsáveis, reforçando a necessidade de explicações claras e justificáveis. A revisão da literatura destaca a importância das explicações à medida que a XAI evolui de abordagens post hoc, como LIME e SHAP, para a sistematização teórica dos conceitos de interpretabilidade e explicabilidade. Quanto ao método, o estudo combina revisão narrativa, exame bibliográfico e documental (incluindo análises regulatórias relacionadas ao GDPR) e investigação bibliométrica. Os resultados bibliométricos (Scopus, 2004–2023) indicam crescimento expressivo das publicações sobre XAI a partir de 2018, identificando autores centrais e principais fontes editoriais, como revistas e conferências. Entretanto, considerando a natureza ambígua do termo “XAI” nos critérios de busca, observa-se que os dados do Google Trends confirmam o aumento do interesse público por “inteligência artificial explicável”, o que exige cautela metodológica na condução das consultas. Por fim, a XAI configura-se como uma resposta técnico-sociotécnica à complexidade dos modelos de IA, às pressões éticas e às crescentes exigências regulatórias por transparência.
Biografia do Autor
Mestrando em Administração com pesquisa em Inteligência Artificial Explicável (XAI), pela Florida Christian University, pós-graduado em Gestão de TI e Cloud Computing (UFSCar) e graduado em Gestão de TI (UNIP), com certificações internacionais em ITIL® 4, Security+, DPO e ISO 27001. É avaliador acadêmico em cursos de TI e Coordenador Nacional do Comitê Startech da APDADOS, apoiando a formação de novos profissionais na área.
Mestre em Administração pela Florida Christian University, MBA em Gerenciamento de Projetos de TI e certificações CISO, ISO/IEC 27001 Lead Implementer e DPO (EXIN). Graduado em Tecnologia de Redes de Computadores, possui experiência com projetos em empresas como NTT Ltd., ISH Tecnologia e Grupo Cornélio Brennand. Atua em mitigação de riscos, resposta a incidentes, conformidade regulatória e implementação de políticas de segurança da informação.
Tecnólogo em Marketing (UNIP) e pós-graduado em Data Protection Officer (LGPD/GDPR), com especialização em Social Media. Possui experiência no atendimento digital e participação como avaliador acadêmico e curricular na área de privacidade de dados. É Gerente de Marketing e Assessor do Comitê Diretivo da APDADOS. No cenário internacional, realizou missões oficiais em países como França, Inglaterra e Angola, onde foi palestrante convidado pelo Ministro de Tecnologia.
Doutor em Administração de TI - Ph.D pela Florida Christian University (EUA), Mestre em Administração com foco em TI Verde, Extensão em Gestão de TI pela FGV/SP (2011), Pós-graduado em Gerenciamento de Projetos (2009). Professor de Segurança da Informação na Universidade Paulista (UNIP), Universidade Municipal de São Caetano do Sul (USCS) e Flórida Christian University (FCU). Possui as certificações PMP®, ITIL® Expert, C|EH®, C|HFI® e EXINI® Data Protection Atua nos Estados Unidos como Gerente de Projetos de Cibersegurança (R&D) com foco em Privacidade de Dados (LGPD/GDPR), Computação Forense, Ethical Hacker e Inteligência Artificial(AI). Presidente da Associação Nacional dos Profissionais de Privacidade de Dados (APDADOS.org).
Doutor em Economista pela PUC - Campinas. MBA de Marketing – ESAMC, Sorocaba. Mestrado em Administração pela UNG -Guarulhos. Mestrado em Sociologia pela PUC -São Paulo. Doutorado em Sociologia pela PUC -São Paulo. Doutorado em Administração pela FCU -USA. Pós Doutor Unicamp -Campinas. Pós Doutor FCU -USA. Pós Doutor UC-Portugal. Pró Reitor da Universidade Guarulhos-SP. Editor-chefe da RECIMA21 –REVISTA CIENTÍFICA MULTIDISCIPLINAR. Ph.D, UNG; CFE -U.C Portugal.
Referências
ALVES, Davis Souza; LIMA, Adrianne Correia. Encarregados: Data Protection Officer (DPO). [S. l.]: Editora Haikai, 2021.
ARRIETA, Alejandro Barredo et al. Explainable artificial intelligence (XAI): concepts, taxonomies, opportunities and challenges toward responsible AI. Information Fusion, v. 58, p. 82–115, 2020. DOI: https://doi.org/10.1016/j.inffus.2019.12.012
BAROCAS, Solon; SELBST, Andrew D. Big data’s disparate impact. California Law Review, Berkeley, v. 104, n. 3, p. 671–732, 2016. DOI: https://doi.org/10.2139/ssrn.2477899
BISHOP, Christopher M. Pattern recognition and machine learning. New York: Springer, 2006.
COMISSÃO EUROPEIA. Ethics guidelines for trustworthy AI. Bruxelas: European Commission, 2019.
DOSHI-VELEZ, Finale; KIM, Been. Towards a rigorous science of interpretable machine learning. arXiv preprint, arXiv:1702.08608, 2017.
GOODFELLOW, Ian; BENGIO, Yoshua; COURVILLE, Aaron. Deep learning. Cambridge: MIT Press, 2016.
GOODFELLOW, Ian; SHLENS, Jonathon; SZEGEDY, Christian. Explaining and harnessing adversarial examples. arXiv preprint, 2015.
GOOGLE TRENDS. Inteligência artificial explicável (assunto). Escopo: global; intervalo: últimos cinco anos; tipo: Pesquisa Google na Web. Acesso em: 18 fev. 2026.
GOV.UK. Data ethics framework. London: Government Digital Service, 2018. Atualizado em 2025.
GUNNING, David. Explainable artificial intelligence (XAI). Arlington: DARPA, 2017.
ICO – INFORMATION COMMISSIONER’S OFFICE. Explaining decisions made with AI. London: ICO, 2020.
LECUN, Yann; BENGIO, Yoshua; HINTON, Geoffrey. Deep learning. Nature, London, v. 521, p. 436–444, 2015. DOI: https://doi.org/10.1038/nature14539
LIPTON, Zachary C. The mythos of model interpretability. Communications of the ACM, v. 61, n. 10, p. 36–43, 2018. DOI: https://doi.org/10.1145/3233231
LUNDBERG, Scott M.; LEE, Su-In. A unified approach to interpreting model predictions. In: Advances in Neural Information Processing Systems (NeurIPS), 2017.
MOLNAR, Christoph. Interpretable machine learning. 2. ed. [S. l.]: Leanpub, 2022.
NILSSON, Nils J. The quest for artificial intelligence: a history of ideas and achievements. Cambridge: Cambridge University Press, 2010.
RIBEIRO, Marco Tulio; SINGH, Sameer; GUESTRIN, Carlos. “Why should I trust you?” Explaining the predictions of any classifier. In: Proceedings […] of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM, 2016. p. 1135–1144. DOI: https://doi.org/10.1145/2939672.2939778
RUSSELL, Stuart; NORVIG, Peter. Artificial intelligence: a modern approach. 3. ed. Upper Saddle River: Pearson, 2016.
SHARMA, Chetan et al. Exploring explainable AI: a bibliometric analysis. Discover Applied Sciences, v. 6, 2024. DOI: https://doi.org/10.1007/s42452-024-06324-z
WACHTER, Sandra; MITTELSTADT, Brent; FLORIDI, Luciano. Why a right to explanation of automated decision-making does not exist in the General Data Protection Regulation. International Data Privacy Law, Oxford, v. 7, n. 2, p. 76–99, 2017. DOI: https://doi.org/10.1093/idpl/ipx005
ZHOU, Zhi-Hua et al. Machine learning in China: past, present and future. National Science Review, Oxford, v. 6, n. 1, p. 19–38, 2019.
