A EVOLUÇÃO DA INTELIGÊNCIA ARTIFICIAL EXPLICÁVEL (IAE)

Resumo

Este artigo analisa a evolução da Inteligência Artificial (IA) até a consolidação da Inteligência Artificial Explicável (XAI), enfatizando como o avanço do machine learning e, sobretudo, do deep learning, aumentou o desempenho dos modelos ao custo de maior opacidade (“caixa-preta”). O estudo evidencia a aplicabilidade da IA nas áreas de saúde, finanças, justiça, segurança e outros contextos críticos, nos quais decisões automatizadas podem afetar direitos fundamentais. Nesses domínios, torna-se imprescindível que os sistemas sejam confiáveis, auditáveis e responsáveis, reforçando a necessidade de explicações claras e justificáveis. A revisão da literatura destaca a importância das explicações à medida que a XAI evolui de abordagens post hoc, como LIME e SHAP, para a sistematização teórica dos conceitos de interpretabilidade e explicabilidade. Quanto ao método, o estudo combina revisão narrativa, exame bibliográfico e documental (incluindo análises regulatórias relacionadas ao GDPR) e investigação bibliométrica. Os resultados bibliométricos (Scopus, 2004–2023) indicam crescimento expressivo das publicações sobre XAI a partir de 2018, identificando autores centrais e principais fontes editoriais, como revistas e conferências. Entretanto, considerando a natureza ambígua do termo “XAI” nos critérios de busca, observa-se que os dados do Google Trends confirmam o aumento do interesse público por “inteligência artificial explicável”, o que exige cautela metodológica na condução das consultas. Por fim, a XAI configura-se como uma resposta técnico-sociotécnica à complexidade dos modelos de IA, às pressões éticas e às crescentes exigências regulatórias por transparência.

 

Biografia do Autor

Juliano Araujo Santana, FCU

Mestrando em Administração com pesquisa em Inteligência Artificial Explicável (XAI), pela Florida Christian University, pós-graduado em Gestão de TI e Cloud Computing (UFSCar) e graduado em Gestão de TI (UNIP), com certificações internacionais em ITIL® 4, Security+, DPO e ISO 27001. É avaliador acadêmico em cursos de TI e Coordenador Nacional do Comitê Startech da APDADOS, apoiando a formação de novos profissionais na área.

   
Angelo Machado de Souza , FCU

Mestre em Administração pela Florida Christian University, MBA em Gerenciamento de Projetos de TI e certificações CISO, ISO/IEC 27001 Lead Implementer e DPO (EXIN). Graduado em Tecnologia de Redes de Computadores, possui experiência com projetos em empresas como NTT Ltd., ISH Tecnologia e Grupo Cornélio Brennand. Atua em mitigação de riscos, resposta a incidentes, conformidade regulatória e implementação de políticas de segurança da informação.

Michel Souza Silva, APDADOS

Tecnólogo em Marketing (UNIP) e pós-graduado em Data Protection Officer (LGPD/GDPR), com especialização em Social Media. Possui experiência no atendimento digital e participação como avaliador acadêmico e curricular na área de privacidade de dados. É Gerente de Marketing e Assessor do Comitê Diretivo da APDADOS. No cenário internacional, realizou missões oficiais em países como França, Inglaterra e Angola, onde foi palestrante convidado pelo Ministro de Tecnologia.

Davis Souza Alves, FCU

Doutor em  Administração  de  TI - Ph.D  pela  Florida  Christian  University  (EUA), Mestre  em Administração   com   foco   em   TI   Verde,   Extensão   em   Gestão   de   TI   pela   FGV/SP   (2011),   Pós-graduado   em Gerenciamento  de  Projetos  (2009).  Professor  de  Segurança  da Informação  na  Universidade  Paulista  (UNIP),  Universidade  Municipal  de  São  Caetano  do  Sul  (USCS)  e  Flórida  Christian University  (FCU).  Possui  as  certificações  PMP®,  ITIL®  Expert,  C|EH®,  C|HFI®  e  EXINI®  Data  Protection    Atua  nos Estados  Unidos  como  Gerente  de  Projetos  de  Cibersegurança  (R&D)  com  foco  em  Privacidade  de  Dados  (LGPD/GDPR), Computação  Forense,  Ethical  Hacker  e  Inteligência  Artificial(AI).  Presidente  da  Associação  Nacional  dos  Profissionais  de Privacidade de Dados (APDADOS.org).

Márcio Magera Conceição, UNG

Doutor em Economista pela PUC - Campinas. MBA de Marketing – ESAMC, Sorocaba. Mestrado em Administração pela UNG -Guarulhos. Mestrado em Sociologia pela PUC -São Paulo. Doutorado em Sociologia pela PUC -São Paulo. Doutorado  em  Administração  pela  FCU -USA.  Pós  Doutor  Unicamp -Campinas.  Pós  Doutor  FCU -USA.  Pós  Doutor  UC-Portugal. Pró Reitor da Universidade Guarulhos-SP. Editor-chefe da RECIMA21 –REVISTA CIENTÍFICA MULTIDISCIPLINAR. Ph.D, UNG; CFE -U.C Portugal.

Referências

ALVES, Davis Souza; LIMA, Adrianne Correia. Encarregados: Data Protection Officer (DPO). [S. l.]: Editora Haikai, 2021.

ARRIETA, Alejandro Barredo et al. Explainable artificial intelligence (XAI): concepts, taxonomies, opportunities and challenges toward responsible AI. Information Fusion, v. 58, p. 82–115, 2020. DOI: https://doi.org/10.1016/j.inffus.2019.12.012

BAROCAS, Solon; SELBST, Andrew D. Big data’s disparate impact. California Law Review, Berkeley, v. 104, n. 3, p. 671–732, 2016. DOI: https://doi.org/10.2139/ssrn.2477899

BISHOP, Christopher M. Pattern recognition and machine learning. New York: Springer, 2006.

COMISSÃO EUROPEIA. Ethics guidelines for trustworthy AI. Bruxelas: European Commission, 2019.

DOSHI-VELEZ, Finale; KIM, Been. Towards a rigorous science of interpretable machine learning. arXiv preprint, arXiv:1702.08608, 2017.

GOODFELLOW, Ian; BENGIO, Yoshua; COURVILLE, Aaron. Deep learning. Cambridge: MIT Press, 2016.

GOODFELLOW, Ian; SHLENS, Jonathon; SZEGEDY, Christian. Explaining and harnessing adversarial examples. arXiv preprint, 2015.

GOOGLE TRENDS. Inteligência artificial explicável (assunto). Escopo: global; intervalo: últimos cinco anos; tipo: Pesquisa Google na Web. Acesso em: 18 fev. 2026.

GOV.UK. Data ethics framework. London: Government Digital Service, 2018. Atualizado em 2025.

GUNNING, David. Explainable artificial intelligence (XAI). Arlington: DARPA, 2017.

ICO – INFORMATION COMMISSIONER’S OFFICE. Explaining decisions made with AI. London: ICO, 2020.

LECUN, Yann; BENGIO, Yoshua; HINTON, Geoffrey. Deep learning. Nature, London, v. 521, p. 436–444, 2015. DOI: https://doi.org/10.1038/nature14539

LIPTON, Zachary C. The mythos of model interpretability. Communications of the ACM, v. 61, n. 10, p. 36–43, 2018. DOI: https://doi.org/10.1145/3233231

LUNDBERG, Scott M.; LEE, Su-In. A unified approach to interpreting model predictions. In: Advances in Neural Information Processing Systems (NeurIPS), 2017.

MOLNAR, Christoph. Interpretable machine learning. 2. ed. [S. l.]: Leanpub, 2022.

NILSSON, Nils J. The quest for artificial intelligence: a history of ideas and achievements. Cambridge: Cambridge University Press, 2010.

RIBEIRO, Marco Tulio; SINGH, Sameer; GUESTRIN, Carlos. “Why should I trust you?” Explaining the predictions of any classifier. In: Proceedings […] of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM, 2016. p. 1135–1144. DOI: https://doi.org/10.1145/2939672.2939778

RUSSELL, Stuart; NORVIG, Peter. Artificial intelligence: a modern approach. 3. ed. Upper Saddle River: Pearson, 2016.

SHARMA, Chetan et al. Exploring explainable AI: a bibliometric analysis. Discover Applied Sciences, v. 6, 2024. DOI: https://doi.org/10.1007/s42452-024-06324-z

WACHTER, Sandra; MITTELSTADT, Brent; FLORIDI, Luciano. Why a right to explanation of automated decision-making does not exist in the General Data Protection Regulation. International Data Privacy Law, Oxford, v. 7, n. 2, p. 76–99, 2017. DOI: https://doi.org/10.1093/idpl/ipx005

ZHOU, Zhi-Hua et al. Machine learning in China: past, present and future. National Science Review, Oxford, v. 6, n. 1, p. 19–38, 2019.

Como Citar

Araujo Santana, J., Machado de Souza , A., Souza Silva, M., Souza Alves, D., & Magera Conceição, M. (2026). A EVOLUÇÃO DA INTELIGÊNCIA ARTIFICIAL EXPLICÁVEL (IAE). RECIMA21 - Revista Científica Multidisciplinar - ISSN 2675-6218, 7(3), e737438. https://doi.org/10.47820/recima21.v7i3.7438