A EVOLUÇÃO DA INTELIGÊNCIA ARTIFICIAL EXPLICÁVEL (IAE)

Autores

DOI:

https://doi.org/10.47820/recima21.v7i3.7438

Palavras-chave:

Inteligência Artificial Explicável, Interpretabilidade de Modelos, Transparência Algorítmica, Explicações, Aprendizado Profundo

Resumo

Este artigo analisa a evolução da Inteligência Artificial (IA) até a consolidação da Inteligência Artificial Explicável (XAI), enfatizando como o avanço do machine learning e, sobretudo, do deep learning, aumentou o desempenho dos modelos ao custo de maior opacidade (“caixa-preta”). O estudo evidencia a aplicabilidade da IA nas áreas de saúde, finanças, justiça, segurança e outros contextos críticos, nos quais decisões automatizadas podem afetar direitos fundamentais. Nesses domínios, torna-se imprescindível que os sistemas sejam confiáveis, auditáveis e responsáveis, reforçando a necessidade de explicações claras e justificáveis. A revisão da literatura destaca a importância das explicações à medida que a XAI evolui de abordagens post hoc, como LIME e SHAP, para a sistematização teórica dos conceitos de interpretabilidade e explicabilidade. Quanto ao método, o estudo combina revisão narrativa, exame bibliográfico e documental (incluindo análises regulatórias relacionadas ao GDPR) e investigação bibliométrica. Os resultados bibliométricos (Scopus, 2004–2023) indicam crescimento expressivo das publicações sobre XAI a partir de 2018, identificando autores centrais e principais fontes editoriais, como revistas e conferências. Entretanto, considerando a natureza ambígua do termo “XAI” nos critérios de busca, observa-se que os dados do Google Trends confirmam o aumento do interesse público por “inteligência artificial explicável”, o que exige cautela metodológica na condução das consultas. Por fim, a XAI configura-se como uma resposta técnico-sociotécnica à complexidade dos modelos de IA, às pressões éticas e às crescentes exigências regulatórias por transparência.

 

Downloads

Os dados de download ainda não estão disponíveis.

Biografia do Autor

  • Juliano Araujo Santana, FCU

    Mestrando em Administração com pesquisa em Inteligência Artificial Explicável (XAI), pós-graduado em Gestão de TI e Cloud Computing (UFSCar) e graduado em Gestão de TI (UNIP), com certificações internacionais em ITIL® 4, Security+, DPO e ISO 27001. É avaliador acadêmico em cursos de TI e Coordenador Nacional do Comitê Startech da APDADOS, apoiando a formação de novos profissionais na área.

       
  • Angelo Machado de Souza , FCU

    Mestre em Administração pela Florida Christian University, MBA em Gerenciamento de Projetos de TI e certificações CISO, ISO/IEC 27001 Lead Implementer e DPO (EXIN). Graduado em Tecnologia de Redes de Computadores, possui experiência com projetos em empresas como NTT Ltd., ISH Tecnologia e Grupo Cornélio Brennand. Atua em mitigação de riscos, resposta a incidentes, conformidade regulatória e implementação de políticas de segurança da informação.

  • Michel Souza Silva, APDADOS

    Tecnólogo em Marketing (UNIP) e pós-graduado em Data Protection Officer (LGPD/GDPR), com especialização em Social Media. Possui experiência no atendimento digital e participação como avaliador acadêmico e curricular na área de privacidade de dados. É Gerente de Marketing e Assessor do Comitê Diretivo da APDADOS. No cenário internacional, realizou missões oficiais em países como França, Inglaterra e Angola, onde foi palestrante convidado pelo Ministro de Tecnologia.

  • Davis Souza Alves, FCU

    Doutor em  Administração  de  TI - Ph.D  pela  Florida  Christian  University  (EUA), Mestre  em Administração   com   foco   em   TI   Verde,   Extensão   em   Gestão   de   TI   pela   FGV/SP   (2011),   Pós-graduado   em Gerenciamento  de  Projetos  (2009).  Professor  de  Segurança  da Informação  na  Universidade  Paulista  (UNIP),  Universidade  Municipal  de  São  Caetano  do  Sul  (USCS)  e  Flórida  Christian University  (FCU).  Possui  as  certificações  PMP®,  ITIL®  Expert,  C|EH®,  C|HFI®  e  EXINI®  Data  Protection    Atua  nos Estados  Unidos  como  Gerente  de  Projetos  de  Cibersegurança  (R&D)  com  foco  em  Privacidade  de  Dados  (LGPD/GDPR), Computação  Forense,  Ethical  Hacker  e  Inteligência  Artificial(AI).  Presidente  da  Associação  Nacional  dos  Profissionais  de Privacidade de Dados (APDADOS.org).

  • Márcio Magera Conceição, UNG

    Doutor em Economista pela PUC - Campinas. MBA de Marketing – ESAMC, Sorocaba. Mestrado em Administração pela UNG -Guarulhos. Mestrado em Sociologia pela PUC -São Paulo. Doutorado em Sociologia pela PUC -São Paulo. Doutorado  em  Administração  pela  FCU -USA.  Pós  Doutor  Unicamp -Campinas.  Pós  Doutor  FCU -USA.  Pós  Doutor  UC-Portugal. Pró Reitor da Universidade Guarulhos-SP. Editor-chefe da RECIMA21 –REVISTA CIENTÍFICA MULTIDISCIPLINAR. Ph.D, UNG; CFE -U.C Portugal.

Referências

ALVES, Davis Souza; LIMA, Adrianne Correia. Encarregados: Data Protection Officer (DPO). [S. l.]: Editora Haikai, 2021.

ARRIETA, Alejandro Barredo et al. Explainable artificial intelligence (XAI): concepts, taxonomies, opportunities and challenges toward responsible AI. Information Fusion, v. 58, p. 82–115, 2020.

BAROCAS, Solon; SELBST, Andrew D. Big data’s disparate impact. California Law Review, Berkeley, v. 104, n. 3, p. 671–732, 2016.

BISHOP, Christopher M. Pattern recognition and machine learning. New York: Springer, 2006.

COMISSÃO EUROPEIA. Ethics guidelines for trustworthy AI. Bruxelas: European Commission, 2019.

DOSHI-VELEZ, Finale; KIM, Been. Towards a rigorous science of interpretable machine learning. arXiv preprint, arXiv:1702.08608, 2017.

GOODFELLOW, Ian; BENGIO, Yoshua; COURVILLE, Aaron. Deep learning. Cambridge: MIT Press, 2016.

GOODFELLOW, Ian; SHLENS, Jonathon; SZEGEDY, Christian. Explaining and harnessing adversarial examples. arXiv preprint, 2015.

GOOGLE TRENDS. Inteligência artificial explicável (assunto). Escopo: global; intervalo: últimos cinco anos; tipo: Pesquisa Google na Web. Acesso em: 18 fev. 2026.

GOV.UK. Data ethics framework. London: Government Digital Service, 2018. Atualizado em 2025.

GUNNING, David. Explainable artificial intelligence (XAI). Arlington: DARPA, 2017.

ICO – INFORMATION COMMISSIONER’S OFFICE. Explaining decisions made with AI. London: ICO, 2020.

LECUN, Yann; BENGIO, Yoshua; HINTON, Geoffrey. Deep learning. Nature, London, v. 521, p. 436–444, 2015.

LIPTON, Zachary C. The mythos of model interpretability. Communications of the ACM, v. 61, n. 10, p. 36–43, 2018.

LUNDBERG, Scott M.; LEE, Su-In. A unified approach to interpreting model predictions. In: Advances in Neural Information Processing Systems (NeurIPS), 2017.

MOLNAR, Christoph. Interpretable machine learning. 2. ed. [S. l.]: Leanpub, 2022.

NILSSON, Nils J. The quest for artificial intelligence: a history of ideas and achievements. Cambridge: Cambridge University Press, 2010.

RIBEIRO, Marco Tulio; SINGH, Sameer; GUESTRIN, Carlos. “Why should I trust you?” Explaining the predictions of any classifier. In: Proceedings […] of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM, 2016. p. 1135–1144.

RUSSELL, Stuart; NORVIG, Peter. Artificial intelligence: a modern approach. 3. ed. Upper Saddle River: Pearson, 2016.

SHARMA, Chetan et al. Exploring explainable AI: a bibliometric analysis. Discover Applied Sciences, v. 6, 2024.

WACHTER, Sandra; MITTELSTADT, Brent; FLORIDI, Luciano. Why a right to explanation of automated decision-making does not exist in the General Data Protection Regulation. International Data Privacy Law, Oxford, v. 7, n. 2, p. 76–99, 2017.

ZHOU, Zhi-Hua et al. Machine learning in China: past, present and future. National Science Review, Oxford, v. 6, n. 1, p. 19–38, 2019.

Publicado

25/02/2026

Como Citar

Araujo Santana, J., Machado de Souza , A., Souza Silva, M., Souza Alves, D., & Magera Conceição, M. (2026). A EVOLUÇÃO DA INTELIGÊNCIA ARTIFICIAL EXPLICÁVEL (IAE). RECIMA21 - Revista Científica Multidisciplinar - ISSN 2675-6218, 7(3), e737438. https://doi.org/10.47820/recima21.v7i3.7438