LA EVOLUCIÓN DE LA INTELIGENCIA ARTIFICIAL EXPLICABLE (IAE)
Resumen
Este artículo analiza la evolución de la Inteligencia Artificial (IA) hasta la consolidación de la Inteligencia Artificial Explicable (XAI), enfatizando cómo el avance del machine learning y, sobre todo, del deep learning, ha incrementado el rendimiento de los modelos a costa de una mayor opacidad (“caja negra”). El artículo evidencia su aplicabilidad en la salud, finanzas, justicia, seguridad y otros contextos críticos donde las decisiones automáticas afectan derechos en su contexto — la IA se utiliza, por lo tanto, en estos dominios, razón por la cual deben ser confiables, auditables y responsables, subrayando la necesidad de explicaciones en dichos escenarios. Una revisión de la literatura relevante destaca la importancia de las explicaciones a medida que la XAI avanza desde enfoques post-hoc, como LIME y SHAP, así como la sistematización teórica de los conceptos de interpretabilidad/explicabilidad. En cuanto al método empleado, este estudio combina revisión narrativa, examen bibliográfico y documental (incluyendo comentarios regulatorios sobre el GDPR) y un estudio bibliométrico. Las evidencias bibliométricas (Scopus, 2004–2023) en los resultados indican una abrumadora explosión de publicaciones sobre XAI desde 2018, y se presentan los autores centrales y las fuentes editoriales (revistas y series de conferencias). No obstante, dada la naturaleza ambigua de “XAI” en los términos de búsqueda, se observa que las señales de Google Trends confirman el interés público en “inteligencia artificial explicable”, lo que exige cautela metodológica a lo largo de las consultas.
Biografía del autor/a
Mestrando em Administração com pesquisa em Inteligência Artificial Explicável (XAI), pela Florida Christian University, pós-graduado em Gestão de TI e Cloud Computing (UFSCar) e graduado em Gestão de TI (UNIP), com certificações internacionais em ITIL® 4, Security+, DPO e ISO 27001. É avaliador acadêmico em cursos de TI e Coordenador Nacional do Comitê Startech da APDADOS, apoiando a formação de novos profissionais na área.
Mestre em Administração pela Florida Christian University, MBA em Gerenciamento de Projetos de TI e certificações CISO, ISO/IEC 27001 Lead Implementer e DPO (EXIN). Graduado em Tecnologia de Redes de Computadores, possui experiência com projetos em empresas como NTT Ltd., ISH Tecnologia e Grupo Cornélio Brennand. Atua em mitigação de riscos, resposta a incidentes, conformidade regulatória e implementação de políticas de segurança da informação.
Tecnólogo em Marketing (UNIP) e pós-graduado em Data Protection Officer (LGPD/GDPR), com especialização em Social Media. Possui experiência no atendimento digital e participação como avaliador acadêmico e curricular na área de privacidade de dados. É Gerente de Marketing e Assessor do Comitê Diretivo da APDADOS. No cenário internacional, realizou missões oficiais em países como França, Inglaterra e Angola, onde foi palestrante convidado pelo Ministro de Tecnologia.
Doutor em Administração de TI - Ph.D pela Florida Christian University (EUA), Mestre em Administração com foco em TI Verde, Extensão em Gestão de TI pela FGV/SP (2011), Pós-graduado em Gerenciamento de Projetos (2009). Professor de Segurança da Informação na Universidade Paulista (UNIP), Universidade Municipal de São Caetano do Sul (USCS) e Flórida Christian University (FCU). Possui as certificações PMP®, ITIL® Expert, C|EH®, C|HFI® e EXINI® Data Protection Atua nos Estados Unidos como Gerente de Projetos de Cibersegurança (R&D) com foco em Privacidade de Dados (LGPD/GDPR), Computação Forense, Ethical Hacker e Inteligência Artificial(AI). Presidente da Associação Nacional dos Profissionais de Privacidade de Dados (APDADOS.org).
Doutor em Economista pela PUC - Campinas. MBA de Marketing – ESAMC, Sorocaba. Mestrado em Administração pela UNG -Guarulhos. Mestrado em Sociologia pela PUC -São Paulo. Doutorado em Sociologia pela PUC -São Paulo. Doutorado em Administração pela FCU -USA. Pós Doutor Unicamp -Campinas. Pós Doutor FCU -USA. Pós Doutor UC-Portugal. Pró Reitor da Universidade Guarulhos-SP. Editor-chefe da RECIMA21 –REVISTA CIENTÍFICA MULTIDISCIPLINAR. Ph.D, UNG; CFE -U.C Portugal.
Referencias
ALVES, Davis Souza; LIMA, Adrianne Correia. Encarregados: Data Protection Officer (DPO). [S. l.]: Editora Haikai, 2021.
ARRIETA, Alejandro Barredo et al. Explainable artificial intelligence (XAI): concepts, taxonomies, opportunities and challenges toward responsible AI. Information Fusion, v. 58, p. 82–115, 2020. DOI: https://doi.org/10.1016/j.inffus.2019.12.012
BAROCAS, Solon; SELBST, Andrew D. Big data’s disparate impact. California Law Review, Berkeley, v. 104, n. 3, p. 671–732, 2016. DOI: https://doi.org/10.2139/ssrn.2477899
BISHOP, Christopher M. Pattern recognition and machine learning. New York: Springer, 2006.
COMISSÃO EUROPEIA. Ethics guidelines for trustworthy AI. Bruxelas: European Commission, 2019.
DOSHI-VELEZ, Finale; KIM, Been. Towards a rigorous science of interpretable machine learning. arXiv preprint, arXiv:1702.08608, 2017.
GOODFELLOW, Ian; BENGIO, Yoshua; COURVILLE, Aaron. Deep learning. Cambridge: MIT Press, 2016.
GOODFELLOW, Ian; SHLENS, Jonathon; SZEGEDY, Christian. Explaining and harnessing adversarial examples. arXiv preprint, 2015.
GOOGLE TRENDS. Inteligência artificial explicável (assunto). Escopo: global; intervalo: últimos cinco anos; tipo: Pesquisa Google na Web. Acesso em: 18 fev. 2026.
GOV.UK. Data ethics framework. London: Government Digital Service, 2018. Atualizado em 2025.
GUNNING, David. Explainable artificial intelligence (XAI). Arlington: DARPA, 2017.
ICO – INFORMATION COMMISSIONER’S OFFICE. Explaining decisions made with AI. London: ICO, 2020.
LECUN, Yann; BENGIO, Yoshua; HINTON, Geoffrey. Deep learning. Nature, London, v. 521, p. 436–444, 2015. DOI: https://doi.org/10.1038/nature14539
LIPTON, Zachary C. The mythos of model interpretability. Communications of the ACM, v. 61, n. 10, p. 36–43, 2018. DOI: https://doi.org/10.1145/3233231
LUNDBERG, Scott M.; LEE, Su-In. A unified approach to interpreting model predictions. In: Advances in Neural Information Processing Systems (NeurIPS), 2017.
MOLNAR, Christoph. Interpretable machine learning. 2. ed. [S. l.]: Leanpub, 2022.
NILSSON, Nils J. The quest for artificial intelligence: a history of ideas and achievements. Cambridge: Cambridge University Press, 2010.
RIBEIRO, Marco Tulio; SINGH, Sameer; GUESTRIN, Carlos. “Why should I trust you?” Explaining the predictions of any classifier. In: Proceedings […] of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM, 2016. p. 1135–1144. DOI: https://doi.org/10.1145/2939672.2939778
RUSSELL, Stuart; NORVIG, Peter. Artificial intelligence: a modern approach. 3. ed. Upper Saddle River: Pearson, 2016.
SHARMA, Chetan et al. Exploring explainable AI: a bibliometric analysis. Discover Applied Sciences, v. 6, 2024. DOI: https://doi.org/10.1007/s42452-024-06324-z
WACHTER, Sandra; MITTELSTADT, Brent; FLORIDI, Luciano. Why a right to explanation of automated decision-making does not exist in the General Data Protection Regulation. International Data Privacy Law, Oxford, v. 7, n. 2, p. 76–99, 2017. DOI: https://doi.org/10.1093/idpl/ipx005
ZHOU, Zhi-Hua et al. Machine learning in China: past, present and future. National Science Review, Oxford, v. 6, n. 1, p. 19–38, 2019.
