• JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
  • JoomlaWorks Simple Image Rotator
 
  Bookmark and Share
 
 
Thèse de Doctorat
DOI
https://doi.org/10.11606/T.55.2024.tde-11072024-171752
Document
Auteur
Nom complet
Evandro Scudeleti Ortigossa
Adresse Mail
Unité de l'USP
Domain de Connaissance
Date de Soutenance
Editeur
São Carlos, 2024
Directeur
Jury
Nonato, Luis Gustavo (Président)
Carneiro, Murillo Guimarães
Comba, João Luiz Dihl
Paiva Neto, Afonso
Titre en portugais
T-Explainer: uma abordagem para a explicabilidade em Aprendizado de Máquina baseada em gradientes
Mots-clés en portugais
Atribuição de importância
Inteligência artificial explicável
Inteligência artificial robusta e responsável
Interpretabilidade
Modelos caixa-preta
Resumé en portugais
Sistemas baseados em Aprendizado de Máquina têm alcançado desempenhos notáveis em muitas tarefas dentro dos mais variados domínios de aplicação. Quando aplicados em áreas sensíveis, ou seja, aquelas que podem impactar na vida e bem-estar de seus usuários, os modelos de aprendizado encontram barreiras. Isso ocorre devido à natureza complexa dos mecanismos de decisão desses modelos, que leva à falta de transparência em seus resultados e os transforma em caixas-pretas, de onde não é possível compreender a lógica do processo de tomada de decisão. Compreender o porquê um modelo fez uma certa predição é tão e muitas vezes até mais importante do que a sua precisão preditiva, revelando a necessidade de equilíbrio entre a interpretabilidade e a acurácia. Embora não seja possível interpretar modelos complexos diretamente, é possível explicá-los. Prover explicações para decisões tomadas por sistemas computacionais pode ser visto como um meio de justificar sua confiabilidade, além de proporcionar um modo efetivo de verificar e corrigir erros antes escondidos dentro da complexidade estrutural do Aprendizado de Máquina. A pesquisa em eXplainable Artificial Intelligence (XAI) vem propondo diversas abordagens neste sentido, sendo os métodos de atribuição de importância de particular interesse devido à sua capacidade de explicar a importância de atributos individuais para a decisão do modelo. No entanto, as principais soluções em atribuição de importância sofrem de instabilidade, com explicações distintas podendo ser geradas a cada aplicação do método em uma mesma instância de dado. Neste cenário, esta pesquisa de doutorado vem para contribuir com o desenvolvimento da explicabilidade ao propor e desenvolver um novo método de atribuição de importâncias denominado T-Explainer. Baseado na expansão em série de Taylor, T-Explainer possui um conjunto de propriedades desejáveis, como precisão local e consistência, enquanto mantém a estabilidade das suas explicações. Finalmente, a eficácia do T-Explainer é demonstrada por meio de um conjunto de experimentos comparativos com outros métodos de atribuição de importâncias do atual estado da arte.
Titre en anglais
T-Explainer: an explainability framework for Machine Learning based on gradients
Mots-clés en anglais
Black box models
Explainable artificial intelligence
Feature importance attribution
Interpretability
Robust and responsible artificial intelligence
Resumé en anglais
Intelligent systems based on Machine Learning have achieved remarkable performance rates in a wide range of tasks from many domains. However, understanding why an algorithm makes a particular decision is still an open question in the research area. When applied in sensible environments, which may cause an impact on the life and welfare of its users, the learning-based models raise some problems. The complex nature of these methods decision mechanisms makes them the so-called black boxes, from which it is not trivial for humans to understand the logic behind the decision-making process of the models. Furthermore, in some contexts, the reasoning that led a model to provide some specific prediction is more important than the accuracy, thus introducing a trade-off between interpretability and model accuracy. Providing explanations to computer-aided systems decisions can be seen as a way to justify their reliability, besides providing an effective tool for checking and correcting errors previously hidden within learning models, opening up an avenue of possibilities for responsible applications. The eXplainable Artificial Intelligence (XAI) research has proposed a number of approaches in this context, being feature attribution techniques of particular interest due to their ability to characterize the importance of particular features on the model decision. However, the lead solutions in such domain suffer from instability, i.e., distinct explanations may result from each application of the explanation method on the same data instance. In this scenario, this Ph.D. research aims to contribute to Machine Learning explainability by proposing a new XAI method called T-Explainer, a Taylor expansion-based technique that holds a set of desirable properties, such as local accuracy and consistency, while still being stable in its explanations. Finally, the results demonstrate T-Explainers effectiveness through benchmarking experiments and comparisons against state-of-the-art references in feature attribution.
 
AVERTISSEMENT - Regarde ce document est soumise à votre acceptation des conditions d'utilisation suivantes:
Ce document est uniquement à des fins privées pour la recherche et l'enseignement. Reproduction à des fins commerciales est interdite. Cette droits couvrent l'ensemble des données sur ce document ainsi que son contenu. Toute utilisation ou de copie de ce document, en totalité ou en partie, doit inclure le nom de l'auteur.
Date de Publication
2024-07-11
 
AVERTISSEMENT: Apprenez ce que sont des œvres dérivées cliquant ici.
Tous droits de la thèse/dissertation appartiennent aux auteurs
CeTI-SC/STI
Bibliothèque Numérique de Thèses et Mémoires de l'USP. Copyright © 2001-2024. Tous droits réservés.