In the era of Artificial intelligence, advancements in machine and deep learning enabled the creation of models that effectively tackle a wide and rapidly expanding set of tasks. While these models frequently achieve extraordinary performance, sometimes surpassing human abilities, their complex architectures, which include millions of parameters, frequently obscure their internal reasoning. Furthermore, rather than using logic that people would find reasonable or reliable, models may achieve high accuracy by taking advantage of data artifacts. This lack of transparency becomes especially concerning in sensitive domains where AI decisions can significantly impact people's lives. AI systems can behave unfairly for various reasons: societal biases may be reflected in the training data, in the decisions made during the development, or in the systems themselves. The field of Explainable Artificial Intelligence (XAI) has emerged to address these issues, focusing on both interpreting existing models and designing inherently transparent AI architectures. This thesis explores and advances the frontiers of XAI through a systematic investigation across two critical domains: entity-matching (EM) and computational fact-checking. In EM, this research first explores novel techniques to explain black-box models, addressing unique challenges in this field. Traditional post-hoc XAI techniques, when directly applied to EM, do not account for its characteristics, i.e. comparing pairs of descriptions originating from independent sources. The research advances the state of the art by developing adaptations and enhancements of explanation techniques that specifically address these challenges and provide "what-if" scenarios that enable users to understand how change in input data would affect matching outcomes. These innovations improve the fidelity and trustworthiness of generated explanations. The thesis then conducts an in-depth analysis of BERT's internal architecture when applied to EM, revealing crucial insights about how this state-of-the-art model processes and leverages information in entity descriptions. Experimental evaluations reveal that: fine-tuning on EM task mainly affects the last layers of BERT; this model recognizes the unique structure of EM datasets (records consisting of entity descriptions pairs); and BERT-based EM models do not heavily rely on pair-wise semantic similarity between tokens. Then, an inherently interpretable EM system, and the novel concept of "decision units" are presented. This approach provides a new perspective on how to perform EM by generating effective, compact explanations tailored to this task. Results show this method achieves accuracy comparable to other state-of-the-art models while providing highly interpretable predictions. The research extends to the emerging field of computational fact-checking, where explainability is crucial for trust and adoption. To assess how fact-checking models' reasoning resembles human logic, a novel evaluation methodology is introduced. This is accomplished by adapting XAI techniques, LIME and SHAP, to fact-checking models. The proposed method can effectively demonstrate how models exploit evidence pieces for the veracity prediction of claims. The explanations generated provide improved transparency and can highlight criticalities. Additionally, ExpGrad++, a novel approach based on the reduction method to address the problem of scalability in fair AI systems, will be presented. The two major innovations are adaptive sampling and interleaved exponentiated gradient with column-generation updates. These enhancements maintain accuracy and fairness guarantees, essential for practical applications, while increasing computational efficiency by an order of magnitude.

Nell'era dell'intelligenza artificiale, i progressi nell'apprendimento automatico hanno permesso la creazione di modelli che risolvono efficacemente un'ampia serie di compiti. Sebbene questi modelli raggiungano spesso alte prestazioni, talvolta superando le capacità umane, le loro architetture complesse spesso oscurano il loro ragionamento interno. Inoltre, piuttosto che utilizzare una logica che le persone troverebbero ragionevole o affidabile, i modelli possono raggiungere un'elevata accuratezza sfruttando artefatti dei dati. Questa mancanza di trasparenza diventa preoccupante in ambiti sensibili, dove le decisioni dell'IA possono impattare significativo sulla vita delle persone. Inoltre, i modelli di IA possono comportarsi in modo scorretto per vari motivi: i pregiudizi della società possono riflettersi nei dati di addestramento, nelle decisioni prese durante lo sviluppo o nei sistemi stessi. Il campo dell'Intelligenza Artificiale Spiegabile (XAI) affronta questi problemi, concentrandosi sull'interpretazione dei modelli esistenti e sulla progettazione di architetture di IA intrinsecamente trasparenti. Questa tesi esplora e fa avanzare le frontiere della XAI attraverso un'indagine sistematica su due domini: l'entity-matching (EM) e il fact-checking computazionale. In EM, vengono esplorate nuove tecniche per spiegare i modelli black-box, affrontando sfide uniche in questo campo. Le tradizionali tecniche XAI post-hoc, se applicate direttamente all'EM, non tengono conto delle sue caratteristiche (confronto di coppie di descrizioni da fonti indipendenti). Vengono sviluppati adattamenti e miglioramenti delle tecniche di spiegazione per risolvere queste sfide e fornire scenari “what-if” che consentono di capire come la modifica dei dati di input influirebbe sui risultati. Queste innovazioni migliorano la fedeltà e l'affidabilità delle spiegazioni. La tesi conduce poi un'analisi approfondita dell'architettura interna di BERT applicata all'EM, rivelando intuizioni su come questo modello elabora e sfrutta le informazioni contenute nelle descrizioni delle entità. Le valutazioni sperimentali rivelano che: il fine-tuning su EM influisce principalmente sugli ultimi livelli di BERT; questo modello riconosce la struttura unica dei dataset EM; e i modelli EM basati su BERT non fanno molto affidamento sulla similarità semantica a coppie tra i token. Vengono poi presentati un sistema EM intrinsecamente interpretabile e il nuovo concetto di “unità decisionali”. Questo approccio fornisce una nuova prospettiva su come eseguire l'EM, generando spiegazioni efficaci e compatte. I risultati dimostrano che questo metodo raggiunge un'accuratezza paragonabile a quella di altri modelli all'avanguardia, fornendo al contempo spiegazioni altamente interpretabili. La ricerca si estende al campo emergente del fact-checking computazionale, dove la spiegabilità è fondamentale per la fiducia e l'adozione. Viene introdotta una nuova metodologia per valutare quanto il ragionamento dei modelli di fact-checking assomigli alla logica umana. Ciò avviene adattando le tecniche XAI, LIME e SHAP, ai modelli di fact-checking. Il metodo proposto mostra efficacemente come i modelli sfruttino le prove per prevedere la veridicità delle affermazioni. Le spiegazioni generate forniscono trasparenza e possono evidenziare criticità. Inoltre, verrà presentato ExpGrad++, un nuovo approccio basato sul metodo di riduzione per affrontare il problema della scalabilità nei sistemi di IA equi. Le due principali innovazioni sono il campionamento adattivo e il gradiente esponenziato alternato ad aggiornamenti di column generation. Questi miglioramenti mantengono le garanzie di accuratezza ed equità, essenziali per le applicazioni pratiche, aumentando l'efficienza computazionale di un ordine di grandezza.

Intelligenza artificiale spiegabile per applicazioni testuali: sfide aperte e opportunità per Entity Matching e Fact-checking / Andrea Baraldi , 2025 Apr 03. 37. ciclo, Anno Accademico 2023/2024.

Intelligenza artificiale spiegabile per applicazioni testuali: sfide aperte e opportunità per Entity Matching e Fact-checking.

BARALDI, ANDREA
2025

Abstract

In the era of Artificial intelligence, advancements in machine and deep learning enabled the creation of models that effectively tackle a wide and rapidly expanding set of tasks. While these models frequently achieve extraordinary performance, sometimes surpassing human abilities, their complex architectures, which include millions of parameters, frequently obscure their internal reasoning. Furthermore, rather than using logic that people would find reasonable or reliable, models may achieve high accuracy by taking advantage of data artifacts. This lack of transparency becomes especially concerning in sensitive domains where AI decisions can significantly impact people's lives. AI systems can behave unfairly for various reasons: societal biases may be reflected in the training data, in the decisions made during the development, or in the systems themselves. The field of Explainable Artificial Intelligence (XAI) has emerged to address these issues, focusing on both interpreting existing models and designing inherently transparent AI architectures. This thesis explores and advances the frontiers of XAI through a systematic investigation across two critical domains: entity-matching (EM) and computational fact-checking. In EM, this research first explores novel techniques to explain black-box models, addressing unique challenges in this field. Traditional post-hoc XAI techniques, when directly applied to EM, do not account for its characteristics, i.e. comparing pairs of descriptions originating from independent sources. The research advances the state of the art by developing adaptations and enhancements of explanation techniques that specifically address these challenges and provide "what-if" scenarios that enable users to understand how change in input data would affect matching outcomes. These innovations improve the fidelity and trustworthiness of generated explanations. The thesis then conducts an in-depth analysis of BERT's internal architecture when applied to EM, revealing crucial insights about how this state-of-the-art model processes and leverages information in entity descriptions. Experimental evaluations reveal that: fine-tuning on EM task mainly affects the last layers of BERT; this model recognizes the unique structure of EM datasets (records consisting of entity descriptions pairs); and BERT-based EM models do not heavily rely on pair-wise semantic similarity between tokens. Then, an inherently interpretable EM system, and the novel concept of "decision units" are presented. This approach provides a new perspective on how to perform EM by generating effective, compact explanations tailored to this task. Results show this method achieves accuracy comparable to other state-of-the-art models while providing highly interpretable predictions. The research extends to the emerging field of computational fact-checking, where explainability is crucial for trust and adoption. To assess how fact-checking models' reasoning resembles human logic, a novel evaluation methodology is introduced. This is accomplished by adapting XAI techniques, LIME and SHAP, to fact-checking models. The proposed method can effectively demonstrate how models exploit evidence pieces for the veracity prediction of claims. The explanations generated provide improved transparency and can highlight criticalities. Additionally, ExpGrad++, a novel approach based on the reduction method to address the problem of scalability in fair AI systems, will be presented. The two major innovations are adaptive sampling and interleaved exponentiated gradient with column-generation updates. These enhancements maintain accuracy and fairness guarantees, essential for practical applications, while increasing computational efficiency by an order of magnitude.
Explainable Artificial Intelligence for Textual Applications: Open Challenges and Opportunities for Entity Matching and Fact-checking.
3-apr-2025
GUERRA, Francesco
File in questo prodotto:
File Dimensione Formato  
BARALDI_CS.pdf

Open access

Descrizione: Tesi definitiva Baraldi Andrea
Tipologia: Tesi di dottorato
Dimensione 6.42 MB
Formato Adobe PDF
6.42 MB Adobe PDF Visualizza/Apri
Pubblicazioni consigliate

Licenza Creative Commons
I metadati presenti in IRIS UNIMORE sono rilasciati con licenza Creative Commons CC0 1.0 Universal, mentre i file delle pubblicazioni sono rilasciati con licenza Attribuzione 4.0 Internazionale (CC BY 4.0), salvo diversa indicazione.
In caso di violazione di copyright, contattare Supporto Iris

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11380/1376130
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact