Cone-beam computed tomography (CBCT) is central to contemporary dental and maxillofacial care, yet progress in automated analysis has been constrained by the paucity of large, publicly available voxel-level datasets. This thesis addressed that bottleneck by creating an open, extensible ecosystem, combining datasets, annotation tooling, algorithmic advances, and by demonstrating how those elements interacted cyclically to accelerate research and clinical translation. The Maxillo dataset was the first of its kind, providing 91 densely annotated volumes plus 256 sparsely annotated scans for the annotation of the Inferior Alveolar Canal. The ToothFairy series that this thesis contributed to built on this foundation: the first ToothFairy release increased dense annotations to 156 volumes; ToothFairy2 expanded to 480 CBCT volumes, each with 42 semantic classes; and ToothFairy3 further grew the corpus to 532 volumes and 77 classes while improving annotation quality and scanner diversity. Complementing volumetric CBCTs, this thesis also presents the Bits2Bites dataset, which delivered 200 registered intra-oral scan pairs with multi-label occlusion annotations. All resources were openly released to enable reproducible benchmarking and downstream development. To scale annotations without sacrificing clinical fidelity, I developed semi-automated annotation tools and a rigorous quality-control pipeline that combined model priors with expert refinement. Crucially, dataset creation, tooling, and model development proceeded cyclically: additional data enabled stronger models; stronger models powered faster, higher-quality annotation tools; and improved tools in turn produced larger, better datasets, forming the core intellectual contribution of this work. On this data foundation, I advanced volumetric segmentation methods: transformer-style modules that explicitly encoded spatial patch relationships to preserve voxel detail while aggregating long-range context, and adaptations of State-Space Models (Mamba) for efficient, high-accuracy 3D segmentation. Finally, I introduced U-Net Transplant, a model-merging framework that proposed novel techniques to update and specialize clinical models without full retraining, reducing redeployment cost, storage, and privacy exposure. Collectively, this ecosystem delivered the largest open CBCT benchmark for maxillofacial segmentation to date and a matched set of methods and tools that materially improved accuracy, efficiency, and lifecycle management of clinical AI, enabling faster, safer, and more reproducible dental AI research and deployment.

La tomografia computerizzata a fascio conico (Cone Beam Computed Tomography, CBCT) è centrale nella pratica odontoiatrica e maxillo-facciale contemporanea, ma i progressi nell’analisi automatizzata sono stati limitati dalla scarsità di dataset pubblici disponibili. Questa tesi affronta tale collo di bottiglia creando un ecosistema aperto ed estensibile che combina dataset, strumenti di annotazione, progressi algoritmici e dimostra come questi elementi interagiscano ciclicamente per accelerare la ricerca e la traduzione in prodotti clinici. Il dataset Maxillo è stato il primo nel suo genere, fornendo 91 volumi densamente annotati e 256 scansioni annotate in modo sparso per l’annotazione del Canale Alveolare Inferiore. La serie ToothFairy, a cui questa tesi ha contribuito, si è basata su queste fondamenta: la prima versione di ToothFairy ha aumentato le annotazioni dense a 156 volumi; ToothFairy2 si è espansa fino a 480 volumi CBCT, ciascuno con 42 classi semantiche; e ToothFairy3 ha ulteriormente ampliato il corpus a 532 volumi e 77 classi, migliorando al contempo la qualità delle annotazioni e la diversità degli scanner utilizzati. A complemento delle CBCT, il dataset Bits2Bites, anch'esso parte di questa tesi, ha fornito 200 coppie di scansioni intra-orali registrate con annotazioni multi-etichetta di occlusione. Tutte le risorse sono state rilasciate in modo aperto per consentire benchmarking riproducibili e sviluppi successivi. Per scalare le annotazioni senza sacrificare la fedeltà clinica, ho sviluppato strumenti di annotazione semi-automatizzati e una rigorosa pipeline di controllo qualità che combina modelli predittivi con la revisione da parte di esperti. Fondamentalmente, la creazione dei dataset, gli strumenti e lo sviluppo dei modelli sono progrediti in modo ciclico: dati aggiuntivi hanno permesso modelli migliori; modelli migliori hanno alimentato strumenti di annotazione più rapidi e accurati; e strumenti migliorati hanno a loro volta prodotto dataset più grandi e di qualità superiore, costituendo il contributo intellettuale centrale di questo lavoro. Su questa base di dati, ho migliorato i metodi di segmentazione volumetrica: moduli basati su architettura transformer che codificano esplicitamente le relazioni spaziali tra patch per preservare il dettaglio a livello di voxel aggregando al contempo il contesto a lungo raggio, e adattamenti dell'architettura Mamba per una segmentazione 3D efficiente e ad alta precisione. Infine, ho introdotto U-Net Transplant, un framework di fusione di modelli che propone tecniche innovative per aggiornare e specializzare modelli clinici senza un riaddestramento completo, riducendo i costi di rideploy, lo spazio di archiviazione e i rischi di esposizione dei dati. Nel complesso, questo ecosistema ha fornito il più grande benchmark CBCT aperto per la segmentazione maxillo-facciale fino ad oggi, insieme a un insieme coerente di metodi e strumenti che hanno migliorato in modo sostanziale l’accuratezza, l’efficienza e la gestione del ciclo di vita dell’IA clinica, abilitando una ricerca e un’implementazione dell’IA dentale più rapide, sicure e riproducibili.

Scalare l’Intelligenza Artificiale per l’Analisi di Immagini Orali e Dentali / Luca Lumetti , 2026 Apr 20. 38. ciclo, Anno Accademico 2024/2025.

Scalare l’Intelligenza Artificiale per l’Analisi di Immagini Orali e Dentali

LUMETTI, LUCA
2026

Abstract

Cone-beam computed tomography (CBCT) is central to contemporary dental and maxillofacial care, yet progress in automated analysis has been constrained by the paucity of large, publicly available voxel-level datasets. This thesis addressed that bottleneck by creating an open, extensible ecosystem, combining datasets, annotation tooling, algorithmic advances, and by demonstrating how those elements interacted cyclically to accelerate research and clinical translation. The Maxillo dataset was the first of its kind, providing 91 densely annotated volumes plus 256 sparsely annotated scans for the annotation of the Inferior Alveolar Canal. The ToothFairy series that this thesis contributed to built on this foundation: the first ToothFairy release increased dense annotations to 156 volumes; ToothFairy2 expanded to 480 CBCT volumes, each with 42 semantic classes; and ToothFairy3 further grew the corpus to 532 volumes and 77 classes while improving annotation quality and scanner diversity. Complementing volumetric CBCTs, this thesis also presents the Bits2Bites dataset, which delivered 200 registered intra-oral scan pairs with multi-label occlusion annotations. All resources were openly released to enable reproducible benchmarking and downstream development. To scale annotations without sacrificing clinical fidelity, I developed semi-automated annotation tools and a rigorous quality-control pipeline that combined model priors with expert refinement. Crucially, dataset creation, tooling, and model development proceeded cyclically: additional data enabled stronger models; stronger models powered faster, higher-quality annotation tools; and improved tools in turn produced larger, better datasets, forming the core intellectual contribution of this work. On this data foundation, I advanced volumetric segmentation methods: transformer-style modules that explicitly encoded spatial patch relationships to preserve voxel detail while aggregating long-range context, and adaptations of State-Space Models (Mamba) for efficient, high-accuracy 3D segmentation. Finally, I introduced U-Net Transplant, a model-merging framework that proposed novel techniques to update and specialize clinical models without full retraining, reducing redeployment cost, storage, and privacy exposure. Collectively, this ecosystem delivered the largest open CBCT benchmark for maxillofacial segmentation to date and a matched set of methods and tools that materially improved accuracy, efficiency, and lifecycle management of clinical AI, enabling faster, safer, and more reproducible dental AI research and deployment.
Scaling AI for Oral and Dental Image Analysis
20-apr-2026
BOLELLI, FEDERICO
GRANA, Costantino
File in questo prodotto:
File Dimensione Formato  
Lumetti.pdf

Open access

Descrizione: Lumetti.Luca.pdf
Tipologia: Tesi di dottorato
Dimensione 72.03 MB
Formato Adobe PDF
72.03 MB Adobe PDF Visualizza/Apri
Pubblicazioni consigliate

Licenza Creative Commons
I metadati presenti in IRIS UNIMORE sono rilasciati con licenza Creative Commons CC0 1.0 Universal, mentre i file delle pubblicazioni sono rilasciati con licenza Attribuzione 4.0 Internazionale (CC BY 4.0), salvo diversa indicazione.
In caso di violazione di copyright, contattare Supporto Iris

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11380/1402288
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact