La patologia digitale è un campo emergente che si occupa principalmente di immagini al microscopio derivate dalle biopsie dei pazienti. A causa dell’elevata risoluzione, la maggior parte di queste immagini di diapositive intere (WSI) ha una dimensione grande, che in genere supera un gigabyte (Gb). Pertanto, i metodi tipici di analisi delle immagini non possono gestirli in modo efficiente.
Vedendo una necessità, i ricercatori della Boston University School of Medicine (BUSM) hanno sviluppato un nuovo algoritmo di intelligenza artificiale (AI) basato su un framework chiamato apprendimento della rappresentazione per classificare il sottotipo di cancro del polmone sulla base di immagini di tessuto polmonare da tumori resecati.
“Stiamo sviluppando nuovi metodi basati sull’intelligenza artificiale che possono portare efficienza nella valutazione dei dati patologici digitali. La pratica della patologia è nel mezzo di una rivoluzione digitale. Sono in fase di sviluppo metodi basati su computer per assistere il patologo esperto. Inoltre, in luoghi dove c’è nessun esperto, tali metodi e tecnologie possono aiutare direttamente la diagnosi”, spiega l’autore corrispondente Vijaya B. Kolachalama, PhD, FAHA, assistente professore di medicina e informatica al BUSM.
I ricercatori hanno sviluppato un trasformatore di visione basato su grafici per la patologia digitale chiamato Graph Transformer (GTP) che sfrutta una rappresentazione grafica delle immagini della patologia e l’efficienza computazionale delle architetture del trasformatore per eseguire analisi sull’intera immagine della diapositiva.
“Tradurre gli ultimi progressi dell’informatica in patologia digitale non è semplice ed è necessario costruire metodi di intelligenza artificiale che possano affrontare esclusivamente i problemi della patologia digitale”, spiega l’autrice co-corrispondente Jennifer Beane, PhD, professore associato di medicina al BUSM .
Utilizzando le immagini dell’intera diapositiva e i dati clinici di tre coorti nazionali pubblicamente disponibili, hanno quindi sviluppato un modello in grado di distinguere tra adenocarcinoma polmonare, carcinoma a cellule squamose del polmone e tessuto non canceroso adiacente. Nel corso di una serie di studi e analisi di sensibilità, hanno dimostrato che il loro framework GTP supera gli attuali metodi all’avanguardia utilizzati per la classificazione dell’immagine dell’intera diapositiva.
Credono che il loro framework di apprendimento automatico abbia implicazioni oltre la patologia digitale. “Anche i ricercatori interessati allo sviluppo di approcci di visione artificiale per altre applicazioni del mondo reale possono trovare utile il nostro approccio”, hanno aggiunto.
Questi risultati appaiono online nella rivista Transazioni IEEE sull’imaging medico.
Il finanziamento di questo studio è stato fornito da sovvenzioni del National Institutes of Health (R21-CA253498, R01-HL159620), Johnson & Johnson Enterprise Innovation, Inc., American Heart Association (20SFRN35460031), Karen Toffler Charitable Trust e National Fondazione per la scienza (1551572, 1838193)
Fonte storia:
Materiali forniti da Scuola di Medicina dell’Università di Boston. Nota: il contenuto può essere modificato per stile e lunghezza.