[ad_1]
WASHINGTON: I ricercatori hanno sviluppato un nuovo modello di traduzione delle immagini che potrebbe ridurre efficacemente le distorsioni nei dati.
Possono verificarsi distorsioni dei dati durante lo sviluppo di un modello di intelligenza artificiale (AI) utilizzando foto acquisite da diverse fonti, contrariamente all’obiettivo dell’utente, a causa di una varietà di circostanze. Nonostante la mancanza di conoscenza su tali aspetti, il modello creato può ridurre le distorsioni dei dati, ottenendo buone prestazioni di analisi delle immagini.
Si prevede che questo approccio contribuirà a compiere progressi nel campo delle auto a guida autonoma, dello sviluppo di contenuti e della medicina.
Algoritmi di apprendimento profondo sono influenzati dai set di dati utilizzati per addestrarli. A causa della possibilità di infezione da Covid-19, le condizioni di raccolta delle immagini possono alterarsi durante la generazione di un set di dati per distinguere la polmonite batterica dalla malattia da coronavirus 2019.
Di conseguenza, queste differenze causano modeste disparità nelle immagini, facendo sì che i modelli di deep learning esistenti identifichino le malattie sulla base delle incoerenze della tecnica di immagine piuttosto che dei tratti critici per il rilevamento pratico delle malattie. In questo caso, a seconda dei dati utilizzati nel processo di formazione, questi modelli funzionano bene.
Per risolvere questi problemi, il gruppo di ricerca del Prof. Park ha creato un modello di traduzione delle immagini in grado di costruire un set di dati utilizzando il debiasing delle texture e quindi eseguire il processo di apprendimento su quel set di dati. I modelli di traduzione delle immagini esistenti sono spesso ostacolati dal problema delle modifiche alle texture che causano cambiamenti involontari dei contenuti, poiché texture e contenuti sono inestricabilmente collegati.
Per superare questo problema, il gruppo di ricerca del prof. Park ha creato un nuovo modello che utilizza contemporaneamente funzioni di errore sia per le trame che per i contenuti.
Il nuovo modello di traduzione delle immagini di questo gruppo di ricerca funziona estraendo e combinando informazioni sui contenuti di un’immagine di input e trame da un dominio separato.
Il modello creato è addestrato a utilizzare entrambe le funzioni di errore per l’autosimilarità spaziale e la co-occorrenza della trama per memorizzare informazioni non solo sul contenuto delle foto di input ma anche sulla trama del nuovo dominio. Il modello può generare un’immagine con la trama di un dominio diverso pur conservando la conoscenza del contenuto dell’immagine di input utilizzando queste procedure.
Il nuovo modello di deep learning supera i metodi precedenti perché genera un set di dati utilizzando il debiasing delle texture e utilizza il set di dati ottenuto per l’addestramento. Quando è stato testato su set di dati con errori di struttura, come un set di dati di classificazione per distinguere i numeri, un set di dati di classificazione per distinguere cani e gatti con diversi colori di pelo e un set di dati di classificazione che utilizza diversi protocolli di immagine per distinguere il Covid-19 dalla polmonite batterica, ha sovraperformato quelli esistenti tecniche di debiasing e traduzione delle immagini.
Inoltre, quando applicato a set di dati con pregiudizi diversi, come un set di dati di classificazione per identificare interi multi-etichetta e uno per distinguere immagini, disegni, animazioni e schizzi, ha sovraperformato gli algoritmi precedenti.
Inoltre, la tecnica di traduzione delle immagini del gruppo di ricerca del Prof. Park può essere utilizzata per l’alterazione delle immagini. Il gruppo di ricerca ha scoperto che la tecnologia suggerita alterava semplicemente la trama di un’immagine mantenendone il contenuto originale. Questo risultato analitico ha confermato le prestazioni superiori del metodo sviluppato rispetto ai metodi esistenti di manipolazione delle immagini.
Inoltre, questa soluzione può essere impiegata efficacemente in varie situazioni. I ricercatori hanno valutato l’efficacia del metodo creato rispetto a quella dei sistemi di traduzione delle immagini esistenti basati su altri settori, come le immagini mediche e di guida autonoma. Secondo i dati analitici, l’approccio sviluppato ha funzionato meglio dei metodi attuali.
Il Prof. Park ha dichiarato: “La tecnologia sviluppata in questa ricerca offre un significativo incremento delle prestazioni in situazioni in cui set di dati distorti vengono inevitabilmente utilizzati per addestrare modelli di deep learning in campi industriali e medici”.
Ha inoltre aggiunto: “Si prevede che questa soluzione darà un contributo sostanziale al miglioramento della robustezza dei modelli di intelligenza artificiale utilizzati commercialmente o distribuiti in diversi ambienti per scopi commerciali”.
Possono verificarsi distorsioni dei dati durante lo sviluppo di un modello di intelligenza artificiale (AI) utilizzando foto acquisite da diverse fonti, contrariamente all’obiettivo dell’utente, a causa di una varietà di circostanze. Nonostante la mancanza di conoscenza su tali aspetti, il modello creato può ridurre le distorsioni dei dati, ottenendo buone prestazioni di analisi delle immagini.
Si prevede che questo approccio contribuirà a compiere progressi nel campo delle auto a guida autonoma, dello sviluppo di contenuti e della medicina.
Algoritmi di apprendimento profondo sono influenzati dai set di dati utilizzati per addestrarli. A causa della possibilità di infezione da Covid-19, le condizioni di raccolta delle immagini possono alterarsi durante la generazione di un set di dati per distinguere la polmonite batterica dalla malattia da coronavirus 2019.
Di conseguenza, queste differenze causano modeste disparità nelle immagini, facendo sì che i modelli di deep learning esistenti identifichino le malattie sulla base delle incoerenze della tecnica di immagine piuttosto che dei tratti critici per il rilevamento pratico delle malattie. In questo caso, a seconda dei dati utilizzati nel processo di formazione, questi modelli funzionano bene.
Per risolvere questi problemi, il gruppo di ricerca del Prof. Park ha creato un modello di traduzione delle immagini in grado di costruire un set di dati utilizzando il debiasing delle texture e quindi eseguire il processo di apprendimento su quel set di dati. I modelli di traduzione delle immagini esistenti sono spesso ostacolati dal problema delle modifiche alle texture che causano cambiamenti involontari dei contenuti, poiché texture e contenuti sono inestricabilmente collegati.
Per superare questo problema, il gruppo di ricerca del prof. Park ha creato un nuovo modello che utilizza contemporaneamente funzioni di errore sia per le trame che per i contenuti.
Il nuovo modello di traduzione delle immagini di questo gruppo di ricerca funziona estraendo e combinando informazioni sui contenuti di un’immagine di input e trame da un dominio separato.
Il modello creato è addestrato a utilizzare entrambe le funzioni di errore per l’autosimilarità spaziale e la co-occorrenza della trama per memorizzare informazioni non solo sul contenuto delle foto di input ma anche sulla trama del nuovo dominio. Il modello può generare un’immagine con la trama di un dominio diverso pur conservando la conoscenza del contenuto dell’immagine di input utilizzando queste procedure.
Il nuovo modello di deep learning supera i metodi precedenti perché genera un set di dati utilizzando il debiasing delle texture e utilizza il set di dati ottenuto per l’addestramento. Quando è stato testato su set di dati con errori di struttura, come un set di dati di classificazione per distinguere i numeri, un set di dati di classificazione per distinguere cani e gatti con diversi colori di pelo e un set di dati di classificazione che utilizza diversi protocolli di immagine per distinguere il Covid-19 dalla polmonite batterica, ha sovraperformato quelli esistenti tecniche di debiasing e traduzione delle immagini.
Inoltre, quando applicato a set di dati con pregiudizi diversi, come un set di dati di classificazione per identificare interi multi-etichetta e uno per distinguere immagini, disegni, animazioni e schizzi, ha sovraperformato gli algoritmi precedenti.
Inoltre, la tecnica di traduzione delle immagini del gruppo di ricerca del Prof. Park può essere utilizzata per l’alterazione delle immagini. Il gruppo di ricerca ha scoperto che la tecnologia suggerita alterava semplicemente la trama di un’immagine mantenendone il contenuto originale. Questo risultato analitico ha confermato le prestazioni superiori del metodo sviluppato rispetto ai metodi esistenti di manipolazione delle immagini.
Inoltre, questa soluzione può essere impiegata efficacemente in varie situazioni. I ricercatori hanno valutato l’efficacia del metodo creato rispetto a quella dei sistemi di traduzione delle immagini esistenti basati su altri settori, come le immagini mediche e di guida autonoma. Secondo i dati analitici, l’approccio sviluppato ha funzionato meglio dei metodi attuali.
Il Prof. Park ha dichiarato: “La tecnologia sviluppata in questa ricerca offre un significativo incremento delle prestazioni in situazioni in cui set di dati distorti vengono inevitabilmente utilizzati per addestrare modelli di deep learning in campi industriali e medici”.
Ha inoltre aggiunto: “Si prevede che questa soluzione darà un contributo sostanziale al miglioramento della robustezza dei modelli di intelligenza artificiale utilizzati commercialmente o distribuiti in diversi ambienti per scopi commerciali”.
[ad_2]
Source link