martedì, Gennaio 31, 2023
The Bug Bit
No Result
View All Result
  • Home
  • Notizie tecniche
  • Recensioni tecniche
  • Scienza
  • Elettronica
  • Social Media
  • Crypto
    • News
    • Bitcoin News
    • Ethereum News
    • Blockchain News
    • NFT News
    • Litecoin News
  • Giochi
    • Notizia
    • Recensioni di giochi
    • Playstation
    • Xbox
    • PC
    • Nintendo
    • Mobile
  • Offerte Amazon
  • Home
  • Notizie tecniche
  • Recensioni tecniche
  • Scienza
  • Elettronica
  • Social Media
  • Crypto
    • News
    • Bitcoin News
    • Ethereum News
    • Blockchain News
    • NFT News
    • Litecoin News
  • Giochi
    • Notizia
    • Recensioni di giochi
    • Playstation
    • Xbox
    • PC
    • Nintendo
    • Mobile
  • Offerte Amazon
No Result
View All Result
The Bug Bit
No Result
View All Result

L’intelligenza artificiale prevede la razza dei pazienti dalle loro immagini mediche | Notizie del MIT

20 Maggio 2022
in Notizie tecniche
0
Home Notizie tecniche
1.2k
VIEWS
Share on FacebookShare on TwitterShare on WhatsappShare on Telegram



You might also like

Offerta giornaliera: risparmia $ 40 su Galaxy Buds 2 Pro – SamMobile

Apple Music lancia Rihanna’s Road to Halftime prima del Super Bowl LVII

Un robot fiabesco vola grazie al potere del vento e della luce — ScienceDaily

La cattiva educazione degli algoritmi è un problema critico; quando l’intelligenza artificiale rispecchia pensieri inconsci, razzismo e pregiudizi degli umani che hanno generato questi algoritmi, può causare gravi danni. I programmi per computer, ad esempio, hanno erroneamente segnalato che gli imputati neri hanno il doppio delle probabilità di recidivare rispetto a qualcuno che è bianco. Quando un’intelligenza artificiale ha utilizzato il costo come proxy per i bisogni sanitari, ha falsamente chiamato i pazienti neri come più sani di quelli bianchi ugualmente malati, poiché sono stati spesi meno soldi per loro. Anche l’IA era solita scrivere una commedia basata sull’uso di stereotipi dannosi per il casting.

Rimuovere le funzionalità sensibili dai dati sembra una modifica praticabile. Ma cosa succede quando non basta?

Gli esempi di pregiudizi nell’elaborazione del linguaggio naturale sono illimitati, ma gli scienziati del MIT hanno studiato un’altra modalità importante, in gran parte sottoesplorata: le immagini mediche. Utilizzando set di dati privati ​​e pubblici, il team ha scoperto che l’IA può prevedere con precisione la razza di pazienti auto-riferita dalle sole immagini mediche. Utilizzando i dati di imaging di radiografie del torace, radiografie degli arti, scansioni TC del torace e mammografie, il team ha addestrato un modello di apprendimento profondo per identificare la razza come bianca, nera o asiatica, anche se le immagini stesse non contenevano alcuna menzione esplicita del razza del paziente. Questa è un’impresa che anche i medici più esperti non possono fare, e non è chiaro come il modello sia stato in grado di farlo.

Nel tentativo di svelare e dare un senso all’enigmatico “come” di tutto ciò, i ricercatori hanno condotto una serie di esperimenti. Per studiare i possibili meccanismi di rilevamento della razza, hanno esaminato variabili come differenze nell’anatomia, densità ossea, risoluzione delle immagini e molti altri, e i modelli prevalevano ancora con un’elevata capacità di rilevare la razza dai raggi X del torace. “All’inizio questi risultati erano confusi, perché i membri del nostro team di ricerca non potevano avvicinarsi all’identificazione di un buon proxy per questo compito”, afferma la coautrice dell’articolo Marzyeh Ghassemi, assistente professore presso il Dipartimento di ingegneria elettrica e informatica del MIT e l’Institute for Medical Engineering and Science (IMES), che è affiliato al Computer Science and Artificial Intelligence Laboratory (CSAIL) e alla MIT Jameel Clinic. “Anche quando si filtrano le immagini mediche oltre il punto in cui le immagini sono riconoscibili come immagini mediche, i modelli profondi mantengono prestazioni molto elevate. Questo è preoccupante perché le capacità sovrumane sono generalmente molto più difficili da controllare, regolare e impedire di danneggiare le persone”.

In un contesto clinico, gli algoritmi possono aiutarci a dirci se un paziente è un candidato per la chemioterapia, dettare il triage dei pazienti o decidere se è necessario un trasferimento in terapia intensiva. “Pensiamo che gli algoritmi esaminino solo i segni vitali o i test di laboratorio, ma è possibile che guardino anche alla tua razza, etnia, sesso, indipendentemente dal fatto che tu sia incarcerato o meno, anche se tutte queste informazioni sono nascoste”, afferma il coautore dell’articolo Leo Anthony Celi, ricercatore principale presso l’IMES al MIT e professore associato di medicina presso la Harvard Medical School. “Solo perché hai la rappresentazione di diversi gruppi nei tuoi algoritmi, ciò non garantisce che non perpetuerà o amplificherà le disparità e le disuguaglianze esistenti. Alimentare gli algoritmi con più dati con rappresentazione non è una panacea. Questo documento dovrebbe farci fermare e riconsiderare davvero se siamo pronti a portare l’IA al capezzale del letto”.

Lo studio, “AI riconoscimento della razza del paziente nell’imaging medico: uno studio di modellazione”, è stato pubblicato in Salute digitale di Lancet l’11 maggio. Celi e Ghassemi hanno scritto il documento insieme ad altri 20 autori in quattro paesi.

Per impostare i test, gli scienziati hanno innanzitutto dimostrato che i modelli erano in grado di prevedere la razza attraverso più modalità di imaging, vari set di dati e diversi compiti clinici, nonché attraverso una serie di centri accademici e popolazioni di pazienti negli Stati Uniti. Hanno utilizzato tre grandi set di dati di raggi X del torace e testato il modello su un sottoinsieme invisibile del set di dati utilizzato per addestrare il modello e uno completamente diverso. Successivamente, hanno addestrato i modelli di rilevamento dell’identità razziale per immagini a raggi X non del torace da più posizioni del corpo, tra cui radiografia digitale, mammografia, radiografie del rachide cervicale laterale e TC del torace per vedere se le prestazioni del modello erano limitate ai raggi X del torace.

Il team ha coperto molte basi nel tentativo di spiegare il comportamento del modello: differenze nelle caratteristiche fisiche tra i diversi gruppi razziali (habitus corporeo, densità del seno), distribuzione della malattia (studi precedenti hanno dimostrato che i pazienti neri hanno una maggiore incidenza di problemi di salute come le malattie cardiache ), differenze specifiche del luogo o specifiche del tessuto, effetti di pregiudizi sociali e stress ambientale, capacità dei sistemi di apprendimento approfondito di rilevare la razza quando sono stati combinati più fattori demografici e del paziente e se regioni dell’immagine specifiche hanno contribuito a riconoscere la razza.

Ciò che è emerso è stato davvero sbalorditivo: la capacità dei modelli di prevedere la razza dalle sole etichette diagnostiche era molto inferiore rispetto ai modelli basati su immagini a raggi X del torace.

Ad esempio, il test della densità ossea utilizzava immagini in cui la parte più spessa dell’osso appariva bianca e la parte più sottile appariva più grigia o traslucida. Gli scienziati hanno ipotizzato che, poiché i neri generalmente hanno una densità minerale ossea più elevata, le differenze di colore hanno aiutato i modelli di intelligenza artificiale a rilevare la razza. Per tagliarlo, hanno ritagliato le immagini con un filtro, in modo che il modello non potesse colorare le differenze. Si è scoperto che l’interruzione della fornitura di colori non ha turbato il modello: poteva comunque prevedere con precisione le gare. (Il valore “Area sotto la curva”, ovvero la misura dell’accuratezza di un test diagnostico quantitativo, era 0,94–0,96). Pertanto, le caratteristiche apprese del modello sembravano basarsi su tutte le regioni dell’immagine, il che significa che il controllo di questo tipo di comportamento algoritmico presenta un problema disordinato e impegnativo.

Gli scienziati riconoscono la disponibilità limitata di etichette di identità razziale, che li ha portati a concentrarsi sulle popolazioni asiatiche, nere e bianche e che la loro verità di base era un dettaglio auto-riferito. Un altro lavoro imminente includerà la possibilità di isolare segnali diversi prima della ricostruzione dell’immagine, perché, come con gli esperimenti sulla densità ossea, non sono stati in grado di spiegare il tessuto osseo residuo che era sulle immagini.

In particolare, altri lavori di Ghassemi e Celi guidati dallo studente del MIT Hammaad Adam hanno scoperto che i modelli possono anche identificare la razza auto-riferita del paziente dalle note cliniche anche quando quelle note sono private degli indicatori espliciti della razza. Proprio come in questo lavoro, gli esperti umani non sono in grado di prevedere con precisione la razza dei pazienti dalle stesse note cliniche redatte.

“Dobbiamo coinvolgere gli scienziati sociali nel quadro. Gli esperti di settore, che di solito sono i medici, i professionisti della salute pubblica, gli informatici e gli ingegneri non sono sufficienti. L’assistenza sanitaria è un problema socio-culturale tanto quanto un problema medico. Abbiamo bisogno di un altro gruppo di esperti per valutare e fornire input e feedback su come progettiamo, sviluppiamo, implementiamo e valutiamo questi algoritmi”, afferma Celi. “Dobbiamo anche chiedere ai data scientist, prima di qualsiasi esplorazione dei dati, ci sono disparità? Quali gruppi di pazienti sono emarginati? Quali sono i fattori che determinano queste disparità? È l’accesso alle cure? Deriva dalla soggettività dei fornitori di assistenza? Se non lo capiamo, non avremo la possibilità di essere in grado di identificare le conseguenze indesiderate degli algoritmi e non saremo in grado di salvaguardare gli algoritmi dal perpetuare i pregiudizi”.

“Il fatto che gli algoritmi ‘vedano’ la razza, come documentano in modo convincente gli autori, può essere pericoloso. Ma un fatto importante e correlato è che, se usati con attenzione, gli algoritmi possono anche funzionare per contrastare i pregiudizi”, afferma Ziad Obermeyer, professore associato presso l’Università della California a Berkeley, la cui ricerca si concentra sull’IA applicata alla salute. “Nel nostro lavoro, guidato dall’informatica Emma Pierson della Cornell, dimostriamo che gli algoritmi che imparano dalle esperienze di dolore dei pazienti possono trovare nuove fonti di dolore al ginocchio nei raggi X che colpiscono in modo sproporzionato i pazienti neri e sono sproporzionatamente persi dai radiologi. Quindi, proprio come qualsiasi strumento, gli algoritmi possono essere una forza per il male o una forza per il bene, quale dipende da noi e dalle scelte che facciamo quando costruiamo algoritmi”.

Il lavoro è sostenuto, in parte, dal National Institutes of Health.



Source link

Tags: artificialedalledeidelimmaginiLintelligenzaloromedicheMITNotiziepazientiprevederazza
Share30Tweet19SendShare

Recommended For You

Offerta giornaliera: risparmia $ 40 su Galaxy Buds 2 Pro – SamMobile

by Buggher
30 Gennaio 2023
0

Ultimo aggiornamento: 30 gennaio 2023 alle 20:32 UTC+01:00 Samsung lancerà la sua nuova serie Galaxy S23 alla fine di questa settimana e mentre normalmente svela nuovi auricolari insieme...

Read more

Apple Music lancia Rihanna’s Road to Halftime prima del Super Bowl LVII

by Buggher
30 Gennaio 2023
0

30 gennaio 2023 COMUNICATO STAMPA Apple Music lancia Rihanna's Road to Halftime prima del Super Bowl LVII Scopri l'incredibile catalogo musicale di Rihanna come mai prima d'ora con...

Read more

Un robot fiabesco vola grazie al potere del vento e della luce — ScienceDaily

by Buggher
30 Gennaio 2023
0

Lo sviluppo di polimeri che rispondono agli stimoli ha portato a una vasta gamma di opportunità legate ai materiali per i robot dal corpo morbido di prossima generazione...

Read more

Samsung potrebbe dover affrontare problemi con l’ottenimento di apparecchiature a semiconduttore EUV in Cina

by Buggher
30 Gennaio 2023
0

Ultimo aggiornamento: 30 gennaio 2023 alle 13:51 UTC+01:00 Giappone e Paesi Bassi si sono uniti agli Stati Uniti nel vietare le esportazioni di apparecchiature a semiconduttore in Cina....

Read more

Il profitto di Samsung SDI 2022 raggiunge le stelle, grazie alla forte domanda di batterie per veicoli elettrici

by Buggher
30 Gennaio 2023
0

Il produttore di batterie sudcoreano, Samsung SDI (braccio di Samsung), ha rivelato che la società ha registrato un profitto record nel 2022. L'utile netto di Samsung SDI è...

Read more
Next Post

I commercianti di NFT si riversano sempre più a Solana

Lascia un commento Annulla risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Acquista su Amazon con il mio link, in questo modo supporti il sito senza costi aggiuntivi. Amazon mi darà una piccola percentuale dell Acquista su Amazon con il mio link, in questo modo supporti il sito senza costi aggiuntivi. Amazon mi darà una piccola percentuale dell Acquista su Amazon con il mio link, in questo modo supporti il sito senza costi aggiuntivi. Amazon mi darà una piccola percentuale dell

Crypto Tracker

Name Price
bitcoin
Bitcoin (BTC)
$18,815.77
ethereum
Ethereum (ETH)
$1,286.33
tether
Tether (USDT)
$1.00
usd-coin
USD Coin (USDC)
$1.00
binancecoin
BNB (BNB)
$270.10
ripple
XRP (XRP)
$0.428905
binance-usd
Binance USD (BUSD)
$1.00
cardano
Cardano (ADA)
$0.432113
solana
Solana (SOL)
$32.38
dogecoin
Dogecoin (DOGE)
$0.059538
Powered by CoinGecko API

Related News

Cosa pensi dovrebbe essere o verrà aggiunto al controller Xbox di prossima generazione? : xbox

4 Luglio 2022

Cultist Simulator 6.99 > 2.99 (Card/RTS/Mystery): iosgaming

16 Agosto 2022
Elettronica biomedica. Esercizi

Elettronica biomedica. Esercizi

18 Luglio 2022

Browse by Category

  • Bitcoin News
  • Blockchain News
  • Crypto
  • Elettronica
  • Ethereum News
  • Giochi
  • Litecoin News
  • Mobile
  • NFT News
  • Nintendo
  • Notizie tecniche
  • Offerte Amazon
  • PC
  • Playstation
  • Recensioni di giochi
  • Recensioni tecniche
  • Scienza
  • Social Media
  • Xbox
  • Home
  • DMCA
  • Disclaimer
  • Privacy Policy
  • Cookie Privacy Policy
  • Terms and Conditions
  • Contact us
THE BUGBIT

Copyright © 2022 - bugbit.net.

No Result
View All Result
  • Home
  • Notizie tecniche
  • Recensioni tecniche
  • Scienza
  • Elettronica
  • Social Media
  • Crypto
    • News
    • Bitcoin News
    • Ethereum News
    • Blockchain News
    • NFT News
    • Litecoin News
  • Giochi
    • Notizia
    • Recensioni di giochi
    • Playstation
    • Xbox
    • PC
    • Nintendo
    • Mobile
  • Offerte Amazon

Copyright © 2022 - bugbit.net.

  • bitcoinBitcoin(BTC)$18,815.77-6.99%
  • ethereumEthereum(ETH)$1,286.33-7.23%
  • tetherTether(USDT)$1.000.42%
  • usd-coinUSD Coin(USDC)$1.000.54%
  • binancecoinBNB(BNB)$270.10-5.23%
  • rippleXRP(XRP)$0.428905-10.42%
  • binance-usdBinance USD(BUSD)$1.000.28%
  • cardanoCardano(ADA)$0.432113-6.10%
  • solanaSolana(SOL)$32.38-7.08%
  • dogecoinDogecoin(DOGE)$0.059538-5.06%
Translate »
Are you sure want to unlock this post?
Unlock left : 0
Are you sure want to cancel subscription?