[ad_1]
Le organizzazioni con una solida conoscenza di come, dove e quando utilizzare l’intelligenza artificiale (AI) possono trarre vantaggio da un’ampia gamma di funzionalità basate sull’intelligenza artificiale, tra cui:
- Generazione di contenuti
- Automazione delle attività
- Creazione del codice
- Classificazione su larga scala
- Riepilogo di documenti densi e/o complessi
- Estrazione di informazioni
- Ottimizzazione della sicurezza informatica
Che si tratti di sanità, ospitalità, finanza o produzione, i casi d’uso vantaggiosi dell’intelligenza artificiale sono praticamente illimitati in ogni settore. Ma l’implementazione dell’intelligenza artificiale è solo un pezzo del puzzle.
I compiti alla base di una gestione efficiente e responsabile del ciclo di vita dell’IA
L’applicazione continua dell’IA e la capacità di trarre vantaggio dal suo utilizzo continuo richiedono la gestione persistente di un ciclo di vita dell’IA dinamico e intricato, e di farlo in modo efficiente E responsabilmente. Ecco cosa comporta affinché ciò accada.
Connessione di modelli di intelligenza artificiale a una miriade di origini dati in ambienti cloud e on-premise
I modelli di intelligenza artificiale si basano su grandi quantità di dati per l’addestramento. Che si tratti di costruire un modello da zero o di perfezionare un modello di base, i data scientist devono utilizzare i dati di training necessari indipendentemente dalla posizione di tali dati all’interno di un’infrastruttura ibrida. Una volta addestrati e distribuiti, i modelli necessitano anche di un accesso affidabile ai dati storici e in tempo reale per generare contenuti, formulare raccomandazioni, rilevare errori, inviare avvisi proattivi, ecc.
Scalabilità di modelli e analisi IA con dati affidabili
Man mano che un modello cresce o si espande nei tipi di attività che può eseguire, ha bisogno di un modo per connettersi a nuove origini dati che siano affidabili, senza ostacolarne le prestazioni o compromettere sistemi e processi altrove.
Proteggere i modelli di intelligenza artificiale e il loro accesso ai dati
Sebbene i modelli di intelligenza artificiale necessitino di flessibilità per accedere ai dati attraverso un’infrastruttura ibrida, necessitano anche di protezione da manomissioni (non intenzionali o meno) e, soprattutto, di accesso protetto ai dati. Il termine “protetto” significa che:
- Un modello di intelligenza artificiale e le sue origini dati sono al sicuro da manipolazioni non autorizzate
- La pipeline dei dati (il percorso seguito dal modello per accedere ai dati) rimane intatta
- La possibilità di una violazione dei dati è ridotta al minimo possibile, con misure in atto per aiutare a rilevare tempestivamente le violazioni
Monitoraggio dei modelli di intelligenza artificiale per individuare bias e derive
I modelli di intelligenza artificiale non sono statici. Si basano su algoritmi di apprendimento automatico che creano output basati sui dati di un’organizzazione o su altre fonti di big data di terze parti. A volte, questi risultati sono distorti perché i dati utilizzati per addestrare il modello erano incompleti o in qualche modo imprecisi. I pregiudizi possono anche farsi strada nei risultati di un modello molto tempo dopo la distribuzione. Allo stesso modo, gli output di un modello possono “allontanarsi” dallo scopo previsto e diventare meno accurati, tutto perché i dati utilizzati da un modello e le condizioni in cui viene utilizzato un modello cambiano naturalmente nel tempo. I modelli in produzione, pertanto, devono essere continuamente monitorati per individuare bias e derive.
Garantire la conformità ai requisiti normativi governativi e alle politiche interne
Un modello di intelligenza artificiale deve essere compreso appieno da ogni angolazione, dentro e fuori: da quali dati aziendali vengono utilizzati e quando e come il modello è arrivato a un determinato risultato. A seconda di dove opera un’organizzazione, dovrà rispettare una serie di normative governative relative a dove vengono archiviati i dati e al modo in cui un modello di intelligenza artificiale utilizza i dati per svolgere i propri compiti. Le normative attuali cambiano continuamente e ne vengono introdotte di nuove continuamente. Pertanto, maggiore è la visibilità e il controllo che un’organizzazione ha oggi sui suoi modelli di intelligenza artificiale, meglio sarà preparata per qualunque regolamentazione sull’intelligenza artificiale e sui dati sia in arrivo dietro l’angolo.
Tra i compiti necessari per la conformità interna ed esterna c’è la capacità di riferire sui metadati di un modello di intelligenza artificiale. I metadati includono dettagli specifici di un modello di intelligenza artificiale come:
- La creazione del modello AI (quando è stato creato, chi lo ha creato, ecc.)
- Dati di addestramento utilizzati per svilupparlo
- Posizione geografica della distribuzione di un modello e dei relativi dati
- Aggiorna la cronologia
- Risultati generati o azioni intraprese nel tempo
Grazie alla gestione dei metadati e alla capacità di generare report con facilità, i data steward sono meglio attrezzati per dimostrare la conformità con una serie di normative esistenti sulla privacy dei dati, come il Regolamento generale sulla protezione dei dati (GDPR), il California Consumer Privacy Act (CCPA) o il Legge sulla portabilità e responsabilità dell’assicurazione sanitaria (HIPAA).
Contabilità delle complessità del ciclo di vita dell’intelligenza artificiale
Sfortunatamente, i tipici strumenti di archiviazione e governance dei dati non sono all’altezza nel campo dell’intelligenza artificiale quando si tratta di aiutare un’organizzazione a svolgere le attività che sottolineano una gestione efficiente e responsabile del ciclo di vita dell’intelligenza artificiale. E questo ha senso. Dopotutto, l’intelligenza artificiale è intrinsecamente più complessa dei processi e delle capacità standard guidati dall’IT. Le soluzioni IT tradizionali semplicemente non sono sufficientemente dinamiche per tenere conto delle sfumature e delle esigenze legate all’utilizzo dell’intelligenza artificiale.
Per massimizzare i risultati aziendali che possono derivare dall’utilizzo dell’intelligenza artificiale, controllando allo stesso tempo i costi e riducendo le complessità intrinseche dell’intelligenza artificiale, le organizzazioni devono combinare funzionalità di archiviazione dei dati ottimizzate per l’intelligenza artificiale con un programma di governance dei dati realizzato esclusivamente per l’intelligenza artificiale.
Gli archivi dati ottimizzati per l’intelligenza artificiale consentono una scalabilità del carico di lavoro AI economicamente vantaggiosa
I modelli di intelligenza artificiale si basano su un accesso sicuro a dati affidabili, ma le organizzazioni che cercano di implementare e scalare questi modelli si trovano ad affrontare un panorama di dati sempre più ampio e complicato. Si prevede che i dati archiviati registreranno una crescita del 250% entro il 2025,1 i cui risultati includeranno probabilmente un maggior numero di silos disconnessi e maggiori costi associati.
Per ottimizzare l’analisi dei dati e i carichi di lavoro dell’intelligenza artificiale, le organizzazioni necessitano di un archivio dati costruito su un’architettura Lakehouse di dati aperti. Questo tipo di architettura combina le prestazioni e l’usabilità di un data warehouse con la flessibilità e la scalabilità di un data Lake. IBM watsonx.data è un esempio di una casa sul lago di dati aperti e può aiutare i team a:
- Consenti l’elaborazione efficiente di grandi volumi di dati, contribuendo a ridurre i costi dell’intelligenza artificiale
- Garantisci che i modelli di intelligenza artificiale utilizzino in modo affidabile i dati provenienti da ambienti ibridi all’interno di un contenitore scalabile ed economico
- Fornisci ai data scientist un repository per raccogliere e ripulire i dati utilizzati per addestrare i modelli di intelligenza artificiale e perfezionare i modelli di base
- Elimina le copie ridondanti dei set di dati, riducendo i requisiti hardware e i costi di archiviazione
- Promuovi livelli più elevati di sicurezza dei dati limitando gli utenti a set di dati isolati
La governance dell’intelligenza artificiale garantisce trasparenza e responsabilità
Costruire e integrare modelli di intelligenza artificiale nei flussi di lavoro quotidiani di un’organizzazione richiede trasparenza su come funzionano tali modelli e su come sono stati creati, controllo su quali strumenti vengono utilizzati per sviluppare modelli, catalogazione e monitoraggio di tali modelli e capacità di riferire sul comportamento dei modelli. Altrimenti:
- I data scientist possono ricorrere a una miriade di strumenti, applicazioni, pratiche e piattaforme non approvati, introducendo errori umani e pregiudizi che incidono sui tempi di implementazione del modello
- Si perde la capacità di spiegare i risultati del modello in modo accurato e sicuro
- Resta difficile individuare e mitigare bias e derive
- Le organizzazioni si espongono al rischio di non conformità o addirittura all’incapacità di dimostrare la conformità
Allo stesso modo in cui un quadro di governance dei dati può fornire a un’organizzazione i mezzi per garantire la disponibilità e la corretta gestione dei dati, consentire l’accesso self-service e proteggere meglio la propria rete, i processi di governance dell’intelligenza artificiale consentono il monitoraggio e la gestione dei flussi di lavoro dell’intelligenza artificiale in tutto il mondo. intero ciclo di vita dell’IA. Soluzioni come IBM watsonx.governance sono appositamente progettate per aiutare a:
- Semplifica i processi del modello e accelera la distribuzione del modello
- Rileva i rischi nascosti all’interno dei modelli prima della distribuzione o durante la produzione
- Garantisci che la qualità dei dati sia mantenuta e proteggi l’affidabilità degli strumenti di business intelligence basati sull’intelligenza artificiale che informano le decisioni aziendali di un’organizzazione
- Promuovere pratiche etiche e conformi
- Acquisisci i fatti del modello e spiega i risultati del modello alle autorità di regolamentazione con chiarezza e sicurezza
- Seguire le linee guida etiche stabilite dalle parti interessate interne ed esterne
- Valutare le prestazioni dei modelli dal punto di vista dell’efficienza e della regolamentazione attraverso l’analisi e l’acquisizione/visualizzazione delle metriche
Con le pratiche di governance dell’intelligenza artificiale in atto, un’organizzazione può fornire al proprio team di governance una visione approfondita e centralizzata su tutti i modelli di intelligenza artificiale in fase di sviluppo o produzione. È possibile creare punti di controllo durante tutto il ciclo di vita dell’intelligenza artificiale per prevenire o mitigare bias e deviazioni. È inoltre possibile generare e conservare la documentazione con informazioni quali origini dei dati di un modello, metodi e comportamenti di addestramento. Ciò consente un elevato grado di trasparenza e verificabilità.
Archivi dati adatti allo scopo e governance dell’intelligenza artificiale mettono a portata di mano i vantaggi aziendali dell’intelligenza artificiale responsabile
Gli archivi dati ottimizzati per l’intelligenza artificiale e basati su architetture Lakehouse di dati aperti possono garantire un accesso rapido a dati affidabili in ambienti ibridi. Combinati con potenti funzionalità di governance dell’intelligenza artificiale che forniscono visibilità sui processi, sui modelli, sui flussi di lavoro, sulle origini dati e sulle azioni intraprese dell’intelligenza artificiale, forniscono una solida base per praticare un’intelligenza artificiale responsabile.
L’intelligenza artificiale responsabile è la pratica mission-critical di progettazione, sviluppo e implementazione dell’intelligenza artificiale in modo equo per tutte le parti interessate, dai lavoratori di varie unità aziendali ai consumatori quotidiani, e conforme a tutte le politiche. Attraverso l’intelligenza artificiale responsabile, le organizzazioni possono:
- Evitare la creazione e l’uso di IA ingiuste, inspiegabili o distorte
- Stai al passo con le normative governative in continua evoluzione riguardanti l’uso dell’intelligenza artificiale
- Sapere quando un modello necessita di riqualificazione o ricostruzione per garantire l’aderenza agli standard etici
Combinando archivi dati ottimizzati per l’intelligenza artificiale con la governance dell’intelligenza artificiale e il ridimensionamento dell’intelligenza artificiale in modo responsabile, un’organizzazione può ottenere i numerosi vantaggi dell’intelligenza artificiale responsabile, tra cui:
1. Distorsioni involontarie ridotte al minimo—Un’organizzazione saprà esattamente quali dati utilizzano i suoi modelli di intelligenza artificiale e dove si trovano tali dati. Nel frattempo, i data scientist possono disconnettere o connettere rapidamente le risorse di dati secondo necessità tramite l’accesso ai dati self-service. Possono anche individuare e sradicare pregiudizi e derive in modo proattivo monitorando, catalogando e governando i loro modelli.
2. Sicurezza e privacy—Quando a tutti i data scientist e ai modelli di intelligenza artificiale viene concesso l’accesso ai dati attraverso un unico punto di ingresso, l’integrità e la sicurezza dei dati migliorano. Un unico punto di ingresso elimina la necessità di duplicare dati sensibili per vari scopi o spostare dati critici in un ambiente meno sicuro (e possibilmente non conforme).
3. IA spiegabile— L’intelligenza artificiale spiegabile si ottiene quando un’organizzazione può dichiarare con sicurezza e chiarezza quali dati ha utilizzato un modello di intelligenza artificiale per svolgere i propri compiti. La chiave per un’IA spiegabile è la capacità di compilare automaticamente informazioni su un modello per spiegare meglio il suo processo decisionale analitico. Ciò consente una facile dimostrazione della conformità e riduce l’esposizione a possibili controlli, multe e danni alla reputazione.
Ulteriori informazioni su IBM Watsonx
1. Previsioni IDC Global DataSphere a livello mondiale, 2022-2026: le organizzazioni aziendali guidano la maggior parte della crescita dei dati, maggio 2022
[ad_2]
Source link