3 motivi per cui la tua organizzazione avrà bisogno di valutatori di algoritmi esterni

Di Satta Sarmah-Hightower

I leader aziendali stanno spremendo tutto il valore che possono dall'intelligenza artificiale (AI). Uno studio KPMG del 2021 rileva la maggioranza dei leader del governo, della produzione industriale, dei servizi finanziari, della vendita al dettaglio, delle scienze biologiche e della sanità affermano che l'IA è almeno moderatamente funzionale nelle loro organizzazioni. Lo studio rileva inoltre che metà degli intervistati afferma che la propria organizzazione ha accelerato l'adozione dell'IA in risposta alla pandemia di Covid-19. Nelle organizzazioni in cui è stata adottata l'IA, almeno la metà afferma che la tecnologia ha superato le aspettative.

Gli algoritmi di intelligenza artificiale sono sempre più responsabili di una varietà di interazioni e innovazioni odierne, da quelle personalizzate raccomandazioni sui prodotti ed assistenza clienti esperienze alle banche decisioni di prestito e persino risposta della polizia.

Ma nonostante tutti i vantaggi che offrono, gli algoritmi di intelligenza artificiale comportano grossi rischi se non vengono monitorati e valutati in modo efficace per quanto riguarda resilienza, equità, spiegabilità e integrità. Per assistere i leader aziendali nel monitoraggio e nella valutazione dell'IA, lo studio di cui sopra mostra che a un numero crescente di leader aziendali vuole che il governo regoli l'IA per consentire alle organizzazioni di investire nella tecnologia e nei processi aziendali giusti. Per il supporto e la supervisione necessari, è opportuno considerare valutazioni esterne offerte da un fornitore di servizi con esperienza nella fornitura di tali servizi. Ecco tre motivi.

1. Gli algoritmi sono "scatole nere"

Gli algoritmi di intelligenza artificiale, che imparano dai dati per risolvere problemi e ottimizzare le attività, rendono i sistemi più intelligenti, consentendo loro di raccogliere e generare informazioni molto più velocemente di quanto potrebbero mai gli esseri umani.

Tuttavia, alcune parti interessate considerano questi algoritmi come "scatole nere", spiega Drew Rosen, amministratore delegato dell'audit presso KPMG, una delle principali società di servizi professionali. In particolare, alcune parti interessate potrebbero non comprendere come l'algoritmo sia giunto a una determinata decisione e pertanto potrebbero non essere sicure dell'equità o dell'accuratezza di tale decisione.

"I risultati ottenuti dall'algoritmo possono essere soggetti a pregiudizi e interpretazioni errate dei risultati", afferma Rosen. "Ciò può anche comportare alcuni rischi per l'entità poiché sfruttano tali risultati e li condividono con il pubblico e le loro parti interessate".

Un algoritmo che utilizza dati errati, ad esempio, è nel migliore dei casi inefficace e nel peggiore dei casi dannoso. Come potrebbe essere in pratica? Prendi in considerazione un chatbot basato sull'intelligenza artificiale che fornisce agli utenti informazioni sull'account errate o uno strumento di traduzione automatica della lingua che traduce il testo in modo impreciso. Entrambi i casi potrebbero comportare gravi errori o interpretazioni errate per gli enti o le società governative, nonché per i componenti e i clienti che fanno affidamento sulle decisioni prese da tali algoritmi.

Un altro contributo al problema della scatola nera è quando il pregiudizio intrinseco si infiltra nello sviluppo di modelli di intelligenza artificiale, causando potenzialmente un processo decisionale distorto. Gli istituti di credito, ad esempio, utilizzano sempre più l'IA per prevedere l'affidabilità creditizia dei potenziali mutuatari al fine di prendere decisioni di prestito. Tuttavia, può sorgere un rischio quando input chiave nell'IA, come il punteggio di credito di un potenziale mutuatario, ha un errore materiale, con conseguente negazione dei prestiti a tali individui.

Ciò evidenzia la necessità di un valutatore esterno che possa fungere da valutatore imparziale e fornire una valutazione mirata, basata su criteri accettati, della pertinenza e dell'affidabilità dei dati storici e delle ipotesi che alimentano un algoritmo.

2. Le parti interessate e le autorità di regolamentazione chiedono trasparenza

Nel 2022 non esistevano attualmente obblighi di segnalazione per l'IA responsabile. Tuttavia, afferma Rosen, “proprio come il modo in cui gli organi di governo hanno introdotto la regolamentazione ESG [environmental, social and governance] per report su determinate metriche ESG, è solo questione di tempo per vedere ulteriori requisiti di rendicontazione normativa per un'IA responsabile".

In effetti, a partire dal 1 gennaio 2023, quello di New York City Legge locale 144 richiede che sia condotto un audit di bias su uno strumento decisionale automatizzato in materia di occupazione prima che venga utilizzato.

E a livello federale, il Legge nazionale sull'Intelligenza Artificiale del 2020—che si basa su a Ordine esecutivo del 2019—si concentra sugli standard e sugli orientamenti tecnici dell'IA. Inoltre, il Atto sulla responsabilità algoritmica potrebbe richiedere valutazioni d'impatto di sistemi decisionali automatizzati e processi decisionali critici aumentati. E all'estero, il Legge sull'intelligenza artificiale è stato proposto, offrendo un quadro normativo completo con obiettivi specifici in materia di sicurezza, conformità, governance e affidabilità dell'IA.

Con questi cambiamenti, le organizzazioni sono sotto un microscopio di governance. Un valutatore di algoritmi può fornire tali rapporti che affrontano i requisiti normativi e migliorano la trasparenza delle parti interessate, evitando il rischio che le parti interessate interpretino erroneamente o siano fuorviato dai risultati della valutazione.

3. Le aziende traggono vantaggio dalla gestione del rischio a lungo termine

Steve Camara, un partner nella pratica di garanzia della tecnologia di KPMG, prevede che gli investimenti nell'IA continueranno a crescere man mano che le entità procedono con l'automazione dei processi, lo sviluppo di innovazioni che migliorano l'esperienza del cliente e la distribuzione dello sviluppo dell'IA tra le funzioni aziendali. Per rimanere competitive e redditizie, le organizzazioni avranno bisogno di controlli efficaci che non solo affrontino le carenze immediate dell'IA, ma riducano anche i rischi a lungo termine associati alle operazioni aziendali alimentate dall'IA.

È qui che intervengono i valutatori esterni come una risorsa affidabile ed esperta. Man mano che le organizzazioni abbracciano sempre più l'integrità dell'IA come fattore abilitante del business, la partnership potrebbe diventare meno un servizio ad hoc e più una collaborazione coerente, spiega Camara.

"Vediamo una via da seguire in cui sarà necessario un rapporto continuo tra le organizzazioni che stanno sviluppando e rendendo operativa l'IA su base continuativa e un valutatore esterno obiettivo", afferma.

Uno sguardo a ciò che verrà dopo

In futuro, le organizzazioni potrebbero utilizzare valutazioni esterne su base più ciclica mentre sviluppano nuovi modelli, acquisiscono nuove origini dati, integrano soluzioni di fornitori di terze parti o esplorano nuovi requisiti di conformità, ad esempio.

Quando sono richiesti requisiti aggiuntivi di regolamentazione e conformità, i valutatori esterni possono essere in grado di fornire servizi per valutare direttamente in che modo un'organizzazione ha implementato o utilizzato l'IA in relazione a tali requisiti. Questi valutatori sarebbero quindi nella posizione migliore per condividere i risultati della valutazione in modo chiaro e coerente.

Per sfruttare la tecnologia e allo stesso tempo proteggersi dai suoi limiti, un'organizzazione deve cercare valutatori esterni per fornire report su cui poter fare affidamento per dimostrare una maggiore trasparenza durante l'implementazione degli algoritmi. Da lì, sia l'organizzazione che le parti interessate possono comprendere meglio il potere dell'IA e i suoi limiti.

Fonte: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/