Microsoft migliora la sicurezza dei chatbot basati sull'intelligenza artificiale per contrastare gli imbroglioni

Microsoft Corp ha aggiunto una serie di funzionalità di sicurezza in Azure AI Studio che dovrebbero, nel tempo, continuare a ridurre la probabilità che i suoi utenti configurino i modelli di intelligenza artificiale in una modalità che li farebbe agire in modo anomalo o inappropriato. La società tecnologica multinazionale con sede a Redmond, Washington, ha delineato i miglioramenti in un post sul blog, sottolineando la garanzia dell’integrità delle interazioni dell’intelligenza artificiale e la promozione della fiducia nella base di utenti.

Scudi rapidi e altro ancora 

Tra i principali sviluppi c’è la creazione di “prompt scudi”, una tecnologia progettata per trovare e interrompere le iniezioni immediate mentre conversa con i chatbot AI. Questi sono i cosiddetti jailbreak e sono fondamentalmente input da parte degli utenti che sono intenzionati a formarsi in modo tale da suscitare una risposta indesiderata dai modelli di intelligenza artificiale.

Ad esempio, Microsoft sta facendo la sua parte indirettamente con iniezioni tempestive, dove è possibile l’esecuzione di ordini malvagi, e uno scenario del genere può portare a gravi conseguenze per la sicurezza come il furto di dati e il dirottamento del sistema. Secondo Sarah Bird, Chief Product Officer for Responsible AI di Microsoft, i meccanismi sono fondamentali per rilevare e rispondere a queste minacce uniche in tempo reale.

Microsoft aggiunge che presto ci saranno avvisi sullo schermo dell'utente, che indicheranno quando è probabile che un modello esprima informazioni false o fuorvianti, garantendo maggiore facilità d'uso e fiducia.

Costruire la fiducia negli strumenti di intelligenza artificiale 

L’impegno di Microsoft fa parte di un’iniziativa più ampia, intesa a dare alle persone fiducia nell’intelligenza artificiale generativa sempre più popolare che viene ampiamente applicata nei servizi rivolti ai singoli consumatori e alla clientela aziendale. Microsoft ha proceduto con un pettine a denti fini, dopo aver affrontato i casi in cui gli utenti avevano la capacità di ingannare il chatbot Copilot per produrre risultati bizzarri o dannosi. Ciò sarà a sostegno di un risultato che mostra la necessità di forti difese contro le citate tattiche manipolative, che probabilmente aumenteranno con le tecnologie di intelligenza artificiale e la conoscenza popolare. Prevedere e poi mitigare avviene nel riconoscimento dei modelli di attacco, come nel caso in cui un aggressore ripete le domande o suggerisce il gioco di ruolo.

In qualità di maggiore investitore e partner strategico di OpenAI, Microsoft sta ampliando i confini di come incorporare e creare tecnologie di intelligenza artificiale generativa responsabili e sicure. Entrambi sono impegnati nell’implementazione responsabile e nei modelli fondamentali dell’IA generativa per le misure di sicurezza. Ma Bird ha ammesso che questi grandi modelli linguistici, anche se stanno diventando il fondamento di gran parte della futura innovazione dell’intelligenza artificiale, non sono a prova di manipolazione.

Costruire su queste basi richiederà molto di più che affidarsi semplicemente ai modelli stessi; sarebbe necessario un approccio globale alla sicurezza e alla protezione dell’IA.

Microsoft ha recentemente annunciato il rafforzamento delle misure di sicurezza per Azure AI Studio per mostrare e garantire le misure proattive adottate per salvaguardare il mutevole panorama delle minacce AI.

Si sforza di evitare usi impropri dell’intelligenza artificiale e di preservare l’integrità e l’affidabilità dell’interazione con l’intelligenza artificiale incorporando schermate e avvisi tempestivi.

Con la costante evoluzione della tecnologia AI e la sua adozione in molti ambiti della vita quotidiana, sarà giunto il momento per Microsoft e il resto della comunità AI di mantenere un atteggiamento molto vigile in materia di sicurezza.

Fonte: https://www.cryptopolitan.com/microsoft-ai-chatbot-security-to-tricksters/