La nuova intelligenza artificiale dell'audio per auto potrebbe migliorare più delle semplici melodie

Hollywood ha sempre rappresentato l'Intelligenza Artificiale (AI) come il livello operativo di robot distopici che sostituiscono gli esseri umani ignari e creano il conflitto centrale e crescente. Nel migliore dei casi, potresti immaginare un giovane Hailey Joel Osment nei panni di David, il ragazzo artificiale e consapevole di sé nel mondo delle città costiere scongelate e allagate dalle calotte polari di Spielberg (suona familiare?) AI: intelligenza artificiale che (attenzione spoiler) si uccide solo. O forse ricordi la voce di Robin Williams come L'uomo bicentenario che, ancora una volta, è un robot autocosciente che tenta di prosperare e che (ancora una volta all'allerta spoiler), finisce per essere la sua unica vittima. E, naturalmente, c'è il riferimento quasi cliché a Terminator e il suo mondo post-apocalittico con macchine che tentano di distruggere gli umani e, beh, (attenzione non così spoiler) molte vittime in un paio di decenni. In nessuno di questi scenari, tuttavia, gli esseri umani convivono con una vita migliore, per non parlare di intrattenimento e sicurezza migliorati.

Questa, tuttavia, è la nuova realtà. Gli algoritmi di intelligenza artificiale possono essere inclusi nei progetti audio e continuamente migliorati tramite aggiornamenti over-the-air per migliorare l'esperienza di guida. E in diretta contraddizione con questi esempi di Hollywood, tale IA potrebbe effettivamente migliorare le probabilità di sopravvivenza dell'essere umano.

Solo per piacere

Fino a poco tempo, tutta l'interfaccia utente (UI), incluso lo sviluppo audio, richiedeva una programmazione complessa da parte di programmatori esperti nel corso dei trentasei (36) mesi standard di un programma del veicolo. Lo styling della lamiera e le scatole elettroniche vengono specificati, acquistati e sviluppati in parallelo solo per calibrare i singoli elementi in fase di sviluppo. Suoni di marca. Firme acustiche. Tutte le iniziative separate all'interno dello stesso progetto di sistema anemico che ha costano miliardi ai produttori.

Ma l'intelligenza artificiale ha consentito un modo molto più flessibile ed efficiente di affrontare la progettazione dell'esperienza audio. "Quello che stiamo vedendo è la convergenza delle tendenze", afferma Josh Morris, Machine Learning Engineering Manager di DSP Concept. "L'audio sta diventando una caratteristica sempre più dominante nel settore automobilistico, ma allo stesso tempo i processori moderni diventano più potenti con più memoria e capacità".

Inoltre, utilizzando una piattaforma di sviluppo incentrata sui sistemi, l'Intelligenza Artificiale e questi processori più potenti offrono a conducenti e passeggeri un nuovo livello di reattività adattiva e in tempo reale. . "Invece della necessità storica di scrivere risme di codice per ogni scenario immaginabile, l'IA guida la reattività del sistema sulla base di una consapevolezza appresa delle condizioni ambientali e degli eventi", afferma Steve Ernst, Head of Automotive Business Development di DSP Concept.

Il modo molto ovvio di utilizzare un tale sistema di apprendimento è "smorzare il rumore" del veicolo in modo che l'audio premium possa essere personalizzato e migliorato nonostante sia stato sostituito con pneumatici invernali o altri cambiamenti ambientali simili. Ma LG Electronics ha sviluppato algoritmi in esecuzione in Audio Weaver di DSP Concept piattaforma per consentire il miglioramento della voce dei dialoghi del film durante l'intrattenimento sul sedile posteriore per accentuarlo rispetto alle esplosioni nel film, consentendo così al passeggero di ascoltare meglio il contenuto critico

Un altro aspetto non ovvio sarebbe il modo in cui i suoni audio di marca vengono orchestrati in mezzo ad altri rumori. Questo veicolo specifico richiede la sequenza di avvio crescente per essere riprodotto mentre altri suoni come la radio e i campanelli vengono automaticamente abbassati? Ogni esperienza può essere modificata.

Più probabilità di prosperare

Mentre il mondo gareggia sia nei veicoli elettrici che nella guida autonoma, la frequenza e le esigenze degli avvisi acustici probabilmente cambieranno drasticamente. Ad esempio, l'ingegnere della sicurezza di un taxi autonomo non può presumere che i passeggeri si trovino vicino a un display visivo quando è richiesto un avviso tempestivo. E quanto è udibile quell'avviso per il quasi 25 milioni di americani con disabilità per chi i veicoli autonomi dovrebbero aprire nuove possibilità di mobilità? "L'audio ora non serve solo per ascoltare la tua canzone preferita", afferma Ernst. "Con la guida autonoma, ci sono tutti i tipi di avvisi necessari per mantenere il conducente impegnato o per avvisare il conducente non impegnato di cose che accadono intorno a loro".

"E ciò che lo rende più impegnativo", aggiunge Adam Levenson, Head of Marketing di DSP Concepts, "sono tutte le cose gestite contemporaneamente all'interno dell'auto: telefonia, suono coinvolgente o spaziale, rumore del motore, rumore della strada, sistemi di allarme acustico del veicolo, sistemi vocali, ecc. Ci piace dire che il prodotto audio più complesso è l'auto.

Ad esempio, immagina lo scenario in cui un guidatore ha abilitato la modalità di guida autonoma in autostrada, ha alzato il volume e ignora piacevolmente un veicolo di emergenza in avvicinamento. A quale precisione (e distanza) di rilevamento della sirena utilizzando il microfono o i microfoni del veicolo l'auto avvisa il suo conducente quasi distratto? Come deve essere presentato tale avviso per superare il rumore ambientale, fornire sufficiente attenzione ma non spaventare inutilmente il conducente? Tutto questo può essere regolato tramite modelli pre-sviluppati, formazione anticipata con diverse sirene e successiva messa a punto basata su cloud. "È qui che l'orchestrazione complessiva diventa davvero importante", spiega Morris. “Possiamo prendere l'output del modello [rilevamento dell'IA] e dirigerlo in diversi punti dell'auto. Forse abbassi l'audio, attivi un segnale acustico di avvertimento e fai lampeggiare qualcosa sul cruscotto affinché il guidatore presti attenzione".

Lo stesso vale per gli avvisi esterni. Ad esempio, un veicolo elettrico silenzioso potrebbe avere allarmi sintonizzati per i pedoni. E così nuove calibrazioni possono essere create offline e scaricate sui veicoli come aggiornamenti software basati sull'innovazione abilitata.

Innovazione ovunque. E l'intelligenza artificiale alimenta l'esperienza utopica piuttosto che creare il mondo distopico di Hollywood.

La previsione dell'autore

Ecco la mia previsione della settimana (ed è solo martedì, gente): la prossima evoluzione dell'audio includerà un ciclo di feedback istantaneo completo che includerà la sottile gioia degli utenti in tempo reale. Sì, gran parte del design attuale probabilmente migliora l'esperienza, ma una calibrazione continua del design centrato sull'utente (UCD) potrebbe essere ulteriormente migliorata in base alle espressioni, al linguaggio del corpo e ai commenti dei passeggeri, sintonizzando così individualmente la soddisfazione in tempo reale. Tutti i fattori abilitanti sono tutti lì: fotocamera, AI, processori e una piattaforma adattiva.

Sì, ne abbiamo già sentito parlare illuminazione d'atmosfera adattiva e il rilevamento remoto di noia, stress, ecc. per migliorare la sicurezza, ma nulla che migliori l'esperienza combinata basata su algoritmi di apprendimento in tempo reale di tutti i sensori puntati dall'utente.

Forse sto estrapolando troppo. Ma proprio come il personaggio di Robin Williams, ho attraversato due secoli... quindi forse sono anche sensibile a ciò che gli umani potrebbero volere.

Fonte: https://www.forbes.com/sites/stevetengler/2022/09/13/the-new-artificial-intelligence-of-car-audio-might-improve-more-than-just-tunes/