Durante la presentazione della nuova linea di soundbar JBL, abbiamo avuto l’opportunità di intervistare Mathias Johansson, figura chiave di Harman nel campo del processing audio e dell’intelligenza artificiale. L’intervista ha rivelato interessanti prospettive sul futuro dell’audio, con particolare attenzione ai sistemi adattivi e cognitivi sviluppati da Harman.
L’Intelligenza Artificiale al Servizio dell’Audio Personalizzato
Secondo Johansson, il futuro dell’audio vedrà l’integrazione di un “ingegnere del suono virtuale” all’interno dei dispositivi. Questo sistema, basato sull’intelligenza artificiale, permetterà agli utenti di interagire in modo intuitivo per ottimizzare la qualità sonora e adattare i sistemi audio a diversi contesti d’uso. L’obiettivo è creare un modello che incapsuli l’esperienza di Harman, consentendo ai dispositivi di adattarsi perfettamente a qualsiasi ambiente.
L’IA promette di rivoluzionare il modo in cui interagiamo con l’audio, aprendo nuove possibilità di personalizzazione e ottimizzazione. L’idea è quella di avere un vero e proprio esperto virtuale a nostra disposizione.
Il Cognitive Lab di Harman: Esplorando l’Empatia nell’Audio
Harman ha creato un Cognitive Lab per sviluppare sistemi in grado di comprendere gli utenti in modo “umano ed empatico”. Il team del laboratorio è multidisciplinare, composto da esperti di machine learning, ingegneri software, psicologi e fisiologi.
Il focus principale è capire come le persone interagiscono naturalmente con i sistemi audio e integrare questa empatia all’interno dei dispositivi. Johansson spiega che le crescenti aspettative degli utenti, alimentate dall’evoluzione dell’IA, richiedono sistemi capaci di offrire un’interazione sempre più umana, dai prodotti professionali a quelli consumer, fino alle applicazioni in ambito automotive.
- Lettura dei segnali biometrici
- Ottimizzazione del comfort
- Interazione empatica con i dispositivi
“Le persone si aspetteranno sempre più che tutti i sistemi […] siano in grado di comprenderle e di offrire un’interazione più umana con loro.”
DSP, IA e il Futuro della Progettazione Audio
Johansson ha fornito esempi concreti di come l’IA sta già influenzando il digital signal processing (DSP) nel mondo dell’audio. Tecnologie come AI Sound Boost, introdotta nel sub della 1300MK2, consentono di ottenere bassi più profondi in spazi ridotti monitorando e ottimizzando i componenti del dispositivo. L’IA si rivela particolarmente efficace nella classificazione e separazione delle voci dal resto del suono, superando le capacità dei tradizionali DSP.
Inoltre, nelle cuffie, l’IA abilita modalità trasparenti con cancellazione intelligente del rumore, distinguendo rumore e informazione. Secondo Johansson, l’IA non sostituisce completamente i metodi classici, ma li integra, aiutando anche a progettare DSP migliori. Un’area chiave è l’interazione, con la prospettiva di un ingegnere del suono virtuale integrato, capace di configurare automaticamente il sistema in base alle richieste dell’utente.
L’obiettivo finale è creare un’esperienza d’ascolto che si adatti dinamicamente all’ambiente e alle preferenze dell’utente, offrendo un audio immersivo e personalizzato.

