Argomenti trattati
È la domanda che più tormenta i neo genitori; perché il neonato piange? Ha fame, non riesce a dormire, gli fa male il pancino? Uno studio coordinato dalla Northern Illinois University ha messo a punto un algoritmo che sfrutta l’intelligenza artificiale in grado di distinguere vari tipi di pianto. I risultati dello studio sono pubblicati sulla rivista IEEE/CAA Journal of Automatica Sinica (Jas).
La prima forma di comunicazione
Per il neonato il pianto è la principale forma di comunicazione: solo l’esperienza può aiutarci a interpretarlo. Ma questa comprensione non sempre avviene e soprattutto nelle prime settimane si può avere difficoltà a capire le esigenze del piccolo. Per questo gli studiosi hanno pensato di identificare alcuni elementi sonori e vocali che aiutano a decodificare il pianto che è una modalità comunicativa composta da segnali sonori con caratteristiche diverse, che decodificano le informazioni che il bambino vuole trasmettere.
Una tecnologia avanzata
L’algoritmo è basato sul riconoscimento vocale automatico ed è stato testato su un gruppo di bambini di un’unità di terapia intensiva neonatale. Usando la tecnica “compressed sensing”, che ricostruisce un segnale sulla base di una serie di dati, sono riusciti a risalire ai diversi tipi di pianto, facendosi aiutare dalle infermiere del reparto.
Tanti motivi
Sono così riusciti a distinguere due tipi di pianto: uno “normale”, che include quattro sensazioni (fame, sonno, bisogno di essere cambiato e di ricevere attenzioni) e che quindi non deve preoccupare i genitori, e uno anomalo, legato a una percezione di fastidio e che può essere associato alla presenza di un disturbo passeggero o di una vera e propria malattia o patologia. L’algoritmo è risultato indipendente dal singolo neonato. L’obiettivo finale dello studio è migliorare il benessere psicofisico dei bambini e ridurre la pressione che colpisce i genitori e altri caregiver.
Fonti / Bibliografia
- Infant Cry Language Analysis and Recognition: An Experimental ApproachRecently, lots of research has been directed towards natural language processing. However, the baby's cry, which serves as the primary means of communication for infants, has not yet been extensively explored, because it is not a language that can be easily understood. Since cry signals carry information about a babies' wellbeing and can be understood by experienced parents and experts to an extent, recognition and analysis of an infant's cry is not only possible, but also has profound medical and societal applications. In this paper, we obtain and analyze audio features of infant cry signals in time and frequency domains. Based on the related features, we can classify given cry signals to specific cry meanings for cry language recognition. Features extracted from audio feature space include linear predictive coding (LPC), linear predictive cepstral coefficients (LPCC), Bark frequency cepstral coefficients (BFCC), and Mel frequency cepstral coefficients (MFCC). Compresse...