X

Classification 3D

À première vue, un tout petit appareillage de correction auditive et une voiture autonome n’ont pas grand-chose en commun. Cependant, sur le plan technique il existe bien des similarités : les voitures autonomes utilisent de multiples capteurs pour collecter des informations en temps réel sur l’environnement tels un GPS, des caméras, un radar spécifique et des accéléromètres. Cette abondance de données requiert un système de contrôle haute performance pour prendre les décisions adéquates (freiner, accélérer, contrôler la direction) en temps utile. Les aides auditives à la pointe de la technologie utilisent elles aussi des données multi-dimensionnelles, les mouvements du patient et son activité vocale viennent ainsi compléter les données acoustiques traditionnelles. Ces informations sont traitées par un système intelligent de classification permettant aux aides auditives de s’adapter avec fluidité aux besoins d’écoute et de communication du patient, en utilisant un ensemble de données beaucoup plus riche qu’une classification purement acoustique. La classification 3D intègre les trois différents aspects des besoins de communication du patient :

Information acoustique

La classification 3D identifie six environnements acoustiques distincts pour une classification précise et représentative de l’environnement du patient. Pour plus d’informations sur les choix techniques associés à la classification acoustique (voir l’encadré).

Activité vocale du patient

L’activité vocale du patient permet à la classification 3D de recueillir des informations importantes sur ses besoins d’amplification. À son tour, la classification 3D contribue à piloter l’algorithme OVP™, reconnaissance vocale différenciée, qui bénéficie au patient en améliorant la perception amplifiée de sa propre voix.

Mouvements du patient

L’information sur les mouvements du patient provenant des capteurs de son smartphone ajoute des données contextuelles sur ses besoins de communication. Par exemple, si le patient se déplace dans son environnement, il est fort probable qu’une meilleure immersion dans cet environnement (càd une captation sonore un peu plus multidirectionnelle) soit bénéfique.

 

24 possibilités de situations acoustiques pour un contrôle sans égal

La classification acoustique est le socle du système de classification des aides auditives, mais les informations acoustiques ne peuvent prédire à elles seules tous les aspects des besoins d’écoute et de communication du patient. De plus, les systèmes de classification utilisent habituellement un nombre limité d’environnements acoustiques différents pour éviter un pourcentage trop élevé d’erreurs. L’utilisation d’axes supplémentaires de détection (tels l’activité vocale du patient et la détection des mouvements) donne un plus grand nombre de situations acoustiques potentielles, tout en maintenant la fiabilité de détection assurée par la limitation du nombre d’environnements. Utilisant cette approche, la classification 3D combine les données des deux axes supplémentaires de détection déjà mentionnées aux six environnements acoustiques, ce qui permet vingt-quatre situations acoustiques distinctes. Les besoins de communication du patient peuvent être ainsi couverts avec bien plus d’acuité que si seule la classification acoustique était utilisée.

Classification 3D en action

Après avoir sélectionné une des vingt-quatre situations acoustiques, cette information permet de piloter certains algorithmes de traitement, tels l’OVP, le HD Spatial, la directivité microphonique et la réduction des bruits. Les exemples suivants illustrent l’efficacité et la synergie de ces traitements dans cinq situations.

 

Exemple 1 : Petit déjeuner matinal en extérieur

Cette situation génère un faible bruit de fond et parce que le patient est en extérieur, une réverbération minimale. La classification 3D a détecté un environnement Calme, la voix du patient n’a pas été détectée au moment montré dans l’illustration, et les aides auditives ont reçu l’information que le patient ne bouge pas. Les appareils se sont donc configurés pour une performance spatiale optimale :  maximiser la localisation dans l’espace par la direction et la distance des sources sonores. Comme le bruit de fond est faible, la directivité binaurale est configurée au minimum : 10%, servant à restaurer la directivité pavillonnaire naturelle perdue par le positionnement derrière le pavillon des microphones des contours d’oreille. Les autres algorithmes de réduction de bruit sont également réduits, ou désactivés.

Exemple 2 : À la cafétéria avec des collègues

Cet environnement complexe présente de multiples sources sonores, une réverbération moyenne et un bruit de fond moyen à fort. La directivité binaurale est activée à 80% d’efficacité pour améliorer le rapport signal-bruit de la voix des interlocuteurs du patient. Contrairement aux systèmes traditionnels de directivité pouvant donner une écoute non naturelle, HD Spatial fait émerger les indices spatiaux clés qui pourraient être affectés par le traitement directionnel. Le patient bénéficie des avantages de la directivité binaurale en environnement très bruyant [1], tout en maintenant une perception naturelle de son environnement sonore (pour ce qui est de la direction et de la distance des sources sonores). Parce que la classification 3D a détecté l’environnement Parole dans le bruit, et parce que le patient est stationnaire, HD Spatial est configuré pour que le patient puisse focaliser son attention plus sur les sources sonores frontales proches que sur les sources sonores arrières. Comme le patient discute à table avec ses collègues, la classification 3D détecte la voix du patient et enclenche l’OVP pour adapter les gains en temps réel. Dès que le patient arrête de parler, le gain est instantanément restauré au niveau adéquat pour bien entendre les voix des convives. L’OVP évite la sonorité trop forte et la mauvaise qualité sonore associée lorsque le gain requis pour les voix extérieures est appliqué à la propre voix.[2] [3]

Exemple 3 : Marche, de retour à la voiture

Cette situation est moins complexe que la précédente, car personne ne parle. À cause du trafic, l’environnement Bruit a été détecté, lequel, avec la plupart des aides auditives, aurait enclenché une réduction significative du signal via les débruiteurs et la directivité microphonique. Cependant dans ce cas, la classification 3D a détecté que le patient marche, ce qui a imposé aux aides auditives de rester en mode spatial avec seulement 10% de directivité. Ainsi, le patient sur le point de traverser la rue a parfaitement entendu la voiture approchant derrière lui pour tourner à l’angle. De plus, il conserve une localisation (direction et distance) des différentes sources sonores telles que le tramway approchant.

Exemple 4 : À l’écoute de la musique

Le patient de retour à la maison écoute de la musique. Bien que les aides auditives soient conçues principalement pour améliorer l’intelligibilité de la parole, la classification 3D reconnait automatiquement la musique et adapte la réponse des aides auditives pour améliorer l’écoute par des ajustements complexes de la directivité binaurale, des réducteurs de bruit, de l’anti-Larsen, de la courbe de réponse et des compressions.

Exemple 5 : À l’aéroport

Le patient et son épouse sont arrivés à l’aéroport et sont à la recherche de leur comptoir d’enregistrement. La classification 3D des appareils identifie alors un environnement de Parole dans le bruit (à cause du brouhaha), avec la voix du patient détectée (parce qu’il parle à sa femme à ce moment-là), et que le porteur des aides auditives est en mouvement (car le patient marche). De ce fait, les aides auditives sont configurées pour offrir une écoute multidirectionnelle qui lui permet d’entendre l’annonce sur leur vol qui est faite par les haut-parleurs de l’aéroport. Néanmoins, au moment illustré sur le schéma, les aides auditives appliquent une certaine directivité binaurale permettant un meilleur rapport signal-bruit de la voix de son épouse pour une meilleure compréhension. La classification 3D a ainsi utilisé de multiples données pour trouver le meilleur équilibre de directivité et de perception spatiale correspondant aux besoins de communication du patient à cet instant.

Conclusion

La classification 3D utilise des données d’entrée multidimensionnelles pour classifier l’environnement avec précision et prédire les besoins de communication du patient. La synergie de la classification acoustique classique, de la détection de la propre voix et de la détection de mouvement, crée un ensemble unique de vingt-quatre situations acoustiques. Ces situations acoustiques sont utilisées pour affiner divers paramètres adaptatifs tels que le Directivité Binaurale et le HD Spatial entre autres. La Directivité Binaurale utilise un algorithme d’efficacité adaptative, qui se base sur l’environnement acoustique et le comportement du patient. Le HD Spatial aide à préserver la localisation des sources sonores par la perception de leur direction et de leur distance. HD Spatial s’ajuste intelligemment pour maximiser la spatialisation dans les environnements acoustiques plus faciles, alors qu’il privilégie des réglages complémentaires à l’utilisation de la forte directivité dans les environnements plus difficiles optimisant ainsi les conversations avec les interlocuteurs.

 

Références

—————————–

[1] Littmann V., Høydal E.H. Comparison study of speech recognition using binaural beamforming narrow directionality. Hearing Review. 2017;24(5) Disponible sous : http://www.hearingreview.com/2017/05/comparison-study-speech-recognition-using-binaural-beamforming-narrow-directionality/

[2] Powers T., Froehlich M., Branda E., Weber J. Clinical Study Shows Significant Benefit of Own Voice Processing. Hearing Review. 2018;23(4):30-34. Disponible sous : http://www.hearingreview.com/2016/03/clinical-studies-show-advanced-hearing-aid-technology-reduces-listening-effort

[3] Froehlich, M., & Powers, T.A. (2017, November). Sound quality as the key to user acceptance. AudiologyOnline, Article 21621. Extrait de www.audiologyonline.com