Sooo .. J'ai pensé à ce genre de choses. Nous savons tous que notre son est différent de ce que nous entendons de notre propre voix. Il est facile de découvrir comment les autres nous entendent en s'enregistrant et en l'écoutant.
Mais qu'en est-il de l'inverse?
Existe-t-il un moyen de transformer notre voix de manière à ce que les autres puissent nous entendre lorsque nous percevons notre propre voix? Je trouve que c'est une question assez intéressante. Malheureusement, je n'ai rien trouvé sur le Web après quelques recherches sur Google. Personne n'y a pensé ou est-ce impossible pour une raison que je ne vois pas?
Toute piste à ce sujet serait appréciée :).
signal-analysis
audio
transform
Dunkingdev
la source
la source
Réponses:
Ce n'est pas impossible mais ce ne sera pas non plus une promenade dans le parc.
Ce que vous essayez de faire, c'est d'ajouter au signal vocal ces vibrations qui sont transmises à l'oreille via les os et qui ne sont accessibles à personne d'autre.
Mais cela est plus facile à dire qu'à faire de manière précise.
La propagation du son à travers un médium dépend beaucoup de sa densité . Le son se déplace à ~ 1500 m / s dans l'eau et avec moins de dissipation qu'il ne se déplace dans l'air (~ 340 m / s). L'os est plus dense que l'air, donc le son devrait voyager plus rapidement à travers l'os. Cela signifie que «votre» son commence à exciter vos oreilles en premier, suivi du son que vous percevez via le canal d'air «normal». En réalité, l'os a une structure interne qui pourrait affecter la façon dont différentes fréquences le traversent, mais à la gamme de fréquences dont nous parlons, nous pouvons peut-être le considérer comme un solide équivalent. Cela ne peut être estimé que parce que toute tentative de mesure devrait être invasive mais aussi parce que l'audition est subjective.
L'ouïe ou la perception du son est un ÉNORME facteur de difficulté ici. L'oreille elle-même, l'oreille externe (le mors visible), le canal et le mécanisme interne fonctionnent ensemble de manière très compliquée. C'est le sujet de la psychoacoustique . Un exemple de ce traitement complexe est les tons fantômes où le cerveau remplit des choses qui sont censées être là. Le cerveau lui-même a peut-être déjà développé des moyens d'isoler le signal auto-généré qui nous sont encore inaccessibles.
Mais, une façon simpliste ( simpliste! ) D'être témoin des différences entre être l'auditeur de votre propre son et non est la suivante:
Enregistrez un mot court et simple (par exemple "Fishbone", un mot qui a à la fois des basses fréquences (b, o, n) et des hautes fréquences (F, sh, i, e)) avec un peu de silence et bouclez-le à travers un égaliseur à travers vos écouteurs. Démarrez la lecture et synchronisez votre auto en prononçant le mot avec l'enregistrement (donc quelque chose comme "Fishbone ... Fishbone ... Fishbone ..."). Essayez maintenant de jouer avec l'égaliseur jusqu'à ce que ce que vous entendez et ce que vous dites soient raisonnablement similaires.
À ce stade, les paramètres de l'égaliseur représenteraient les différences entre le son et ce qu'il est perçu à travers vous et théoriquement, tout autre discours passé par cet égaliseur simulerait comment il arrive à vos oreilles, comme si vous l'auriez généré avec une source à l'intérieur de votre corps.
J'espère que cela t'aides.
la source
La tentative la plus pratique que je connaisse est celle de Won et Berger (2005) . Ils ont enregistré simultanément des vocalisations à la bouche avec un microphone et sur le crâne avec un vibromètre maison. Ils ont ensuite estimé les fonctions de transfert pertinentes avec un codage prédictif linéaire et un lissage cepstral.
la source
Avant d'être déçu, permettez-moi de vous suggérer d'essayer une autre approche.
Selon moi, vous avez deux parties très différentes: connaître l'égalisation à faire (personnalisée pour chaque personne) et l'appliquer à un signal particulier (votre voix).
1ère partie: modèle du système auditif humain interne
Il y a des professionnels qui travaillent à collecter des données à ce sujet, à normaliser ce processus, etc. Afaik, des efforts sont déployés pour développer des mesures et des graphiques au-delà de l'audiogramme classique (qui mesure les signaux de l'air et des os). Certains d'entre eux sont des "tests d'écoute" (plus subjectifs, mais aussi intéressants).
Alignez-vous avec ces professionnels. Si vous suivez leur travail, vous avez juste besoin de leurs résultats. Laissez-les faire le gros du travail. Ils connaissent leur rôle, ce qui leur a pris des dizaines d'années d'enquête. Ils avancent dans les connaissances dont vous avez besoin. Ce qui est: une sorte d'audiogramme pour mesurer comment quelqu'un entend «à l'intérieur». Je parie qu'ils représentent cela. Et vous avez juste besoin de ce graphique.
2ème partie: simulation
J'ai fait quelque chose de similaire à ce que vous essayez de faire. À partir de l'audiogramme de toute personne, vous pouvez entendre vous-même comme elle. Cela se fait avec ffmpeg. Vous pouvez le vérifier ici: comomeoyes.com
Fondamentalement, vous enregistrez votre voix et un algorithme l'égalise avec votre audiogramme personnalisé. De cette façon, vous pouvez saisir l'audiogramme d'une personne malentendante et écouter par vous-même comment il vous entend.
Je comprends que vous aimeriez faire de même, mais avec un audiogramme différent, celui qui modélise la façon dont le système auditif interne égalise le son.
Je parie que ce type d'audiogramme pourrait déjà exister, et les audiologistes, les médecins, les médecins en oto-rhino-laryngologie, les chercheurs et autres pourraient discuter du type de tests acoustiques à faire pour obtenir les données dont ils ont besoin pour modéliser un graphique utile à partir des mesures.
Bonne chance. Votre tentative pourrait aider les autres.
la source