La phase en audio

La notion de phase est certainement une des plus délicates à comprendre. Il faut dire que nombre de ressources que l’on peut trouver à son sujet sont soit erronées, soit incomplètes. Dès lors certains abus de langage sont devenus courants, si bien qu’il devient vraiment complexe d’appréhender le concept de phase.
Par exemple, on réfère presque systématiquement aux expressions “c’est hors phase”, ou, “ça phase” pour décrire le son d’un filtrage en peigne. Pourtant, ce filtrage n’est pas la conséquence d’une rotation de phase.

On pourrait alors se dire qu’il s’agit d’un manque de rigueur de la part des praticiens et des hommes de terrain mais même dans la littérature scientifique, la notion de phase est parfois très ambiguë. Beaucoup d’articles traitant de notre capacité à localiser des événements sonores parlent de différence de phase interaural, alors que leur description du phénomène se rapporte plus à une différence de temps interaural.
Je vais donc tâcher, à mon humble niveau, d’apporter un maximum d’éclaircissements sur cette notion.
Qu’est ce que la phase ?
Si on revient à nos manuels de physique de lycée, la phase est souvent expliquée à l’aide de signaux périodiques (typiquement une sinusoïde).
On lit, sur la page wikipédia qui traite du sujet, que “La phase indique la situation instantanée dans le cycle d’une grandeur qui varie cycliquement.” La phase est exprimée en radiant ou en degré.
ρ ( t ) = A sin ⁡ ( ω t + φ )Même onde, mais représentée avec une phase différente
Dans la pratique des métiers du son, on se rend rapidement compte que changer la phase d’une onde sonore seule ne change pas son timbre. C’est au moment où plusieurs signaux corrélés existent que les différences de phase importent.
Déphasage de 180°
Déphasage de 90°
Lorsque deux ondes sont déphasées de 180° (π rad), elles sont dites en opposition de phase : elles s’annulent parfaitement. Deux ondes déphasées de 90° (π/2 rad) sont dites en quadrature de phase.  Quand on représente la phase comme sur les graphiques ci-dessus, on est rapidement tenté de se dire qu’un déphasage ressemble fortement à un retard (ou délai pour les franglais). Il est en plus facile de calculer ce retard. Pour un sinus oscillant à 440 Hz, il est de 2,3 milliseconde.
Les limites de la représentation usuelle
 
Continuons maintenant avec un signal amorti et traçons sa courbe représentative pour une phase de 0° et de 180°.
ρ ( t ) = A sin ⁡ ( ω t + φ ) / ω t

φ = 0 (en rouge) et φ = π (en bleu)

On observe à nouveau le phénomène d’opposition de phase. Par contre, impossible de retrouver l’idée que retarder notre signal d’une quelconque valeur permettra de créer cette rotation de phase. Cela nous amène à conclure qu’un déphasage et un retard sont deux choses complètement différentes mais qui peuvent être équivalentes dans des cas très précis (pour des signaux périodiques par exemple).
Une autre représentation de la phase
 
Il est possible de représenter des fonctions sinusoïdales de même fréquence sur un diagramme de Fresnel. Soit f une fonction définie tel que

f ( x ) = sin ⁡ ( ω t + φ ). On fait correspondre à cette fonction f un vecteur  de module A et d’angle polaire φ indiquant la phase à l’origine.

On peut alors étendre notre repère à deux dimensions à un repère un trois dimensions pour ainsi représenter la phase du signal par rapport à son spectre audio.
D’où proviennent les déphasages ?
 
Tous les filtres (en dehors des filtres à phase linéaire) déphasent le signal. Un moyen très simple de s’en rendre compte est d’utiliser le ReaEQ de Reaper qui permet d’afficher les artefacts de phase générés (courbe en rouge sur les graphiques ci-dessous).

La manière dont nous prenons le son peut aussi avoir un effet sur la cohérence de phase. Le cas d’école est bien-sûr celui de la caisse claire. On place en général un microphone sur la peau de frappe et un sur le timbre. Comme les microphones se font face, lorsque l’un d’eux capte une surpression, l’autre enregistre une dépression. Il en résulte alors deux signaux en opposition de phase.
La relation entre la phase des signaux et la prise de son est au final un sujet assez peu exploré. Sans doute y aurait-il quelques recherches à faire dans le but d’objectiver les traitements de remise en phase que nous faisons.
Présentation d’un cas pratique.
 
Prenons un cas classique. Nous avons une batterie à deux fûts à enregistrer et nous proposons un patch de six microphones : kick in, kick out, snare top, snare bottom et un couple en overhead. On peut représenter l’état de phase de ces huit signaux sur le même repère orthonormé à deux dimensions. (Note : l’état de phases donné à ses signaux est, pour la plupart, arbitraire).
Pour obtenir le résultat de l’interaction entre les sources, il suffit d’appliquer la relation de Chasles. Notez que sur notre schéma, je ne compare pas les appoints entre eux. On considérera que la reprise entre les microphones est négligeable. Cette approximation n’est pas toujours valable dans la vraie vie, mais elle offre le luxe de simplifier un peu les multiples interactions entre les microphones.

Notre échelle de représentation étant linéaire, on se rend compte que le gain apporté par la sommation des signaux est presque inexistant. L’idéal serait de placer tous nos vecteurs dans la même direction. Une fois cela fait nous aurons donc un maximum d’interactions constructives entre nos différentes ondes sonores. En pratique, cela signifie  que nous avons une base de travail plus saine avant même d’avoir utilisé le moindre égaliseur ou compresseur. Nous avons alors largement optimisé notre prise de son.
Quels outils pour agir sur la phase ?

Dans un premier temps, nous avons le classique commutateur inverseur de phase. Il est commun de trouver ce petit bouton sur les consoles (analogique, numérique et virtuelle). Il permet d’inverser les composantes positive et négative du signal. En analogique cela correspond à inverser le point chaud et le point froid. En numérique cela revient à multiplier l’amplitude de notre signal par -1. Ce petit réglage sommaire permet de réaliser une rotation de phase de 180°.

Nous pouvons aussi utiliser des filtres passe-tout. Ces filtres n’affectent pas l’amplitude du signal mais seulement sa phase. Ils permettent de créer une rotation de phase en dessous ou au dessus de la fréquence de coupure du filtre. Le degré de déphasage dépend de l’ordre du filtre.

Enfin, nous pouvons aussi modifier la phase de manière arbitraire et uniforme sur l’ensemble du spectre. Il existe deux grandes façons de faire de la rotation de phase arbitraire. La première, et la plus connue, est d’utiliser une transformée de Fourier rapide (FFT). Cette méthode offre l’avantage de ne pas introduire d’autres altérations de la phase que celles souhaitées. Cependant, une FFT impose un temps de calcul (donc une latence) et un phénomène de pré-écho venant flouter les transitoires. Ce temps de latence et la quantité de pré-écho sont liés : plus le temps de calcul est grand, plus le pré-écho sera faible.
La seconde méthode consiste à générer un signal en quadrature de phase. On utilise classiquement une transformée de Hilbert. L’avantage de cette méthode est qu’elle n’introduit aucune latence ni aucun pré-écho, mais rajoute des altérations à la phase de notre signal.

Du point de vue des outils existant permettant de faire ces manipulations, je n’en connais que deux :

  • Le Phase Rotator inclut dans les JS Plug-in de Reaper qui utilise une FFT
  • L’EvoIn de Flux:: qui utilise la deuxième méthode
Je vous laisse soin de choisir lequel vous préférerez en fonction des détails donnés au-dessus. J’utilise personnellement l’EvoIn. Je travaille le plus clair de mon temps sur des musiques actuelles où la batterie est souvent le seul instrument à être enregistré en multi-microphonie. Dès lors, le respect des transitoires me semble être d’une nécessité première.
Pour conclure
 
Voici en quelques points ce que l’on peut retenir :

  • La phase et un retard sont deux phénomènes physiques différents.
  • La représentation usuelle de la phase peut être trompeuse. Le diagramme de Fresnel permet, à mon sens, de mieux visualiser la notion de phase.
  • La manière dont nous réalisons notre prise de son a, a priori, un effet sur les différences de phases entre nos signaux
  • L’enjeu des interactions entre des signaux corrélés est primordial et les contrôler permet de partir sur des bases de mixage beaucoup plus saines.
  • Il existe une multitude d’outils permettant d’agir directement sur la phase.
J’espère que la lecture de cet article vous aura été instructive. J’ai conscience de sa lourdeur, mais le sujet de la phase n’est vraiment pas le plus simple à expliquer de manière claire et rigoureuse. J’ai aussi volontairement passé la question du réalignement temporel que j’aborderai dans un autre article et qui constitue un traitement très complémentaire à celui de la remise en phase.

Je vous dis donc à bientôt dans un prochain article !

Articles similaires

Poster une réponse