jptheking a écrit :FILTRES A INTERFERENCE - PRINCIPELes filtres à interférence sont utilisés depuis longtemps dans des vidéoprojecteurs: Filtre dichroïque infrarouge du côté de la lampe et miroirs séparateurs du côté des panneaux.
C'est Infitec qui a eu l'idée d'utiliser ce genre de filtres pour séparer les deux images de la 3D passive. Dolby3D a une license Infitec. Ces filtres sont en fait des miroirs semi-réfléchissants qui laissent passer certaines longueurs d'onde du spectre visible et réfléchissent les autres.
Dans un vidéoprojecteur, les couleurs sont reconstituées à partir des trois couleurs primaires distribuées dans le spectre visible:
L'idée est de découper chacune de ces 3 couleurs primaires en 2 bandes à l'aide de filtres à interférence:
Les bandes R1 V1 B1 sont envoyées par un projecteur sur l'écran alors que R2 V2 B2 sont envoyées par l'autre. Il suffit d'utiliser des lunettes avec les mêmes filtres pour démultiplexer les deux images.
Comme chaque image comporte les trois primaires, on peut reconstituer l'intégralité des couleurs pour chacun des yeux.
Ces filtres sont très complexes. Ils sont constitués d'une cinquantaine de couches minces (donc transparentes) métalliques et céramiques superposées, déposées sous vide par la méthode du sputtering (electron beam). L'espace entre couches détermine les longueurs d'onde qui sont transmises ou réfléchies. On peut faire l'analogie avec notre antenne rateau de TV où les longueurs et surtout les espacements des dipôles déterminent les fréquences qui seront captées.
Le taux de réjection des longueurs d'onde non destinée à un oeil est de 1000. Donc zéro ghosting.
Ca, c'est la théorie.
En pratique, c'est un peu plus complexe:
- Les longueurs d'onde pour une couleur ne sont pas les mêmes pour les deux yeux, donc bien que ça soit du rouge, par exemple, ce n'est pas exactement le même rouge.
- Les propriétés de la lampe jouent pour beaucoup dans l'utilisation de ce procédé.
Document original:
http://www.jumbovision.com.au/files/Inf ... _Paper.pdfPar exemple, pour une lampe au xénon:
On voit que la réponse de la lampe (en haut) n'est pas linéaire et qu'elle favorise les verts.
...et pour une lampe UHP (celles qu'on utilise dans nos projecteurs):
...whaouah
.... reste plus rien dans les rouges...
Tout ça pour en arriver à la conclusion qu'une correction de couleurs est inévitable.
En fait on arrive à faire ça très bien, même pour les lampes UHP, mais il faut un CMS relativement évolué si on fait ça dans les projs. Pas de problème avec mes deux HW15.
CORRECTION DES COULEURSUne idée des couleurs à rattrapper? Voici ce que ça donne sans correction de couleurs:
Dans l'ordre: ROUGE VERT BLEU JAUNE CYAN MAGENTA BLANC
Et voici ce que ça donne après correction par les projecteurs:
Même si les couleurs sont un peu différentes, ce n'est pas grave mais il faut qu'elles soient de la même luminosité pour éviter la rivalité oculaire.
De toutes façons, la correction par les menus des projecteurs n'est que temporaire. C'est le boîtier qui sera disponible début de l'année prochaine qui se chargera de cette correction. Il utilisera un algorithme de color cube de 125 points de référence avec interpolation tri-linéaire.
C'est exactement le même principe que celui que j'ai utilisé par le passé. L'avantage d'avoir un PC comme source, c'est qu'on peut utiliser les filtres logiques qu'on veut. Alors je me suis fait
un éditeur complet pour l'utilisation d'un cube de 125 points sous AVIsynth. Je suis donc dans les mêmes conditions que le futur boîtier.
Voilà ce que j'obtiens:
On retrouve exactement la mire du départ.
En fait j'ai fini par n'utiliser que la correction par les projos, largement suffisante, car mon CPU n'était pas assez puissant pour faire cette correction ET le motion flow en même temps. Personne n'a jamais remarqué la moindre différence de couleurs quand je montrais des films.