A : Dans les animations il existe deux possibilités pour faire disparaître un objet lorsqu’il est hors champ (mais à l’image aussi) : soit lui donner une opacité « 0 » ou redéfinir son « intervalle » afin qu’il soit plus court que celui de l’image principale. Quelle avantage y a-t-il à utiliser l’une ou l’autre méthode notamment pour le traitement de l’image et de sa fluidité ?
B : Pour quelle autre utilisation pratique peut on utiliser la fonction « intervalle » dans une animation ?
Intervalle ou opacité 0
-
Serge L
- Messages : 5
- Enregistré le : jeu. 22 févr. 2007, 11:54
- Contact :
- JPD
- Messages : 2009
- Enregistré le : jeu. 17 mars 2005, 22:58
- Localisation : Champs-sur-Marne
Lorsqu'une image est hors champs, la mettre à 0% d'opacité ou de définir un intervalle n'apporte rien ou n'est pas mesurable, PTE faisant ses calculs sur les images ou portions d'images présentes dans la zone de visualisation, même si elles sont masquées.
La seule exception c'est pour les images à opacité nulle qui, même dans la zone de visualisation ne sont pas prises en compte.
Dans les 2 cas, il n'y a pas de ressources de calcul consommées mais dans les 2 cas, de la mémoire graphique est consommée.
Que l'on utilise l'une ou l'autre des solutions n'a pas, à ma connaissance de différence maintenant (lorsque la fonction est apparue sur la #3, il y avait des problèmes avec les intervalles si l'on changeait la durée d'une vue en amont).
Il existe une 3ème solution que j'utilise assez souvent qui est tout simplement d'avoir une nouvelle vue avec l'objet en plus ou en moins, on gagne, sauf cas exceptionnels, sur tous les tableaux.
L'apparition ou disparition d'objets de la zone d'affichage modifie la charge de calcul et cela nuit fortement à la linéarité des mouvements sur les machines sensibles.
J'ai rencontré le problème le mois dernier sur un pan avec en surimpression une image dont l'opacité variait.
Au passage à 0% de l'opacité, il y avait une brève accélération du pan. Pour éviter cela, 2 solutions ont fonctionné, l'une consistant à laisser l'opacité à 0.4% jusqu'à la fin du pan, l'autre consistant à remplacer la charge de calcul par une autre équivalente (utilisation d'un fichier png transparent de dimension équivalente passant de 0% à 0.4% d'opacité au moment ou la première image passe de 0.4% à 0% (inconvénient : surcharge de la mémoire graphique).
Maintenant j'utilise assez couramment la première méthode (0.4% d'opacité au lieu de 0% tant qu'un pan ou zoom est en action).
Plus récemment j'ai rencontré un problème analogue sur une image se déplaçant pour quitter l'écran (sur le montage d'Eric).
Le mouvement n'était pas parfaitement régulier, la charge de calcul variant. Là aussi 2 solutions, j'ai dupliqué comme enfant l'image, l'ai décalée de façon à ce quelle soit bord à bord avec l'image parent et ait mis son opacité à 0.4%. Ainsi il y a toujours la même surface prise en compte dans les calculs et le mouvement devient parfait.
On peut remplacer le fichier par un png transparent, mais même réserve que pour le cas précédent (quoiqu'il y ait une solution avec un petit png qu'on duplique, mais c'est beaucoup de travail).
En conclusion le passage à 0% peut quasiment toujours se faire par un changement de vue en transition instantanée, ce qui est la meilleure solution.
La seule exception c'est pour les images à opacité nulle qui, même dans la zone de visualisation ne sont pas prises en compte.
Dans les 2 cas, il n'y a pas de ressources de calcul consommées mais dans les 2 cas, de la mémoire graphique est consommée.
Que l'on utilise l'une ou l'autre des solutions n'a pas, à ma connaissance de différence maintenant (lorsque la fonction est apparue sur la #3, il y avait des problèmes avec les intervalles si l'on changeait la durée d'une vue en amont).
Il existe une 3ème solution que j'utilise assez souvent qui est tout simplement d'avoir une nouvelle vue avec l'objet en plus ou en moins, on gagne, sauf cas exceptionnels, sur tous les tableaux.
L'apparition ou disparition d'objets de la zone d'affichage modifie la charge de calcul et cela nuit fortement à la linéarité des mouvements sur les machines sensibles.
J'ai rencontré le problème le mois dernier sur un pan avec en surimpression une image dont l'opacité variait.
Au passage à 0% de l'opacité, il y avait une brève accélération du pan. Pour éviter cela, 2 solutions ont fonctionné, l'une consistant à laisser l'opacité à 0.4% jusqu'à la fin du pan, l'autre consistant à remplacer la charge de calcul par une autre équivalente (utilisation d'un fichier png transparent de dimension équivalente passant de 0% à 0.4% d'opacité au moment ou la première image passe de 0.4% à 0% (inconvénient : surcharge de la mémoire graphique).
Maintenant j'utilise assez couramment la première méthode (0.4% d'opacité au lieu de 0% tant qu'un pan ou zoom est en action).
Plus récemment j'ai rencontré un problème analogue sur une image se déplaçant pour quitter l'écran (sur le montage d'Eric).
Le mouvement n'était pas parfaitement régulier, la charge de calcul variant. Là aussi 2 solutions, j'ai dupliqué comme enfant l'image, l'ai décalée de façon à ce quelle soit bord à bord avec l'image parent et ait mis son opacité à 0.4%. Ainsi il y a toujours la même surface prise en compte dans les calculs et le mouvement devient parfait.
On peut remplacer le fichier par un png transparent, mais même réserve que pour le cas précédent (quoiqu'il y ait une solution avec un petit png qu'on duplique, mais c'est beaucoup de travail).
En conclusion le passage à 0% peut quasiment toujours se faire par un changement de vue en transition instantanée, ce qui est la meilleure solution.
Modifié en dernier par JPD le lun. 05 mars 2007, 08:28, modifié 1 fois.
-
Serge L
- Messages : 5
- Enregistré le : jeu. 22 févr. 2007, 11:54
- Contact :
Qui est en ligne
Utilisateurs parcourant ce forum : Aucun utilisateur enregistré et 1 invité