Rechercher dans la communauté
Affichage des résultats pour les étiquettes 'test'.
3 résultats trouvés
-
Vous allez rire de moi. Le bout d’essai que je présente est truffé de défauts. Ne croyez pas que c’est de ma faute. J’ai tout fait pour essayer de réaliser proprement ce test et j’y ai passé beaucoup de temps. L’idée de départ consistait à voir ce qu’on pouvait faire avec l’intelligence artificielle actuelle. J’avais fait un story-board de 14 minutes inspiré par un passage du livre « L’herbe d’or » de Jakez Hélias. Mon test est une scène de 1 min 30 sec, au milieu du court métrage. J’ai tout défini moi même : les paysages, les décors, les personnages, les accessoires. J’ai tout décrit méticuleusement : l’action, le dialogue, l’éclairage, les bruitages… Mais j’ai beau travailler les « prompts » pendant des heures, je n’obtiens pas exactement ce que je cherche à faire. La principale difficulté est d’assurer la cohérence entre les plans. Pour chaque plan, l’IA recalcule à chaque fois une nouvelle vidéo sans tenir compte des plans précédents, même si mon « prompt » précise que c’est le même personnage et qu’il ne faut pas lui changer la figure et les vêtements à chaque coup. Idem pour les décors, les couleurs, l’éclairage… L’astuce suggérée par le robot conversationnel (français) « Mistral » consiste à générer des images fixes représentant chaque personnage sous différents angles et attitudes. Puis de s’en servir comme référence dans la création de vidéos. Le résultat est imparfait, mais c’est déjà mieux. Certains logiciels s’avèrent plus performants (exemple Veo 3.1 et MyEdit) mais ils prennent des libertés avec ce qu’on leur demande. C’est souvent rédhibitoire. Pour les dialogues, c’est la galère. Je ne maîtrise pas le timbre ni l’intonation de la voix. La synchronisation labiale est aléatoire. Le résultat est tellement irréaliste, que j’ai décidé de mettre les paroles en breton. C’est aussi nul qu’en français, mais comme on ne comprend rien, c’est plus supportable. Je n’ai pas pris le temps de mettre des sous titres. Les mouvements de caméra sont difficiles à maîtriser car l’IA ne travaille pas en 3D. J’utilise parfois des recadrages avec le logiciel de montage, mais c’est au détriment de la qualité d’image. Nos caméscopes, APN, drones, micros et accessoires ont encore de beaux jours devant eux, avant d’aller rejoindre les caméras super 8 sur leur étagère poussiéreuses. Mais le temps passe vite et les progrès sont spectaculaires. Je suis convaincu que l’IA sera capable de faire du vrai cinéma un jour prochain. La vidéo de fiction va devenir plus accessible aux amateurs. On a beau ricaner en regardant mon exercice, il faut reconnaître qu’on peut faire des décors et des paysages sympas en quelques minutes là où il aurait été impossible de fabriquer de tels décors. Il n’y a pas d’impossibilité du système pour assurer la cohérence des vues. C’est une question de méthode. Je suis certain que les développeurs seront capables de créer les outils appropriés. Je me souviens d’un collègue, passionné de photo argentique, qui se moquait de moi quand j’ai acheté mon premier appareil numérique 640 x 480. C’était en 1995.
-
Bonjour, L'autre jour, en rangeant un peu mes affaires, je suis tombé sur un vieux boitier Zenith EM (appareil photo Russe : Made in USSR) que mon beau père avait trouvé à la poubelle. Sur ce boitier, il y avait une objectif Helios-44M. C'est un objectif qui se visse. J'ai fait un tour sur le net et j'ai vite trouvé une bague pour l'adapter. Et zou : je commande. Et voilà.. Évidement c'est du tout manuel. C'est un 58mm qui ouvre à 1:2. Bref, un petit test réalisé aujourd'hui. Ce qui n'aime pas le bokeh s'abstenir ! Par rapport à mon 50mm 1:1.8 5 (Nikon), le plan de netteté est encore plus difficile à régler car très court (ben oui, la focal est un peu plus longue). Mais le bokeh est vraiment pas mal. (On le trouve facilement sur les sites d'enchères)...
-
Bonjour, Comme indiqué ici, j'ai finalement trouvé le temps et le bon moment (pas de vent) pour tester la YI sur mon drone. Je précise que j'ai fixé un polarisant sur l'objectif et je n'ai pas fait de réglage de la colorimétrie en post production. J'ai juste recadré certain plans mais parfois on aperçoit les hélices. Je n'ai pas stabilisé non plus. Au départ, lors du premier montage, j'ai utilisé pas mal d'effets (accélération / ralenti) mais finalement, j'ai tout repris. J'ai un ralenti tout les plans (ils en 30i/s et j'ai baisser la vitesse pour arriver à 24 i/s - soit x 0.8).J'ai gardé les plans avec les "flares" qui sont, bien évidement, naturels (sans doute amplifié par le verre polarisant fixée devant). Il me manque vraiment un retour vidéo et je ne peux régler l'angle de la caméra qu'avant le décollage. Bref, c'est un peu de la pèche avec un coté aléatoire... on trie ce qui l'on trouve dans le chalut... Gabriel