Jump to content

Ektoplasm

Membres
  • Content Count

    43
  • Joined

  • Last visited

Posts posted by Ektoplasm

  1. En fait non, on est surtout dépendant de ce qu'on utilise sans en comprendre le fonctionnement. Quand on utilise un outil simple, on comprend vite ce qui ne va pas. Un marteau par exemple, dont le manche se détache, c'est simple à comprendre et à réparer. Un ordinateur est un produit technologique dont la complexité dépasse l'entendement, dont le produit final utilisé est l'œuvre de milliers d'ingénieurs. De milliers d'humains donc. Il en devient alors impossible d'en comprendre tous les rouages pour une seule personne, qui l'utilise sans y comprendre quoi que ce soit, hormis des rudiments d'utilisateur. Nous sommes donc dépendants d'un outil dont le fonctionnement nous échappe totalement et qui, dès qu'il présente un signe de faiblesse ou un dysfonctionnement, nous interroge, nous stresse, nous met face à notre incompétence, notre incompréhension. Cela nous ramène violement à l'idée qu'on ne veut surtout pas avoir en tête par déni, celle qu'on est dépendant d'une machine à laquelle on ne comprend rien, alors que lorsque tout fonctionne, on a l'impression que cela va de soi. 

     

    C'était la minute philo :D

  2. Désinstallez et réinstallez le logiciel pour commencer. 

     

    Cette erreur n'apprend rien, elle signifie juste qu'une exception fatale commune (violation d'accès, c'est à dire accès à une adresse mémoire non autorisée) s'est produite dans la bibliothéque Qt (bibliothèque open source multi-plateformes pour gérer des interfaces utilisateur, c'est à dire les fenêtres, boutons, listes, etc). Cette bibliothèque est très utilisée par de nombreux éditeurs de logiciels. En soi, tel quel, c'est une erreur de programmation courante, mais cela peut-être dû à de très nombreux facteurs (la complexité de l'informatique dépasse de très loin l'entendement des non programmeurs et même de beaucoup de développeurs). Si vous saviez les milliers de lignes de code machine qui sont à l'œuvre juste pour que vous puissiez simuler l'appui d'un bouton représenté sur l'écran avec votre pointeur de souris sous Windows, vous auriez le vertige. Alors dans la quantité pharaonique de code écrit pas des milliers d'humains que contient et exécute une machine, en plus de la complexité électronique, il faut bien se dire que le fait qu'il n'y ait pas de plantage est en soi un miracle. :)

     

    Commencez donc par le plus simple, désinstaller et réinstaller le logiciel. :)

     

     

     

     

  3. Le plan du train est un insert, il a recadré (et donc fortement grossi) le plan d'origine au montage (c'est le même plan que le plan d'ensemble), c'est d'ailleurs très moche (encore plus que le reste de la vidéo). 

     

    Je ne vois pas ce qu'il y a à truquer, on voit parfois des vidéos bien plus lamentables de mise en danger ou de faux sauvetage d'animal (que le auteurs mettent volontairement dans une situation dramatique en se présentant comme des sauveurs) pour faire le buzz. Il y a une réelle mouvance à faire ce type de vidéos, les idiots et décérébrés qui passent leur temps sur les réseaux sociaux et sont d'une naïveté confondante adorent ces vidéos et louent l'empathie des auteurs. C'est profondément navrant.    

     

    Maintenant, en compositing on pourrait tout à fait ajouter le train, le problème (tout à fait gérable) se situe au niveau de son ombre qui affecte aussi l'homme et le chien. On fait un tracking 3D pour coller un train en 3D aux rails. C'est très courant aujourd'hui de rajouter des véhicules en compositing, de faire des cascades en CGI, dans n'importe quel film (ce n'est pas réservé aux blockbusters ou aux films d'action, pas du tout). On dispose d'outils très puissants pour ça et il n'y a pas besoin d'une équipe de 100 personnes. Beaucoup de vidéastes sont très doués avec ces outils.

     

    Voici un petit clip qui a déjà quelques années et que j'aime beaucoup pour résumer la chose :  

     

     

     

     

     

     

     

     

     

  4. Je suis parfaitement d'accord avec Comemich. Je ne peux pas regarder la plupart des films qui sont présentés ici et ailleurs avec des couleurs dites "naturelles", pour moi elles n'ont rien de "naturel", c'est juste laid en plus d'être le niveau zéro artistique. Mais dès qu'on a une ambition artistique, on s'expose à la critique, ce que je trouve très stimulant. Je reste amusé par ceux et celles qui trouvent les images "belles" en regardant un journal TV sur leur TV UHD (je n'ai plus regardé la TV depuis 1998). Je trouve que c'est le summum de la laideur et parfaitement irréel. Et les photos et films en N&B, c'est "naturel" ? C'est critiquable aussi ? 

     

    "Couleurs naturelles" ça ne veut absolument rien dire. Nous n'avons pas tous le même nombre de cônes et bâtonnets, pas tous la même acuité visuelle, nous ne percevons pas en réalité tous les nuances de couleur de la même façon, de la même manière que nous n'entendons pas tous avec la même acuité ou ne percevons pas les goûts de la même manière. Dans un studio de mastering audio, beaucoup n'entendent aucune différence entre deux réglages différents (A/B), alors qu'elle est physiquement réelle et très bien perçue par l'ingé. Tant de gens ne voient pas la différence entre un rush en AVC ou HEVC et le même rush en RAW, alors que pour moi la différence est colossale. Je ne peux pas regarder de film sur youtube, je trouve ça d'une laideur absolue, je ne vois que des blocs, du banding, des artefacts de compression. Et que dire des personnes qui voient des saccades si un film n'est pas en 60 images / seconde, les obligeant à utiliser l'interpolation de leur téléviseur pour ne pas avoir mal aux yeux ? Et quid des téléviseurs qui sont la plupart du temps mal étalonnés et ne restituent pas les couleurs de la même manière ? 

     

    Et puis "naturel" dans quel sens ? On ne perçoit visuellement la réalité qu'a travers les limites de notre système visuel, qui est très loin d'être ce qui se fait de mieux. D'autres animaux que nous voient le monde très différemment, avec infiniment plus de nuances de couleurs (inimaginable pour nous qui avons l'impression de voir "la réalité", qui n'est que la notre due à nos limitations), un champ de vision beaucoup plus large, dans un spectre bien plus étendu, ou avec une acuité très largement supérieure. Alors qu'est-ce que ça veut dire des "couleurs naturelles" ? "Naturelles" pour qui ? C'est comme ça que vous voyez la vie, d'une façon aussi laide que les images des news TV ? Lorsque vous regardez un bananier devant un coucher de soleil, les bananes vous paraissent-elles aussi jaunes que sous la lumière artificielle de votre cuisine ? A quel moment est-ce la couleur "naturelle" de la banane ? Qui peut dire la couleur qu'ont vraiment les choses qui nous entourent, étant donné nos limitations à ce niveau ? Le ciel est noir par exemple et si nous le voyons bleu c'est à cause de la diffusion de Rayleigh. Mais comment la Squille Multicolore, qui dispose du système visuel le plus perfectionné du règne animal, le voit-elle ? 

     

    Lorsqu'on fait de la création quelle qu'elle soit (j'inclus le documentaire dans la création), on ne cherche pas à reproduire exactement la "réalité" (la réalité de qui d'abord ?), ça n'aurait strictement aucun intérêt, on cherche à transcender, à montrer ce qu'on perçoit ou ce qu'on veut transmettre, à rendre l'émotion qu'on a éprouvé. Le cinéma est un spectacle, une illusion d'optique qui se joue des limites de notre perception visuelle, ça n'a vraiment rien de "naturel". Le fait de travailler l'éclairage, les décors, les teintes, les costumes, la colorimétrie, fait partie du processus artistique et on y passe beaucoup de temps. Est-ce naturel d'évoluer dans un paysage ocre habillé en jaune tout en ayant les cheveux bleus ? Pourtant, ça peut être bien réel (selon nos limites visuelles), ce sont des images du dernier clip que j'ai tourné à Rustrel (le Colorado Provençal). Pas besoin d'un travail d'étalonnage poussé pour que ces images ne paraissent pas "naturelles". Grâce à l'étalonnage aujourd'hui, j'aurais pu rendre le paysage vert, les cheveux de l'artiste châtains et sa veste noire. Cela aurait semblé plus "naturel" sans doute, tout en ne reflétant absolument pas la réalité de la scène. Mais tout ceci est totalement opposé aux news TV, qui n'ont strictement aucune vocation artistique.

     

    Et pour finir, il ne faut pas perdre de vue que les images que nous voyons, outre la colorimétrie, n'ont rien de "naturel". Quand on regarde un film, à aucun moment on a l'impression de voir une véritable scène de la vie se dérouler devant nous, on sait qu'on regarde un écran et pas la réalité directement. Et un capteur, pas plus qu'une émulsion, ne "voit" de façon "naturelle" non plus. On sait que tel ou tel capteur tire sur telle dominante, que tous sont conçus pour être plus sensibles au vert, que la création de l'image qu'on va regarder passe par un processus complexe de transformation, que lorsqu'on regarde avec nos yeux il n'y a pas de bruit ou de grain. 

     

    Alors c'est quoi, des couleurs "naturelles" ? C'est culturel, biologique, chimique, physique ?

     

  5. Les téléviseurs ont des processeurs de traitement d'image de plus en plus évolués, et les technologies évoluent aussi (l'OLED par exemple est supérieur à votre écran "Retina" qui est un écran LCD, mais ils sont aussi plus chers et ont d'autres inconvénients). Chez Apple, les écrans OLED sont dénommés "Super Retina". C'est peut-être pour cela que vous avez trouvé les images plus agréables sur un téléviseur actuel.  

  6. C'est expliqué page 221 du manuel version 2.0, cette option ne fonctionne que dans le mode film visiblement (il y a une contradiction dans le manuel à cette page).  Mais ça fait juste ce que j'ai expliqué, ça permet d'ajuster la vitesse d'obturation. 

  7. Bonjour,

     

    Il y a plusieurs raisons possibles à un phénomène qu'on peut décrire comme du "scintillement". 

     

    La première est due à une vitesse d'obturation inadaptée (probablement trop élevée si c'est à l'extérieur). La règle de l'angle d'obturation à 180° est une base solide. Si vous capturez à 50 im/s par exemple, la vitesse d'obturation (je suppose que vous êtes configuré en mode vitesse et non angle) doit être au 1/100e. L'un des intérêts de travailler en angle d'obturation comme c'est le cas au cinéma, c'est que peu importe la cadence, la vitesse d'obturation suivra toujours : si vous réglez l'angle à 180°, puis que vous capturez à 30 im/s, la vitesse sera de 1/60e , mais si vous décidez ensuite de capturer à 50 im/s, elle sera de 1/100e, automatiquement. Alors qu'en travaillant avec la vitesse d'obturation, il faut l'ajuster chaque fois qu'on change de cadence d'image. 

     

    La deuxième raison est liée à la première. Si vous laissez l'appareil en mode tout automatique, il peut jouer sur la vitesse d'obturation pour contrôler l'exposition, ce qui n'est pas du tout souhaitable lorsqu'on filme. Plus la vitesse est grande, plus chaque cliché est net, ce qui engendre un effet désagréable qu'on peut apparenter à du scintillement dans les zones comportant beaucoup de détails. Lorsqu'on filme, la vitesse d'obturation tout comme la sensibilité (ISO) ne sont pas des paramètres d'exposition, on les fixe pour un plan donné, car ils influent trop sur la perception de l'image.

     

    Une autre possibilité est un mauvais rééchantillonnage lors du visionnage, si vous ne regardez pas les images sur une dalle ayant les dimensions de la capture. Par exemple si vous capturez en UHD (3840x2160) mais que vous regardez sur un écran FHD (1920x1080), l'image est rééchantillonnée et cela peut induire ce phénomène dans les zones très détaillées, surtout si vous capturez à une cadence élevée (50 ou 60 im/s). 

     

    Enfin, un débit binaire trop faible avec les codecs de diffusion peut aussi engendrer cela dans les zones comportant beaucoup de détails, puisque ces codecs sont destructifs et pas très efficaces dans les zones très détaillées (notamment à faible débit). 

     

    Pour filmer, il faut être dans le mode dédié et non dans un mode photo général et il faut fixer à minima les ISO et la vitesse d'obturation. 

     

  8. Bonjour,

     

    Le matériel que j'utilise le permet (plusieurs boitiers et caméras) mais je n'en ai aucune utilité (par exemple le GH5S, qui permet de capturer en 50p et 60p en 4K DCI ou en UHD). On s'en sert parfois pour certains plans VFX mais c'est tout. La chaine de diffusion étant en 24p ou 25p, on tourne très majoritairement à ces cadences. De plus, je ne suis pas très friand des hautes cadences (HFR), chaque cliché étant plus net (si on reste à 180°, cela équivaut à une exposition de 1/100e de seconde pour du 50p) cela donne un aspect esthétique à l'image qui ne me plait pas vraiment. Ce doit par contre être très utile dans certains cas (sport, reportage).   

     

    Il n'y a aucun problème spécifique à la cadence d'images (mis à part le fait que plus on monte en cadence, plus chaque cliché est exposé brièvement et donc plus il faut de lumière), à quoi faites-vous référence ?

     

     

     

     

     

     

  9. Un texte figé par dessus des images en mouvement, c'est un titrage. 

     

    Si par contre vous voulez incruster un texte dans le décor de l'image en mouvement, de manière à ce qu'il soit comme collé au décor (et donc qu'il bouge avec l'élément de décor), c'est en effet à minima un tracking planaire qu'il faut effectuer, voire un tracking 3D selon l'effet recherché. 

     

    Puisque vous êtes sous MacOS et sous FCPX, Motion est probablement l'outil qu'il vous faut (pour du tracking planaire uniquement). Je doute que vous trouviez des plugins gratuits pour effectuer cette tâche, mais peut-être que d'autres utilisateurs en connaissent.   

     

     

  10. il y a 19 minutes, Thierry P. a dit :

    Oui. Mais si quelqu'un s'exprime au sujet des PDM de la photo, il est obligé de parler de tous les hybrides, même ceux photo-vidéo. Le segment ("photo-vidéo") peut interférer sur l'analyse, le commentaire mais (on est d'accord il me semble) pas sur le fait même d'écarter Panasonic.

    Oui nous sommes d'accord. Toutefois, il reste entre 6 à 7% de parts de marchés pour lesquels aucune marque n'est prise en compte dans les graphiques relayés par le site qui lui a servi de source (Olympus, Pentax / Ricoh, Minolta, Hasselblad, Mamiya, etc...). 

     

    Les chiffres du CIPA sont encore plus effrayants dans le détail, il se vend en moyenne depuis 2020 (la tendance semble stable pour 2021 jusqu'à maintenant) autour de 700 000 appareils chaque mois dans le monde, tous types confondus (compacts, bridges, reflex, hybrides). Ce compte-rendu permet aussi de se rappeler que ce marché est sous hégémonie Japonaise. 

     

     

  11. Je suis tout à fait d'accord, l'occultation de Pana est la première chose qui m'a frappé en regardant son analyse. Mais je pense que c'est parce-que cette personne ne voit les choses qu'a travers le prisme de la photographie, alors que Panasonic est un groupe très diversifié probablement plus réputé sur le segment vidéo que photo. S'interroger sur l'avenir incertain du M4/3 aurait aussi été bienvenu en effet.  

     

    D'une part, en ce qui concerne les chiffres du marché (issus du CIPA), je les connaissais déjà, suivant cela régulièrement. Ils n'ont rien de surprenant, c'est l'apanage de tous les marchés technologiques qui sont en constante évolution. Le passage de l'argentique au numérique a laissé beaucoup de monde sur le carreau, à commencer par le géant depuis très longtemps qu'était Kodak, mais aussi beaucoup de boutiques, de studios, de photographes même. Le marché du smartphone/photophone a moins de 20 ans et a déjà fortement bouleversé de nombreux marchés, pas uniquement celui de la photo.

     

    Les bouleversements, rachats, faillites de grands groupes, reconversions, ont été légion et sont toujours omniprésents dans les domaines technologiques. Même si les mastodontes d'aujourd'hui paraissent inébranlables, en réalité les marchés technologiques sont fragiles et sans cesse bousculés, des géants peuvent s'éteindre ou se reconvertir. Qui a bien connu et suivi de près depuis les tous débuts de l'informatique grand public, de l'Internet grand public ou de la téléphonie mobile ne peut que constater à quel point les bouleversements ont été légion, laissant énormément de pionniers et d'acteurs majeurs sur le carreau, souvent oubliés depuis. Nikon pourrait ainsi parfaitement disparaitre ou se recycler à terme, même si cela parait impensable aujourd'hui. Cela dit, le smartphone pourrait tout aussi disparaitre à l'avenir au profit d'un nouveau dispositif miniature.  

     

    D'autre part, il parle des cameras sous forme de lentilles de contact connectées en tant que projet hypothétique, alors qu'il y a plusieurs projets avancés en ce sens chez des acteurs majeurs. Lors d'une conférence avec Darius Khondji, une intervenante parlait de ces lentilles comme l'avenir, arguant que tout réalisateur rêvait de pouvoir filmer directement ce qu'il voit sans passer par un processus complexe à mettre en œuvre et des intermédiaires (le chef opérateur, le cadreur). Mais dans le même temps, si les caméras de cinéma n'ont de cesse de se miniaturiser, la taille des capteurs n'a elle de cesse de grandir, ce qui ne va pas dans le sens de ces lentilles, qui pourraient cependant être réservées à d'autres usages (le reportage par exemple). 

     

     

  12. C'est plus de travail en post prod de faire ça avec un fond vert. De plus ça n'enlèverait rien au fait qu'elle doit être suspendue, puisqu'elle ne peut pas reposer sur ses pieds vue sa position. C'est donc plus simple de la filmer directement dans le décor, suspendue par un câble via un harnais. 

  13. Il y a 15 heures, NOEL a dit :

    Pour moi, c'est une image fixe que l'on déplace vers le haut incrustée dans la vidéo de la scène.

    Bonne idée mais je la vois bouger sur l'image, sa main gauche (à droite de l'écran) et ses pieds ne me semblent pas immobiles. 

  14. C'est interdit quelle que soit la plateforme, le droit d'auteur ne permet pas d'utiliser le travail d'un autre dans son propre travail sans l'accord express ou sans rémunérer l'auteur initial. A moins que la licence le permette (Creative Commons par exemple).  

     

    Créer et produire une musique demande du temps et de l'argent, c'est un métier pour certaines personnes. Si tu étais musicien de métier, tu n'accepterais probablement pas que des gens utilisent ta musique gratuitement dans leurs films. La nuance est dans le probablement, parce-que tout le monde n'a pas la même tolérance à cet égard. 

     

    Un ami qui vient d'être produit par une major, engrange des revenus à chaque diffusion de son titre ou lorsqu'un DJ diffuse ou remixe son titre. Ce n'est pas lui qui ira te taper sur les doigts si tu utilises sa musique dans ton film (il s'en fiche, tout comme moi), mais la major qui ne l'entends pas de cette oreille étant donné ce qu'elle investit dans la promotion et la diffusion du titre. 

     

    Je suis réalisateur et musicien et je suis contre le droit d'auteur. Mais il y a des limites. Sinon je crée des choses, tout le monde s'en empare comme il le veut, et je ne gagne plus d'argent (il en faut au moins un peu pour vivre). Il y a donc un juste milieu à trouver.

     

    Concernant Vimeo, voici la FAQ qui décrit cela :

     

    https://help.vimeo.com/hc/en-us/sections/203915108-Fair-Use

     

    Ce qui te concerne spécifie : 

     

    "We strongly advise against using a commercial music recording as the background song of your video, particularly if you’re just looking to enhance the impact of your video"

     

    C'est à dire que Vimeo DECONSEILLE FORTEMENT d'utiliser une musique commerciale en tant que fond sonore dans une vidéo. Ce n'est pas Vimeo qui te tapera sur les doigts, ce sont les ayant droits s'ils tombent sur ta vidéo. YT utilise un algorithme d'analyse pour tenter d'écarter d'office les musiques commerciales (avant d'avoir une plainte des ayants droits). 

  15. N'étant pas joueur, en ce qui concerne spécifiquement les jeux je n'en sais rien. Mais le principe est le même. 

     

    Pour les films, le HDR est une avancée inévitable. On filme en "HDR" (avec une grande dynamique) depuis très longtemps, mais on avait pas de dispositif de diffusion capable de restituer cela (à cause de contraintes techniques), alors en post production on faisait des compromis et une conversion HDR -> SDR, en sacrifiant des détails dans les basses ou hautes lumières. Il y a plusieurs normes HDR actuellement, mais toutes on le même but : offrir des images plus proches de nos capacités visuelles, plus réalistes donc. Nos yeux voient en HDR.

     

    La dynamique, c'est l'écart entre le signal le plus faible et le plus fort. Lorsqu'on parle de dynamique d'une image, on parle de sa capacité à représenter des zones très sombres et des zones très claires sans perdre de détails dans ces extrêmes. Notre système visuel est capable de cela, on peut regarder l'extérieur par une journée très ensoleillée à travers une fenêtre située dans une pièce sombre. Or on verra très bien la pièce sombre mais aussi l'extérieur très lumineux. Lorsqu'on filme ça avec une caméra basique, on devra faire des compromis, l'extérieur sera "cramé" (quasiment blanc avec très peu de détails) ou l'intérieur sombre sera quasiment noir et sans aucun détail visible, ceci parce-que la caméra ne peut pas capturer la grand dynamique de la scène. 

     

    Le Dolby Vision est un label qui définit en ensemble de choses dont la norme HDR la plus ambitieuse et la plus coûteuse à mettre en œuvre. Grâce a elle, à terme (les équipements sont encore loin d'avoir atteint les objectifs fixés), un film pourra être vu exactement tel qu'il a été filmé et conçu sur tout appareil compatible. Ceci est notamment rendu possible par les métadonnées associées aux images. Chaque plan du film informe le diffuseur (téléviseur par exemple) de la façon dont il faut le reproduire. Comme l'immense majorité des gens ne savent absolument pas régler leur téléviseur, cette norme permet de s'affranchir des réglages inappropriés pour restituer au mieux l'image telle qu'elle a été conçue. 

     

    Il y a d'autres normes HDR et cela n'affecte pas que la dynamique ou l'intensité lumineuse mais aussi la reproduction des couleurs. Le 10 de HDR10 signifie que les composantes couleur (rouge, vert et bleu) sont encodées avec 10 bits (au lieu de 8 normalement). 10 bits permettent de coder 1024 nuances pour une composante couleur, alors que 8 bits ne permettent que 256 nuances. Avec 8 bits par composante couleur, on peut reproduire plus de 16 millions de nuances de couleurs. Avec 10 bits par composante couleur, on peut en représenter 1 milliard (1024 x 1024 x 1024). Le Dolby Vision lui, qui est un label, utilise 12 bits par composante couleur (4096 nuances par composante), ce qui permet de représenter 68 milliards de nuances de couleurs. 

     

    Il y a d'autres notions qui entrent en jeu dans les normes HDR, notamment la luminosité maximale, qu'on mesure en nits (ou candelas/m2). Lorsqu'on regarde à l'extérieur par une journée ensoleillée, on doit parfois fermer un peu nos yeux pour supporter l'intense luminosité. On a pas cet effet en regardant la même image sur un écran, parce-que la luminosité reproduite par un écran est infiniment plus faible que dans la nature. Or le but des normes HDR est aussi de faire en sorte que les diffuseurs (écrans, projecteurs) puissent atteindre une forte luminosité. Dolby Vision a fixé comme objectif 10 000 nits, sachant qu'on en est encore très loin, car même si certains téléviseurs prétendent afficher 1500 nits ou plus, ils ne peuvent pas le faire sur la totalité de la dalle en même temps.    

     

    Pour les jeux, qui ne capturent pas leurs images avec des caméras, l'enjeu doit être de fournir des images plus réalistes et donc plus immersives. 


     

  16. Il doit donc probablement s'agir d'un réglage sur la mixette (si vous utilisez un micro mono par exemple, son signal mono est-il bien dupliqué sur le 2e canal ? J'ai ce type de réglage sur le DR60D) ou d'un mauvais contact du câble stéréo qui entre sur le boitier.

  17. C'est à dire ?

     

    Je ne connais pas cet appareil. J'enregistre le son à part sur un DR60MKII dont j'injecte ensuite la sortie à titre de témoin sur le GH5 (pour une synchro automatique via PluralEyes). C'est donc similaire à ce vous faites (hormis l'enregistrement séparé) et l'enregistrement sur le GH5 est toujours stéréo (puisque la sortie du DR60D est stéréo). 

     

    Vous voulez dire que vous n'avez qu'un seul canal enregistré sur le fichier issu du GH5 (le gauche ou le droit) ?

  18. Il y a 11 heures, plouf a dit :

    Si je recherche d'autres outils que le HD, c'est parce que j'ai une approche plastique de l'image. Les standards de l'industrie ne m'intéresse pas beaucoup. Et c'est vraiment une fausse croyance que tout se fait à l'étalonnage. 

    Il est tout aussi illusoire de croire que les standards technologiques et l'approche artistique sont en opposition. :) S'intéresser de près aux solutions technologiques permet de mesurer toute l'étendue des possibilités qu'elles offrent artistiquement. Je me contrefiche de la technologie, par contre je suis très intéressé par ce qu'elle m'offre en terme de liberté artistique, donc je m'y intéresse beaucoup. 

     

    Les premiers hommes qui ont peint devaient d'abord apprendre à fabriquer les outils et pigments. Ce n'est pas inné, il faut maitriser différents aspects techniques, aussi rudimentaires puissent-ils êtres. Si vous filmez, votre outil de base est la caméra, un outil hautement technologique, il est donc indispensable de savoir ce qui se fait à ce niveau et ce que permet chaque outil, avant de dire : "il est impossible d'obtenir le rendu qui me plait avec cet outil". Concernant l'étalonnage et plus généralement la post production, on peut faire à peu près ce qu'on veut aujourd'hui, comme un peintre devant sa toile. 

     

    Ce que vous aimez dans l'image argentique (il faudrait le définir, les émulsions modernes étant très différentes de celles d'autrefois), je suis à peu près sûr que vous pouvez l'obtenir autrement. Les moyens à disposition en post production aujourd'hui sont incomparables avec que qu'on avait à l'époque du pur argentique. Ce n'est pas parce qu'il n'y a pas une volonté farouche de faire en sorte que les images d'une Alexa 65 soient identiques à celles d'une émulsion 70mm que ce n'est pas possible. C'est juste que dans ce cas, autant capturer directement sur une émulsion 70mm puis la scanner ensuite. 

     

  19. L'argentique a un rendu particulier mais est dépassé par le numérique aujourd'hui à tous les niveaux. C'est comme en son, la K7 audio ou le vinyl sont bien inférieurs techniquement (moins bonne dynamique, moins bonne image stéréo) au numérique. Partant de cela, il est possible d'imiter le rendu des supports inférieurs en post production, comme cela se fait également en son en imitant les défauts des magnétos à bande ou de vieux synthés (par émulation) par exemple.

     

    L'immense majorité des productions cinéma se fait en numérique aujourd'hui et beaucoup de films sont traités pour imiter le rendu de la pellicule (mais clairement pas tous, tout le monde n'étant pas nostalgique de l'argentique). Certaines caméras numériques de cinéma ont même un générateur de grain sophistiqué pour imiter ce qu'on obtient avec les sels de la pellicule. Ils sont quand même rares les réals qui filment encore en pellicule aujourd'hui, d'autant plus que c'est post produit en numérique par la suite. Pour moi, qui ai longtemps été féru de pellicule et fervent défenseur de l'argentique, ça s'apparente plus aujourd'hui à des "caprices de stars" qu'a autre chose. Ce peut-être intéressant en effet sur certains projets, comme l'interview de Chomsky par M. Gondry avec sa 16mm à ressort, parce-que c'est une approche expérimentale et que les contraintes techniques faisaient parties du défi à la base. 

     

    En post prod on peut rajouter le grain de pellicules connues (qui ont été échantillonnées), émuler leur réponse gamma et colorimétrique, ainsi que leur dynamique inférieure.    

     

    Cela n'a rien à voir avec le capteur. Je tourne beaucoup avec des boitiers M4/3 et on obtient le résultat qu'on veut selon le projet. La qualité des optiques, de la lumière, de l'exposition et du traitement en post prod influent majoritairement sur le rendu final. Sur des festivals de court métrage, on voit des films tournés au smartphone qui bénéficient d'une très belle image imitant l'argentique. Mais le mieux, c'est évidement de partir d'une image avec la meilleure dynamique possible pour pouvoir la réduire au besoin (l'inverse étant impossible, on ne peut pas recréer ce qui a été perdu). 

     

    J'ai tourné des publicités et des clips en 35mm dans les années 90, je ne peux plus les regarder, il faudrait les remasteriser en numérique, les nettoyer. L'image, qu'on trouvait superbe à l'époque, est terne et granuleuse par rapport aux standards d'aujourd'hui. Il ne faut pas perdre de vue que les émulsions ont aussi beaucoup évoluées au fil du temps, parler d'une image argentique ne veut rien dire en soit (de quelle époque ?). J'ai aussi des masters Betacam de films corporate des mêmes années, et c'est vraiment pas joli, je ne vois que les défauts (manque cruel de dynamique, faible définition). Beaucoup de films argentiques d'un certain âge sont remasterisés en numérique, petit à petit, pour coller aux standards de qualité d'aujourd'hui. La 8K (ou même la 6.5K) est définitivement supérieure en définition à la pellicule 35mm.

     

    Si tu aimes autant le rendu argentique, le plus simple est d'acquérir une vieille caméra argentique et de faire scanner tes rushs. Ou alors d'apprendre les techniques de post production qui permettent, à partir d'une image numérique, de lui donner un aspect proche de celui de l'argentique. 

  20. En fonction de tes besoins en codec, tu te réfères à cette liste

     

    https://www.atomos.com/compatible-drives/?product=ninja-v

     

    Puis tu prends des Master Caddy II pour y mettre le SSD de ton choix

     

    https://digistore.fr/atomos-master-caddy-ii-5pack-cad112

     

    Un Sandisk Ultra 3D de 500Go est autour de 100€, par exemple (autour de 70€ le 250Go)  : 

     

    https://www.amazon.fr/Sandisk-Ultra-500Go-2-5-Série/dp/B078SCRL3R/

     

    A savoir que la liste des médias donnée par Atomos est très loin d'être exhaustive. Je tourne sur des SSD qui ne sont pas dans la liste et qui sont bon marché, comme les 860 EVO. Ne pas oublier aussi qu'actuellement (à cause de plusieurs facteurs dont la crise sanitaire), les tarifs sont assez délirants. 

     

     

     

  21. Je n'ai jamais utilisé et ne possède aucun appareil splittant les fichiers à l'enregistrement donc je ne peux pas tester.  Mais en effet, si dans son cas seul le premier fichier est lisible (les suivants ne l'étant pas avec un lecteur puisque pas de header), je doute que Shutter Encoder se contente de concaténer les fichiers binaires tel quel. Il serait intéressant de tester, je n'ai jamais utilisé cette fonction "bout-à-bout" (Merge). 

     

    Si j'avais besoin de concaténer, je passerais également naturellement par la ligne de commande, mais je sais que tout le monde n'est pas à l'aise avec cela. 

     

  22. C'est vrai, le camescope n'a plus la côte, et les innovations se passent du côté des boitiers mirrorless ou des caméras plus ou moins en forme de cube (comme les RED, l'Alexa Mini, les Canon CXXX, Black Magic, Kinefinity, Z-CAM, Panasonic avec le BGH-1, etc...). C'est vrai aussi qu'il faut investir dans des optiques et les accessoires divers selon ses besoins. C'est plus modulaire donc ça peut vite revenir plus cher qu'un camescope. Les capteurs sont aussi plus grands que sur bien des camescopes, offrant une profondeur de champ plus réduite (et obligeant donc à veiller plus attentivement à sa mise au point) et une meilleure sensibilité en basse lumière, donc moins de bruit.     

     

    Un camescope dispose d'une ergonomique particulière. Un boitier ou un cube est plus polyvalent : on peut le monter sur un rig d'épaule avec un viseur pour le transformer en camescope, sur un gimbal léger, sur certains drones, sur un pied, sur une petite grue. Et on peut changer les objectifs, ce qui est vraiment un plus (bien que ce soit possible aussi sur certaines caméras au format camescope). On peut l'accessoiriser comme on veut, de manière très légère où jusqu'à l'extrême, selon les besoins. 

     

     

  23. J'ai bien regardé justement, ce câble sert au GH3, GH4 et G95 et offre un contrôle limité (comme les petites télécommandes déportées), c'est pourquoi il est optionnel. Il n'est pas fait mention qu'il fonctionne avec d'autres appareils Panasonic que ceux-là dans la liste des appareils supportés. Sur le store, il est bien spécifié de se référer au fichier de compatibilité pour savoir si ce câble fonctionne avec un appareil. Ce fichier est ici https://terra-1-g.djicdn.com/851d20f7b9f64838a34cd02351370894/ronin_compaitibility/DJI RSC 2 Camera Compatibility List.xlsx

     

    On y trouve les dernières caméras Panasonic (comme le BGH-1 ou le GH5S) mais clairement aucun camescope. Le point commun des appareils cités est qu'ils fonctionnent de la même manière et font partie de la gamme Lumix. Je doute donc que ça fonctionne avec ton camescope, mais tu peux néanmoins tester, des fois que... :)

     

    Il faudrait aussi que tu puisses tester l'équilibrage en réel avant d'acheter. Comme c'est une question à laquelle j'ai déjà répondu plusieurs fois sur un autre forum, les seules vidéos de test de camescopes montés sur ce type de gimbal que j'ai trouvées sont peu convaincantes et relèvent plus du bricolage qu'autre chose. C'est peut-être possible, notamment avec des contrepoids, mais dans ce cas tu as bien d'autres gimbals moins chers et tout aussi performants qui conviendraient aussi bien (et qui ne pourrons pas commander ton camescope non plus évidemment). 

     

     

×
×
  • Create New...

Important Information

j'accepte les cookies de ce site. Terms of Use