Innanzitutto, ho dato un occhio alle pagine linkate sopra e sono decisamente interessanti, e soprattutto sono prevalentemente testuali, come piace a me. Comunque approfondiscono i workflow di cui stiamo parlando, e mi è parso che ribadiscano il concetto espresso all'inizio di tutto il post, ovvero la necessità (per conservare il massimo della qualità) di trasformare prima tutto dal LOG ad uno spazio ampio, utilizzando trasformazioni RIPETIBILI e CERTE, poi si fa il grading e alla fine si riconverte per il display.
E qui nasce la successiva domanda, ovvero come fare con il display. Potrebbe sembrare leggermente OT, ma nemmeno troppo.
arcanico ha scritto: ↑gio, 26 gen 2023 - 18:12probabilmente l'output è destinato al televisore, per cui dovremmo andare nel menu del tv e vedere quale spazio colore viene proposto di default e se si è in possesso di un tv che permette la scelta di più scenari, scegliere quello che garantisce la migliore qualità possibile.
Partiamo da questo presupposto. Con una premessa: è ovvio che se uno smanetta per il puro gusto di fare delle cose per se, va bene tutto, persino la procedura di lavorare il LOG con le wheels. Se siamo qui a disquisire è perchè, amatori o no, si vuole tentare un approccio professionale all'argomento. Di per se, dato che quello che conta è il risultato, nulla è in assoluto giusto o sbagliato.
Detto questo, riguardo all'output di cui sopra, è vero: probabilmente l'output è destinato al televisore, e probabilmente al profilo Rec709. Ma non è detto: ad esempio, se stai montando anche un semplice video delle vacanze, e possiedi, come molti oggi, un TV in grado di gestire l'HDR potresti desiderare di provarne le potenzialità, magari facendo due versioni del tuo video, una HDR e una no. E tutta la procedura di cui sopra funziona benissimo in quest'ottica: se "colori" in HDR poi è abbastanza semplice fare un output in REC709 per chi n on possiede il TV hdr, o per i telefonini o tablet o quant'altro.
Diciamo anche che il TV in HDR va perfettamente ANCHE in rec709 (ma non il contrario) quindi scegliere come unico output il meglio del proprio TV non è necessariamente la strada giusta, a meno che non si stia facendo un video puramente personale che non si vedrà da nessun'altra parte.
I tv in fondo, non escono dalla fabbrica già calibrati?
Meglio di loro chi può farlo?
In realtà no. O meglio dipende da TV a TV, da tecnologia a tecnologia. Ci sono display, come gli LCD che hanno enormi tolleranze (enormi per chi vuole una calibrazione perfetta, intendo ) e inoltre cambiano nel tempo.
Willyfan in diversi topic propone, tra i disponibili, CalMAN, ma leggendo questo blog del 2019 ( https://www.hdblog.it/2019/02/02/calman ... economica/ ), la spesa minima prevista è di 149$
Chiariamo un punto: se si vuole avere un display decente per fare la color non si può pretendere di usare un monitor da PC da 200 euro. Specialmente se vuoi l'HDR. Esistono alcuni monitor discreti a partire da 500 euro circa, ma la mia personale opinione, che non è obbligatorio condividere, è che il miglior compromesso è un bel TV Oled, LG o Panasonic, bello grande per vedere bene cosa si sta facendo. TV così si trovano oggi a circa 800 euro (un 48" LG ad esempio è sui 780...). Il vantaggio del TV HDR sta nel fatto che è sempre e comunque a 10 bit (questo per anticipare una domanda successiva). Il Calman "economico" va benissimo per questi TV, e non costa più del TV. C'è da dire che, volendo, da mediaworld con circa 100 euro ti fanno la calibrazione con il calman più evoluto, io ho fatto così.
Quindi, personalmente, visti i costi da sostenere e visto lo scopo ultimo che ho personalmente, bypasso la calibrazione e mi faccio andar bene quella che propone il tv.
Ovviamente questa è una tua scelta. Se usi un TV OLED è persino condivisibile, visto che dalle prove pubblicate su varie riviste online riescono ad avere una qualità e una precisione, out of the box, che 10 anni fa avevi su monitor da 30k euro, e ci si potrebbe accontentare. Con un LCD non mi fiderei.
Altra cosa che ho notato è la profondità dei colori in bit.
Ho visto, dalle specifiche del sistema operativo, che la profondità è a 8 bit e non a 10 bit come invece mi era stato detto in fase di acquisto.
Cerco nel manuale del tv e alla voce collegamento al pc, alla risoluzione 4k 60 hz, il valore è 8 bit.
La ripresa in raw della GH6 è a 12 bit, per cui non vedrò mai la qualità reale dell'immagine, sia in risoluzione (5.7k) che in profondità...detto questo, tutto il castello fin qui trattato, cade!
Eccoci, qui stiamo toccando 2 punti diversi, anzi 3 se consideriamo la risoluzione.
a proposito di quest'ultima, il problema non si pone. Se è vero che esistono monitor da 5 e rotti k, pochi sono di qualità dal punto di vista dei colori, e comunque certamente il risultato finale nessuno o quasi lo vedrà a 5,7k. D'altra parte si gira a 5,7k (o 6k nel mio caso con Zcam) non tanto per il delivery a 6k, ma per avere più margine in post, tipo crop, stabilizzazioni, reframe ecc. (e anche un miglior campionamento del colore ma entriamo in un vespaio - un noto ma forse poco preparato (eufemismo) "istruttore" di davinci mi ha bannato su questo argomento...).
Invece i 10 bit possono essere utili per valutare problemi come sfumature e banding (ma non i 12).
Ora, non ho ben compreso il post che parla di 8 bit "nel sistema operativo" e se collegato al PC: se si usa la HDMI non ha senso, la HDMI non sa che sei collegato al PC e quello che arriva arriva. Se invece usi la display port o altro può anche essere che sia limitata a 8 bit. Bisogna poi vedere se il monitor di suo sia DAVVERO a 10 bit e non 8+2 ad esempio, dove i 2 sono ottenuti con il dithering . Se pubblichi la marca e il modello possiamo verificare (io non l'ho visto ma magari mi è sfuggito).
Ora però ricordiamoci di una cosa: per avere la possibilità di gestire i 10 Bit da windows, è necessario installare, con le schede nvidia, i driver studio (in primis) e seconda cosa con davinci si può attivare il full screen a 10 bit SOLO con la versione studio, a pagamento. In alternativa si può installare una scheda tipo decklink minimonitor con la quale si può uscire sia in HDMI che in SDI a 10 bit.
i 10 bit sono necessari come già detto per l'HDR, meno per il rec709, anche perchè occorre considerare che tanti bit servono per la ripresa (anche i 12 o i 14 di alcune macchine) e comunque vengono utilizzati all'interno di davinci anche se "non li vedi". Meno per il delivery, perchè tanto molto materiale finirà per essere visto a 8 bit.