willyfan ha scritto:
maxandfriend ha scritto:
Oltretutto mi pare improbabile, come ho già avuto modo di scrivere, che la sony non abbia dotato un prodotto di fascia medioalta/alta (tra le consumer, ovviamente) come la AX53, di risorse hardware sufficienti ad utilizzare i maggiori fps del settaggio NTSC senza decadimento di prestazioni.
Sarebbe come affermare che in genere le telecamere destinate al mercato americano producono fotogrammi(di poco o di molto) più scadenti di quelle per il mercato europeo... e mi pare poco verosimile, ma potrei sbagliare...
Infatti sbagli. Come ti ha fatto notare già clicknclips qualche post fa, è banalmente una questione di matematica. Ovvero, per farla semplice, se in un secondo ho 50 frame e il mio bitrate è, poniamo, 100 mbps, avrò mediamente dedicati ad ogni frame 2mbit. Se con lo stesso bitrate (perché il bitrate NON CAMBIA da pal a ntsc) ne devo registrare 60 avrò a disposizione per ogni frame 1,6 mbit. Non è differenza da poco, mi pare, è non è colpa di Sony o delle risorse hardware, ma della matematica. Un po' come la storia della moglie e della botte.
OK, il ragionamento è matematicamente chiarissimo ma, nella pratica, ha un senso solamente dando per scontato che nel tuo esempio l'utilizzo di 1,6mbit per frame sia insufficiente.
Provo di spiegarmi meglio: non è la ridondanza che migliora la qualità.... se 1,6mbit non mi bastano, dovrò scendere a dei compromessi per far rientrare in quella larghezza di banda la maggior quantità possibile di informazioni a partire da quelle indispensabili, poi quelle più importanti ed infine quelle un po' meno, fino a tagliare quelle meno importanti una volta che lo spazio a disposizione si satura.
Ma se, per esempio, per la rappresentazione di un fotogramma in tutti i suoi dettagli mi servissero 1,2mbit, il fatto di utilizzarne 1,6 o 2 o anche più, non migliorerebbe minimamente il risultato.
Io tenderei quindi a pensare che Sony, abbia fatto bene i suoi conti e, se ha deciso di usare quei bitrate nei suoi prodotti, probabilmente sa che un bitrate maggiore non sarebbe stato utile a migliorare il risultato in maniera apprezzabile.
Questa mia supposizione, peraltro, si presta anche a spiegare la percezione dei più, secondo i quali passando da 60 a 100mbit l'incremento di qualità è quasi impercettibile... semplicemente quei 40mbit in più potrebbero essere, se non tutti, in larga parte ridondanti nella maggior parte dei casi.
Ovvio che poi dipende da fotogramma a fotogramma.... non tutti contengono le stesse informazioni... ecc... ecc... ma qui ci concediamo di generalizzare un po' e prendere in considerazione la media.
willyfan ha scritto:
maxandfriend ha scritto:Invece una cosa che non sapevo è il limite di percezione dell'occhio umano, come pure non so nulla di quella migliore "malleabilità" del 24p.
quando è nato il cinema, si riteneva che la per percezione dell'occhio umano si limitasse a 16 - 18 fps. Poi ci si è accorti che in realtà non è così e si è stabilmente passati a 24, che in genere accontentano tutti i palati (dubito che in un film d'azione tu abbia visto scene peggiori di quelle della gopro a 60 fps, in caso dimmi quale).
È anche vero che comunque una certa percezione di scattosità a 24 permane, e viene persino spesso utilizzata a fini artistici - vedi "salvate il soldato Ryan".
La percezione invece degli fps varia a seconda dell'allenamento ma soprattutto da quale area dell'occhio è interessata. Le zone periferiche di un occhio allenato di un pilota da caccia militare percepiscono i 200 fps, ma non nel senso di fluidità ma semplicemente perché una immagine per arrivare al cervello deve durare almeno quel tempo. Le parti centrali dell'occhio sono molto meno sensibili al movimento e sebbene i gamer cercano fps sempre più alti, nel caso del video , a meno di non usare shutter velocissimi, la visione centrale sopra i 50 fps è praticamente la stessa.
Fai una prova e vedrai.
Io sono sicuramente l'ultima persona titolata per giudicare la qualità di una scena da film al confronto con la Gopro a 60fps, quindi mi astengo certamente.
Ma allora... le frequenze di refresh dei monitor o dei tv al di sopra dei 50fps a che servono...?!?
60, 75, 100 e più sono solo specchietti per le allodole...?
willyfan ha scritto:
La, malleabilità dei 24 fps rispetto ai 25 è essenzialmente dovuta al fatto che girando a 24, come viene fatto per tutti i film, è più semplice convertire a 30 (tramite 3:2 pull down) o a 25 con minimale accelerazione, come tutti i film visti in TV o su DVD.
Quindi girare a 24 rende un prodotto più facilmente distribuibile senza perdite di qualità.
Qui allora probabilmente il limite è dato dal fatto che, al tempo di prima adozione dello standard, la tecnologia non lasciava molte alternative.... oggi non sarebbe forse meglio fare tutto il girato a frequenza molto alta e poi eventualmente ridurla a una frazione dell'originale, piuttosto che fare l'inverso..?