Benvenuto su VideoMakers.net
Iscriviti per condividere la tua passione sul principale sito web italiano dedicato al VideoMaking!

Gli eventuali inserti pubblicitari all'interno delle discussioni sono visibili solo se non hai eseguito l'accesso al forum; ricordati di eseguire l'accesso o, se non sei ancora registrato, fallo QUI

Clicca qui per leggere le regole del forum
Discussioni sulle Telecamere, MonoCCD, 3CCD, Cmos, Professionali, miniDV, HDV, Analogiche ed il loro utilizzo.

Moderatore: Moderatori

da willyfan
#1305959

maxandfriend ha scritto: Oltretutto mi pare improbabile, come ho già avuto modo di scrivere, che la sony non abbia dotato un prodotto di fascia medioalta/alta (tra le consumer, ovviamente) come la AX53, di risorse hardware sufficienti ad utilizzare i maggiori fps del settaggio NTSC senza decadimento di prestazioni.
Sarebbe come affermare che in genere le telecamere destinate al mercato americano producono fotogrammi(di poco o di molto) più scadenti di quelle per il mercato europeo... e mi pare poco verosimile, ma potrei sbagliare...
Infatti sbagli. Come ti ha fatto notare già clicknclips qualche post fa, è banalmente una questione di matematica. Ovvero, per farla semplice, se in un secondo ho 50 frame e il mio bitrate è, poniamo, 100 mbps, avrò mediamente dedicati ad ogni frame 2mbit. Se con lo stesso bitrate (perché il bitrate NON CAMBIA da pal a ntsc) ne devo registrare 60 avrò a disposizione per ogni frame 1,6 mbit. Non è differenza da poco, mi pare, è non è colpa di Sony o delle risorse hardware, ma della matematica. Un po' come la storia della moglie e della botte.
maxandfriend ha scritto:Invece una cosa che non sapevo è il limite di percezione dell'occhio umano, come pure non so nulla di quella migliore "malleabilità" del 24p.
quando è nato il cinema, si riteneva che la per percezione dell'occhio umano si limitasse a 16 - 18 fps. Poi ci si è accorti che in realtà non è così e si è stabilmente passati a 24, che in genere accontentano tutti i palati (dubito che in un film d'azione tu abbia visto scene peggiori di quelle della gopro a 60 fps, in caso dimmi quale).
È anche vero che comunque una certa percezione di scattosità a 24 permane, e viene persino spesso utilizzata a fini artistici - vedi "salvate il soldato Ryan".
La percezione invece degli fps varia a seconda dell'allenamento ma soprattutto da quale area dell'occhio è interessata. Le zone periferiche di un occhio allenato di un pilota da caccia militare percepiscono i 200 fps, ma non nel senso di fluidità ma semplicemente perché una immagine per arrivare al cervello deve durare almeno quel tempo. Le parti centrali dell'occhio sono molto meno sensibili al movimento e sebbene i gamer cercano fps sempre più alti, nel caso del video , a meno di non usare shutter velocissimi, la visione centrale sopra i 50 fps è praticamente la stessa.
Fai una prova e vedrai.

La, malleabilità dei 24 fps rispetto ai 25 è essenzialmente dovuta al fatto che girando a 24, come viene fatto per tutti i film, è più semplice convertire a 30 (tramite 3:2 pull down) o a 25 con minimale accelerazione, come tutti i film visti in TV o su DVD.
Quindi girare a 24 rende un prodotto più facilmente distribuibile senza perdite di qualità.




William Fanelli


#1305995
willyfan ha scritto:
maxandfriend ha scritto: Oltretutto mi pare improbabile, come ho già avuto modo di scrivere, che la sony non abbia dotato un prodotto di fascia medioalta/alta (tra le consumer, ovviamente) come la AX53, di risorse hardware sufficienti ad utilizzare i maggiori fps del settaggio NTSC senza decadimento di prestazioni.
Sarebbe come affermare che in genere le telecamere destinate al mercato americano producono fotogrammi(di poco o di molto) più scadenti di quelle per il mercato europeo... e mi pare poco verosimile, ma potrei sbagliare...
Infatti sbagli. Come ti ha fatto notare già clicknclips qualche post fa, è banalmente una questione di matematica. Ovvero, per farla semplice, se in un secondo ho 50 frame e il mio bitrate è, poniamo, 100 mbps, avrò mediamente dedicati ad ogni frame 2mbit. Se con lo stesso bitrate (perché il bitrate NON CAMBIA da pal a ntsc) ne devo registrare 60 avrò a disposizione per ogni frame 1,6 mbit. Non è differenza da poco, mi pare, è non è colpa di Sony o delle risorse hardware, ma della matematica. Un po' come la storia della moglie e della botte.


OK, il ragionamento è matematicamente chiarissimo ma, nella pratica, ha un senso solamente dando per scontato che nel tuo esempio l'utilizzo di 1,6mbit per frame sia insufficiente.

Provo di spiegarmi meglio: non è la ridondanza che migliora la qualità.... se 1,6mbit non mi bastano, dovrò scendere a dei compromessi per far rientrare in quella larghezza di banda la maggior quantità possibile di informazioni a partire da quelle indispensabili, poi quelle più importanti ed infine quelle un po' meno, fino a tagliare quelle meno importanti una volta che lo spazio a disposizione si satura.
Ma se, per esempio, per la rappresentazione di un fotogramma in tutti i suoi dettagli mi servissero 1,2mbit, il fatto di utilizzarne 1,6 o 2 o anche più, non migliorerebbe minimamente il risultato.
Io tenderei quindi a pensare che Sony, abbia fatto bene i suoi conti e, se ha deciso di usare quei bitrate nei suoi prodotti, probabilmente sa che un bitrate maggiore non sarebbe stato utile a migliorare il risultato in maniera apprezzabile.

Questa mia supposizione, peraltro, si presta anche a spiegare la percezione dei più, secondo i quali passando da 60 a 100mbit l'incremento di qualità è quasi impercettibile... semplicemente quei 40mbit in più potrebbero essere, se non tutti, in larga parte ridondanti nella maggior parte dei casi.
Ovvio che poi dipende da fotogramma a fotogramma.... non tutti contengono le stesse informazioni... ecc... ecc... ma qui ci concediamo di generalizzare un po' e prendere in considerazione la media.


willyfan ha scritto:
maxandfriend ha scritto:Invece una cosa che non sapevo è il limite di percezione dell'occhio umano, come pure non so nulla di quella migliore "malleabilità" del 24p.
quando è nato il cinema, si riteneva che la per percezione dell'occhio umano si limitasse a 16 - 18 fps. Poi ci si è accorti che in realtà non è così e si è stabilmente passati a 24, che in genere accontentano tutti i palati (dubito che in un film d'azione tu abbia visto scene peggiori di quelle della gopro a 60 fps, in caso dimmi quale).
È anche vero che comunque una certa percezione di scattosità a 24 permane, e viene persino spesso utilizzata a fini artistici - vedi "salvate il soldato Ryan".
La percezione invece degli fps varia a seconda dell'allenamento ma soprattutto da quale area dell'occhio è interessata. Le zone periferiche di un occhio allenato di un pilota da caccia militare percepiscono i 200 fps, ma non nel senso di fluidità ma semplicemente perché una immagine per arrivare al cervello deve durare almeno quel tempo. Le parti centrali dell'occhio sono molto meno sensibili al movimento e sebbene i gamer cercano fps sempre più alti, nel caso del video , a meno di non usare shutter velocissimi, la visione centrale sopra i 50 fps è praticamente la stessa.
Fai una prova e vedrai.


Io sono sicuramente l'ultima persona titolata per giudicare la qualità di una scena da film al confronto con la Gopro a 60fps, quindi mi astengo certamente.

Ma allora... le frequenze di refresh dei monitor o dei tv al di sopra dei 50fps a che servono...?!?
60, 75, 100 e più sono solo specchietti per le allodole...?


willyfan ha scritto:
La, malleabilità dei 24 fps rispetto ai 25 è essenzialmente dovuta al fatto che girando a 24, come viene fatto per tutti i film, è più semplice convertire a 30 (tramite 3:2 pull down) o a 25 con minimale accelerazione, come tutti i film visti in TV o su DVD.
Quindi girare a 24 rende un prodotto più facilmente distribuibile senza perdite di qualità.

Qui allora probabilmente il limite è dato dal fatto che, al tempo di prima adozione dello standard, la tecnologia non lasciava molte alternative.... oggi non sarebbe forse meglio fare tutto il girato a frequenza molto alta e poi eventualmente ridurla a una frazione dell'originale, piuttosto che fare l'inverso..?



:birra:
#1305997
maxandfriend ha scritto: gio, 30 mag 2019 - 18:12 OK, il ragionamento è matematicamente chiarissimo ma, nella pratica, ha un senso solamente dando per scontato che nel tuo esempio l'utilizzo di 1,6mbit per frame sia insufficiente.
Beh, contento tu... calcola che per registrare un fotogramma in HD senza alcuna perdita , e rimanendo in 422 a 8 bit, servirebbero 33 mbit.
Le compressioni attuali portano a 1/20 circa, per cui dire che 1,2 "mi basta" è abbastanza fuori luogo. In pratica si gratta il fondo del barile, e stiamo parlando di come perdere il meno possibile, non di quanto avanza. Stiamo conservando il 5% delle informazioni, vedi tu. Capisci quindi che ogni bit è grasso che cola. A meno di non registrare un frame nero.
maxandfriend ha scritto:Qui allora probabilmente il limite è dato dal fatto che, al tempo di prima adozione dello standard, la tecnologia non lasciava molte alternative.... oggi non sarebbe forse meglio fare tutto il girato a frequenza molto alta e poi eventualmente ridurla a una frazione dell'originale, piuttosto che fare l'inverso..?
Non è solo una questione di tecnologia. Registrare a frequenze alte ha diversi problemi, alcuni non superabili.
La luce in primis, che diminuisce in proporzione, e il rolling shutter che diventa sempre più evidente, tanto per citarne un paio. ma anche il flicker che in presenza i luci artificiali diventa sempre meno evitabile.
Del resto se vai su un set cinema di quelli con altissimo budget, troverai di tutto tranne che cineprese ad alta velocità (a meno che non serva per rallenty estremi di quache tipo), pur usando attrezzature professionali di altissimo livello. Se poi pensi che tutti i professionisti siano ingenui...
#1306000
willyfan ha scritto: Se poi pensi che tutti i professionisti siano ingenui...


Scusa William, ma io avanzo ipotesi alla ricerca di conferme o smentite da chi ne sa più di me, nel tentativo di apprendere dal contraddittorio e dalle argomentazioni che ne conseguono.
Ho l'impressione che tu prenda i miei commenti molto sul personale e ne sembri quasi infastidito.
Me ne dispiaccio e ti garantisco che è lungi da me l'idea di fare il saputello o mettere in dubbio l'altrui esperienza soprattutto su argomenti in cui so di essere profondamente (e dichiaratamente...) ignorante.

Grazie comunque del tempo che mi hai dedicato e scuse a tutti per l'OT.
#1306003
Nessun problema personale, io sono fatto così e chi mi conosce lo sa.

William Fanelli

#1311208
Purtroppo i fps sono quelli del filmato che hai già registrato, infatti la HDMI col segnale pulito sia in 4K che in Full-HD funziona solo in play.
Se vuoi usarla mentre registri non funziona.
Vedi i miei messaggi qui: viewtopic.php?f=95&t=138570#p1307618
E comunque non in 4K 50p, ma solo in 4K 25p sempre durante il play.
Ciao.
#1311210
In realtà non mi interessa registrare, ma solamente avere il segnale "pulito" e a 60fps. La sensazione, attualmente, è che l'acquisizione sia a 25fps, mi chiedevo se fosse modificabile questa impostazione (magari impostando una diversa risoluzione di registrazione, ma non senza registrare)
#1311211
No, non avrai il segnale pulito in nessuna condizione, non solo ma mai a 60p casomai a 50p e solo durante il play con video in Full-HD, mentre in 4K lo avrai a 25p e solo in play.
Ciao
#1311217
Ma se lo ottieni pulito (quindi senza le icone che normalmente appaiono sul monitor della AX53) a 25p, lo ottieni mentre sei in fase di registrazione in 4K o in fase di stand-by?
E poi ti chiedo: esce pulito a 25p ma sempre in 4K? Oppure te lo ritrovi solo in Full-HD (come era accaduto a me quando ho fatto una prova per rispondere ad un altro utente?)
Ciao
#1311218
Poi una domanda ancora: cosa hai selezionato nel menu per ottenere in uscita sulla HDMI un segnale pulito? Puoi dirmi i vari passaggi?
Grazie.
Ciao
#1311221
vibicchi ha scritto: gio, 06 feb 2020 - 23:33 Ma se lo ottieni pulito (quindi senza le icone che normalmente appaiono sul monitor della AX53) a 25p, lo ottieni mentre sei in fase di registrazione in 4K o in fase di stand-by?
E poi ti chiedo: esce pulito a 25p ma sempre in 4K? Oppure te lo ritrovi solo in Full-HD (come era accaduto a me quando ho fatto una prova per rispondere ad un altro utente?)
Ciao
In standby e esce in HD. Semplicemente attacco il cavo e dal menu impostazioni tolto i controlli per l'hdmi.. tutto qui..

Nessuno che sa rispondermi? O che almeno può testare con un dispositivo che gli comunica gli effettivi fps? (il mio dispositivo di acquisizione non ha questa funzione)
da Rider
#1311223
Ciao Kaiser,
non basta controllare le proprietà del file acquisito, magari con programma tipo Mediainfo? Penso di sì.

Ciao capo Vibi ;)
#1311224
Il cavo Hdmi è collegato a un Newtek Spark che lo converte in NDI (quindi io vedo il file acquisito dopo che è stato convertito due volte). Il risultato è che l'immagine è "scattosa" per il mio utilizzo (riprese sportive), voglio capire se il problema è la camera o lo spark...

Pensavo di essere stato chiaro, invece mi sono sba[…]

Grazie a tutti! @CCD guarda, forse sono l'unico c[…]

Ciao, prima di procedere alla cieca, bisognerebbe[…]