Ciao Willy,
grazie per l'esempio chiaro. Il filo logico di ragionamento lo condivido, ma solo fino al punto in cui fà due pieghe.
Se rallentiamo il movimento del 50% però, l'oggetto in questione non si muoverà più di 10 cm al fotogramma, ma di 5, sennò che rallentamento è? E per un movimento di questo tipo, il motion blur "giusto" è quello da 2,5 cm (ovvero quello dei 50 fps a 180°) e non quello di 5 cm dei 360° a 50 fps.
Nella ripresa a 50fps 360° per ogni fotogramma c'è già un movimento di soli 5cm, non di 10
. Infatti 1 frame avviene ogni 20ms (1s:50f=20ms). L'oggetto muovendosi di 10cm/40ms compie 5cm di traettoria in 20ms.
Assodato questo fatto, che è matematico, son certo che cambierai da solo le tue conclusioni senza ulteriori spiegazioni
, ma proseguo nel ragionamento a beneficio di altri meno attenti.
Se ora rallentiamo questa ripresa al 50% vuol dire che manderò in visione 1 di quei frame ogni 40ms dove l'oggetto si sposta di soli 5cm invece di 10 come nella realtà (se no che rallentamento è?!). In quel frame il blur è quello stesso che dicevi sopra cioè lo stesso di una ripresa 25fps 180°, o lo stesso di un ripresa 50fps 360°, cioè relativo ai 5cm, che è quanto fino adesso sostenuto da me e CCD:
la ripresa decimata o rallentata avrà la stessa apparenza di un ripresa normalePer la seconda frase che ho evidenziato: su che cosa basi che quello giusto sarebbe invece 2,5cm? Perchè secondo te la visione al rallenty dovrebbe avere meno blur che una ripresa a framerate normale e a velocità normale? Per quale principio fisico?
Forse tu intendi dire che semplicemente, per abitudine, vediamo gli oggetti rallentati quasi privi di blur, perchè comunemente tali riprese provengono da macchine con altissimo fps. Quindi nella quotidianità ce lo aspetteremmo cosi e non blurrato? Se intendi questo, lo posso capire, ma non è certo un parametro oggettivo.
Ovvio che non saremo meno amici per queste divergenze, ma solo per amore di dialettica e della tecnica