Qual é a maior taxa de quadros (fps) que pode ser reconhecida pela percepção humana? A que taxa essencialmente deixamos de notar a diferença?
Oh meu... Este mito me mata mais do que qualquer outro por aí, devido a ter um interesse tão grande em jogos de PC. Este é um mito tão comum que honestamente faz a minha cabeça doer.
I'gostaria de corrigir isto e se apenas 4 pessoas se afastarem depois de verem este tópico e conhecerem melhor, I'vai sentir-se óptimo. I'vou manter isto simples.
Nervos mielinizados podem disparar entre 300 a 1000 vezes por segundo no corpo humano e transmitir informação a 200 milhas por hora. O que importa aqui é a frequência com que estes nervos podem disparar (ou "enviar mensagens").
Os nervos no seu olho não estão isentos deste limite. Seus olhos podem transmitir fisiologicamente dados que rapidamente e seus olhos/cérebro trabalhando juntos podem interpretar até 1000 quadros por segundo.
No entanto, sabemos, por meio de experiências (assim como de simples experiências anedóticas), que há um retorno decrescente em que quadros por segundo as pessoas são capazes de identificar. Embora o olho humano e o cérebro possam interpretar até 1000 quadros por segundo, alguém sentado em uma cadeira e adivinhando ativamente a altura de um framerate pode, em média, interceptar até cerca de 150 quadros por segundo.
O ponto: 60 fps não é um 'waste'. 120 fps não é um ' waste' (desde que você tenha um monitor de 120hz capaz de tal exibição). Existe uma diferença muito notória entre 15 fps e 60 fps. Muitos dirão que existe uma diferença perceptível entre 40 e 60 fps. Finalmente, o limite do olho humano NÃO é tão baixo quanto 30-60 fps. It's simplesmente não.
A origem do mito: A origem do mito provavelmente tem a ver com as limitações da televisão e do cinema. Os filmes, quando eram gravados em rolo de filme, limitavam-se a 24 frames por segundo para fins práticos. Se há um retorno decrescente no número de frames que as pessoas podem dizer que realmente notam, então a diferença visual entre 24 fps e 60 fps não poderia justificar DOUBLAR a quantidade de bobina de filme necessária para filmar um filme.
Com o advento do armazenamento digital fácil, essas limitações são, na maioria das vezes, arbitrárias.
Os números frequentemente citados como o "máximo" mitológico que o olho pode ver são 30 fps, 40 fps, e 60 fps.
Eu adivinharia que o limite de 60 fps "olhos" vem do fato de que a maioria dos monitores de PC (e na verdade muitos televisores agora) tem uma taxa máxima de atualização de 60hz (ou 60 quadros por segundo). Se um monitor tem esse limite de 60 fps, o monitor é fisicamente incapaz de exibir mais de 60 fps. Esta é uma das finalidades de limitação de quadros, Vsync e ajuste da taxa de atualização em jogos de vídeo.
tl;dr: O olho humano pode detectar fisiologicamente até 1000 quadros por segundo. O humano médio, encarregado de detectar qual frame ele está olhando, pode adivinhar com precisão até cerca de 150 fps. Ou seja, eles podem ver a diferença em framerados até 150 fps.
Phew.
Uma citação para deixar em:
A USAF, ao testar seus pilotos para tempo de resposta visual, usou um teste simples para ver se os pilotos poderiam distinguir pequenas mudanças na luz. Em seu experimento, uma imagem de uma aeronave foi piscada em uma tela em uma sala escura a 1/220 de segundo. Os pilotos foram consistentemente capazes de "ver" a pós-imagem, bem como identificar a aeronave. Esta situação simples e específica não só prova a capacidade de receber 1 imagem em 1/220 de segundo, mas também a capacidade de interpretar FPS.
mais altos.Artigos semelhantes
- O que é considerado uma taxa de quadros (FPS) boa/média/jogável para um determinado jogo de vídeo num PC? É de 60 FPS?
- Qual é a diferença entre 23,976 fps (quadros por segundo) e 24 fps?
- Se a percepção humana do tempo é de 60Hz, como podemos ver a diferença nos ecrãs de 90Hz e 120Hz?
- Qual é a melhor taxa de quadros (FPS) para capturas de tela?