Se você tem uns 20 anos de contato com a tecnologia então já passou e viu, literalmente, muita coisa em relação à qualidade de vídeo, monitores e telas.
Primeiro não existiam os monitores e que as pessoas faziam era comprar a máquina (que hoje conhecemos como CPU) e ligar a uma tv que exibia tudo em tons de cinza; depois vieram os primeiros monitores de verdade, com a tela verde; o próximo passo foi dado nos anos 90 com os famosos monitores de tubo 15 polegadas, que muita gente teve em casa. Depois eles cresceram, ficaram 17 e 19 polegadas, depois afinaram e viraram LCD; enquanto isso a resolução ia aumentando e refinando: 640 X 480; 800 x 600; 1024 x 768; 1366 x 768 e o tão amado Full HD: 1920 x 1080, onde a maioria dos usuários se encontra hoje em dia (ao menos os usuários de PC e notebook).
Depois disso há as resoluções "premium", ainda não muito comuns no Brasil: 4K (3840 x 2160), 8K (7680 x 4320) e até 10K (10240 x 4320 ou 10328 x 7760, dependendo do formato). E essas são apenas algumas das resoluções de monitores de PC, Notebook e tvs. Se formos analisar as telas de smartphones e tablets a coisa vai longe.
Ok, mas e do que adianta uma resolução de 48K se nosso olho tem um limite físico e biológico que nos impede de ver todos os detalhes? Sim, da mesma maneira que você já deve ter ouvido falar que o olho do gato é "treinado" para enxergar no escuro, ou que o seu cachorro não gosta de ver tv porque para ele as imagens aparecem em câmera lenta já que seus olhos enxergam mais frames do que nós, o olho humano tem um limite de detalhismo que consegue captar.
Mas e qual seria o nosso limite? Será que estamos absorvendo o máximo de qualidade que as telas de hoje em dia podem nos proporcionar? Ou será que estamos investindo em telas cada vez mais caras onde o ganho prático entre um upgrade e outro simplesmente não existe?
Essas e muitas outras questões a partir de agora.
O que são pixels
Fundamental para entender essa coisa toda, como você verá no decorrer do texto, é saber o que são e como funcionam os pixels, sua contagem e sua categorização. Inicialmente tenha em mente que a palavra pixel vem do inglês "picture element" que significa "elemento da imagem" e já dá uma boa dica da sua verdadeira função.
Pixel é a menor parte de uma imagem; como se fossem as células do corpo humano ou as peças de um quebra-cabeça. Quanto mais deles, melhor e de maior qualidade o resultado, ou seja, uma melhor imagem.
Esclarecimento 1: ok, pixels não são os únicos resposáveis pela qualidade de uma imagem, afinal uma foto bem iluminada com 5 pixels será melhor do que uma foto de 20 milhões de pixels tirada no escuro total. Além da luz, outras coisas que interferem na qualidade de imagem é o tamanho do sensor de captura, o software de renderização e processamento e demais tecnologias embarcadas. Mas, para fins deste artigo, vamos ser rasos e pensar apenas nos pixels, ok?
Em termos práticos imagine, por exemplo, um quebra-cabeça tridimensional de um globo terrestre. Você vai colocando peça por peça até que no final termina com um globo montado, assim como esses de sala de aula mesmo. Se tivesse apenas 20 peças grandonas o seu globo ficaria meio quadradão, afinal, teria muitas bordas salientes e os cantos não ficariam nem um pouco "escondidos", certo? Agora, se você tivesse 3 mil peças para montar o mesmo quebra-cabeça, todas bem pequenas, os cantinhos ficariam diluídos no seu globo, dando a ideia de um resultado melhor, com menos arestas e pontas.
Para que as imagens sejam mostradas na tela, as mesmas regras de "empilhamento de peças", ou pixels nesse caso - deverão ser seguidas. E é com esse gancho que vai ser possível explicar como os pixels melhoraram as imagens. Peguemos o exemplo do globo novamente, afinal, eles também são os responsáveis por formar os círculos e são o melhor exemplo da evolução da qualidade de imagem.
Pixels são quadradinhos, como você pode ver no GIF acima. Agora imagine ter de fazer um círculo a partir de quadradinhos; imagine mesmo. Pegue 100 quadrados de 30 cm cada, em sua imaginação, e coloque-os de tal jeito que formem um círculo. Imaginou? Agora faça o mesmo círculo usando 1000 quadrados de 3 centímetros cada. Viu como o seu círculo ficou mais bonito? É por conta disso que as imagens nos antigos monitores eram todas serrilhadas.
Como você deve ter percebido nas especificações de algum aparelho que comprou, existe um número atrelado à qualidade de imagem que pode ser 1920 x 1080, como o Full HD, ou 640 x 480 como os antigos monitores CRT que vamos usar de exemplo, logo abaixo. Mas primeiro, o que significam esses números afinal? Fácil: Eles representam a quantidade de linhas e de colunas da imagem. Em uma resolução Full HD você terá 1920 pixels na horizontal, com 1080 pixels na vertical para compor o frame.
Mas claro que esse monte de pixels é coisa de hoje em dia. Antigamente havia menos deles para compor cada frame e, consequentemente, fazer as bordas. E bordas é um ponto importante para uma imagem.
Empilhar quadrados e fazer linhas e bordas retas é fácil, mas tente fazer bordas circulares com os míseros 480 pixels de um monitor 15 polegadas para você ver. Por isso que elas são a melhor forma de atestar a qualidade de uma imagem digital.
Um bom exemplo para ilustrar tudo isso é a evolução dos videogames e o porquê das imagens dos antigos consoles serem cheias de quadrados. O Atari, por exemplo, tinha 40 x 192 pixels; o Playstation 1 permitia até 640 x 480, enquanto que o Playstation 4 chega a ser 4K dependendo da versão.
Esclarecimento 2: É bem verdade que nem só de quadrados são feitos os pixels, mas como esta forma geométrica que possui todos os lados iguais representa a esmagadora maioria das tecnologias, estamos usando-a como padrão por aqui.
Mas talvez o termo Pixel faça mais sentido para você quando relacionado ao mundo das câmeras digitais, onde a taxa deles por frame é usado como diferencial tanto por consumidores quanto por fabricantes e vendedores.
Uma fotografia feita com o primeiro telefone com câmera (veja que nem usei o termo smartphone) tinha menos de 1 megapixel devido à sua câmera VGA, enquanto que hoje é normal que os smarts tenham até 20 megapixels ou mais. Aqui uma explicação: o prefixo mega equivale a 1 milhão, ou seja, a fotografia VGA tinha menos de 1 milhão de pixels, enquanto as atuais chegam a ter 20 milhões de pixels por imagem ou mais.
E caso você esteja se perguntando como chegar nesse número de milhões de pixels, é fácil: Só multiplicar o valor da largura pela altura. Sabe por que a qualidade de vídeo da fita VHS era tão ruim? Porque o máximo que ela suportava era 480 x 320. Fazendo a conta vamos ver que as antigas fitas tinham míseros 153 mil pixels de qualidade por frame, ou, 0.1 megapixels que é como estamos acostumados a medir hoje em dia.
Agora pense em quanto tem a câmera do seu celular hoje e veja como evoluímos nesse tempinho. Algumas outras tecnologias e suas densidades de pixel:
- Cd: 570 x 480: 273.600 pixels ou 0.2 MP
- Tv analógica: 640 x 480: 307.200 pixels ou 0.3 MP
- DVD: 720 x 480: 345.600 pixels ou 0.3 MP
- Blu-Ray: 1280 x 720: 921.600 pixels ou 0.9 MP
- Tv digital e formato Full HD: 1920 x 1080: 2.073.600 pixels ou 0.9 MP
É por este motivo também que quanto maior a resolução, maior precisa ser sua tv para que ela seja notada e menor precisa ser a distância que você se posiciona da imagem (senta longe da tela). Isso acontece porque de nada adianta aumentar o número de pixels (e de refinamento nas bordas, por exemplo) se eles serão achatados em uma tela minúsucla. O resultado poderia até ser uma deformação nas imagens.
Mais importante, nesse momento, é o seguinte: Aquela tv 10k tem mais de 80 MP!! Mas será que nosso olho está preparado para tanto detalhe e qualidade?
O limite do nosso olho
De saída, uma verdade: Sim, a qualidade perceptível ao nosso olho é finita. E sem enrolação, lá vai o número de pixels que seriam necessários para representar todo o nosso ângulo de visão: 576 MP, de acordo com Roger Clark, que, entre outras, coisas está envolvido em projetos da NASA para fotografar o espaço. Sim, mais de 500 milhões de pixels, mas antes que você saia por aí achando que falta muito pra tecnologia tocar o limite da nossa vista, senta que lá vem uma triste explicação.
Como você sabe, o seu olho não é uma câmera que registra aquilo que vê em um quadro único e estático; ao contrário, é mais como um vídeo constante. Para que isso ocorra, nossos olhos se movem rapidamente em pequenos espaços angulares enquanto o cérebro vai atualizando continuamente a imagem e refinando os detalhes. Ângulos, aliás, são muito importantes para nós. Como você já deve ter reparado, um humano padrão e em boas condições tem dois olhos, onde cada um faz capturas diferentes - por conta do seu posicionamento levemente alterado entre uma órbita e outra do nosso crânio - do objeto visto. Sem esse "truque" não teríamos visão espacial, por exemplo.
Depois de capturar as imagens em milésimos de milésimos de segundo, quem irá juntar tudo em uma fotografia instantânea é o cérebro que vai combinar as imagens para aumentar a resolução e criar uma imagem com foco, profundidade, etc. O processo foi tão bem pensado pela evolução que, além disso tudo, nós, instintiva e automaticamente, também movemos nossos olhos ao redor de uma cena para coletar tantas informações quanto possível.
Ok, o processo você já conhece, mas como Clark pode atestar que nosso olho vê a uma taxa de 576 MP?
Bom, na verdade se você reler o parágrafo inicial deste subtítulo vai ver que eu não disse que nosso olho "enxerga até 576 MP", mas sim que seriam necessários 576 MP para representar todo o nosso ângulo de visão. O cálculo que atesta esse valor é o seguinte:
Considere uma paisagem qualquer à sua frente onde seus olhos enxergam uma abertura de 120 graus cada (e o número empregado aqui é modesto, já que o campo de visão de um humano é próximo a 180º). Nesse caso o número de pixels seria 120 graus vezes 60 minutos-arco/grau dividido por 0,3; tudo isso multiplicado por dois, afinal são dois olhos. A resposta são os 576 milhões de pixels. Pode colocar na calculadora.
P.S. Além de calcular os MPs do olho, Roger Clark estimou o ISO do nosso olho, distância focal e outros aspectos comparáveis a uma câmera digital. O resultado ficou bem legal e pode ser conferido aqui.
Mas como dito: Esse valor é o que precisaríamos em termos de capacidade para captar todos os detalhes que nossas câmeras instaladas na cabeça conseguem enquadrar. A percepção real do olho humano é bem menor, e tem, inclusive, um culpado: a fóvea.
A fóvea é uma parte pequeninha e central do nosso olho, bem lá atrás, composta de 6 milhões de cones (as células responsáveis pelas cores na nossa visão), e responsável pela visão foveal. Essa visão é imprescindível para as suas atividades do dia a dia, principalmente para aquelas onde os detalhes visuais são de extrema importância.
Agradeça à visão foveal quando estiver lendo um livro ou quando pegar o carro e sair dirigindo por aí. Mas também não agradeça muito, já que ela também é um pouco culpada por nossa visão não ser tão HD como gostaríamos. Também chamada de visão central, a fóvea só se encarrega de garantir alta qualidade em apenas 2 graus dos 180 de abertura que nossos olhos abrangem. Enquanto isso, o restante dos graus (o que está em volta da visão central ou visão foveal) será preenchido com míseros 1 milhão de pixels, ou 1 MP.
Agora ajuste as contas com o número de graus que vemos em HD e os pixels de nossa visão e você chegará a um valor triste: 7 MP. Sim, a quantidade que compõe a imagem focada pela visão foveal é de apenas 7 milhões de pixels.
O vídeo abaixo mostra como é a visão humana. Repare que o círculo central, completamente nítido, é a visão da fóvea.
Mas dá para colocar outro culpado nessa história: O número de fotorreceptores presentes na nossa retina. Eles não são suficientes para extrair o máximo de qualidade que seria possível, mesmo que a fóvea captasse um ângulo maior com precisão.
Mas e o porquê de nosso olho ser "limitado"; existe algum? Sim, evolução. Pense bem, chegamos até aqui, temos computadores e foguetes sem precisar de 576 MP nos olhos. Nosso corpo evoluiu para o necessário, assim como o dos felinos evoluiu para uma melhor visão no escuro (para que eles pudessem caçar de boas). E é bem provável que nosso olho já tenha sido melhor quando também caçávamos ou não tínhamos luz.
Aliás, é certo que, se alguém refizer a pesquisa com a visão fóvea daqui mil anos vai concluir que não temos mais 7 MP na parte central e 1 MP no restante, mas talvez 8 e 3 MP, respectivamente, ou 5 e 1 MP. Impossível precisar os valores, mas é certo dizer que, com certeza, não será o mesmo resultado.
O limite tecnológico para nossos olhos
Mas voltamos a um dos questionamentos iniciais: Qual o limite tecnológico frente nossos olhos?
Primeiramente uma má notícia para os entusiastas que pagam mais caro por tvs ou smartphones com maior quantidade de pixels e resolução: Os especialistas afirmam que a diferença já não é mais perceptível para nós, na maioria dos casos e situações.
Desde 2010, quando foi apresentado o primeiro iPhone com a tecnologia Retina em sua tela, Steve Jobs deu a morta: a partir dali o olho não conseguiria mais distinguir entre pixels individuais no visor quando visto de uma distância normal. A promessa não era apenas uma tela nítida, mas uma tela tão nítida que novos refinamentos seriam imperceptíveis.
Mas daí você pode perguntar o seguinte: O iPhone 4 apresentado por Jobs - o primeiro com Retina - tinha 330 ppi (pixels por polegada) enquanto que o atual iPhone X tem 458 ppi. As telas melhoraram, ou, pelo menos aumentaram a densidade de Pixels. Como isso é possível? Quem está certo? A resposta é que não é proibido pela física que haja mais pixels por polegada na tela, porém, então não há equívoco na contagem ou na afirmação de Steve Jobs, porém, levando em consideração a distância dos nossos olhos ao display do smartphone estes pixels a mais estão ali para nada.
"Haverá alguma densidade além da qual você não pode fazer nada melhor por causa dos limites do seu olho", disse Don Hood, professor de oftalmologia da Universidade de Columbia. Simples assim. Essa é a opinião de vários especialistas, aliás, e olha que Hood ainda foi educado, teve alguns que, quando consultados, não mantiveram a classe.
Essa questão pode ser melhor entendida com as TVs. Para que as mudanças no upgrade de uma HDTV para 4K seja percebido, ou de 4K para 8K, é necessário não só que a tv aumente de tamanho (não me diga que você caiu no golpe da tv 4K de 32 polegadas), mas que você também mude a sua sala inteirinha.
Para ilustrar isso confira a ideia da Distância de Lechner que aponta as distâncias ideais para visualização de telas de modo que o olho humano possa processar melhor os detalhes de acordo com uma determinada resolução. Por exemplo, a distância de visualização ideal para uma TV Full HD de 42 polegadas é de 1 metro e 70 cm.
Agora, se que você tiver uma tv Full HD de 80 polegadas precisaria posicionar seu sofá a mais ou menos 4.5 metros da tela. Se você fizer um upgrade para uma 4K do mesmo tamanho, teria de remodelar a sala, já que a distância recomendada passa a ser 2.5 metros. Mas isso nem é tudo: Se você quiser o máximo da qualidade 4K, terá de sentar a uma distância de 1 a 2 metros da tv.
Isso acontece pelo seguinte motivo: Estique seu braço para a frente e imagine que a unha do seu dedo indicador representa um dos 180 graus de visão do nosso olho. Continue olhando para a sua unha e imagine que ela esteja coberta por 120 listras alternadas entre preto e branco. De acordo com a teoria, distinguir essas linhas é o limite para nós. Na realidade, porém, quase ninguém tem uma visão tão boa. Na verdade, a maioria das pessoas não conseguiria discernir os pixels ou linhas nem se elas tivessem o dobro desse tamanho.
Agora imagine uma tela 4K. Como vimos antes, quanto mais qualidade, mais pixels, logo, mais linhas na tela (ou na sua unha para seguir o exemplo tosco e prático acima). Por isso que, quanto maior a qualidade, mais perto você deve se sentar para conseguir "sentir", enxergar ou diferenciar a qualidade.
Agora imagina uma resolução com 10K. Caso queira o máximo de qualidade você terá que se posicionar tão perto da tela que já nem conseguirá ver direito o que é mostrado nas bordas (não se esqueça que quanto maior a resolução maior a tela também).
Mas se então acumular mais pixels na tela não é a próxima revolução dos displays, o que seria? A boa notícia é que ainda não chegamos no máximo de qualidade que podemos ver em um Tv, já que outros pontos podem ser trabalhados, como a tecnologia do ponto quântico, por exemplo, ou, a cada vez mais popular, tecnologia OLED. Mesmo que a quantidade de pixels não possa mais garantir melhorias na imagem para nós, a fidelidade de cores, por exemplo, ainda pode evoluir.
Mas a ideia aqui não é acabar com a felicidade de quem está prestes a comprar um novo monitor ou tv. Se esse é o seu caso e agora está preocupado em desperdiçar grana em algo que não vai dar ganho real em sua experiência, confira este link com todas as instruções, cálculos e até uma planilha que vai ajudar você a calcular coisas como seu ângulo de visão, a distância, etc. para ver se vale a pena uma nova tela ou não.
Para saber mais: Sony, Vsauce, Techspot, Futurism, Cambridge in Colour, Display Mate, Red, Slate, Foveon, Crutchfield, Gundam Argentina