1. Sensores em Câmeras Digitais
Câmeras digitais utilizam uma disposição de sensores de milhões de pequenos pixels para
produzir uma imagem. Quando você dispara a sua câmera e a exposição da imagem começa,
cada um desses pixels tem um "fotosítio" que é descoberto para coletar fótons em uma
cavidade. Uma vez que a exposição termina, a câmera fecha cada um desses "fotosítios" e então
tenta determinar quantos fótons caíram em cada um deles. A quantidade relativa de fótons em
cada cavidade é então organizada em vários níveis de intensidade, cuja precisão é determinada
pela profundidade de bits (0 - 255 para uma imagem de 8-bits).
Cada cavidade é incapaz de distinguir quanto de cada cor caiu dentro dela, então a explicação
dada na ilustração acima serve apenas para a criação de imagens em tons de cinza. Para
capturar imagens coloridas é necessário colocar um filtro sobre cada cavidade de modo que haja
somente penetração de uma cor específica. Praticamente todas as câmeras digitais que existem
hoje são capazes apenas de capturar uma cor primária em cada uma das cavidades, desse modo
elas descartam aproximadamente 2/3 de toda a luz que atinge o sensor. Como resultado, a
câmera tem que realizar uma aproximação para estimar a informação relacionada às outras
duas cores primárias para obter a descrição completa de cores em um determinado pixel. A
disposição de filtros de cor mais comum é chamada de "Bayer array" e é mostrada na ilustração
abaixo.
Uma "Bayer array" consiste em alternar as linhas de filtros vermelho e verde com linhas de
filtros verdes e azuis. Note como a "Bayer array" contém duas vezes mais sensores verdes do
que sensores azuis ou vermelhos. Isso ocorre pois o olho humano é muito mais sensível à luz
verde do que vermelho e azul. A redundância do verde produz imagens que aparentam ter muito
menos ruído e com mais detalhes do que se cada cor fosse tratada igualmente. Isso também
explica porque o ruído no canal verde é muito menor do que nos outros dois (ver
"Compreendendo Ruído de Imagens" para um exemplo).
2. Cena Original
(mostrada a 200%)
O que a sua câmera vê
(através do 'Bayer array')
Nota: nem todas as câmeras utilizam uma "Bayer array", mas essa é, de longe, a configuração
mais comum para os sensores. O sensor "Foveon" usado nas Sigma SD9 e SD10 captura as três
cores primárias em cada um dos pixels. As câmeras da Sony capturam quatro cores numa
disposição similar a de "Bayer": vermelho, verde, azul e 'esmeralda'.
"Bayer demosaicing"
"Bayer demosaicing" é o processo de tradução da "Bayer array" de cores primárias em uma
imagem final que contém informação completa de cor em cada pixel. Como isso é possível se a
câmera é incapaz de medir a cor total diretamente? Uma maneira de entender isso é pensar em
uma cavidade de cor ao invés de grupos de 2x2 cavidades de vermelho, verde e azul.
Isso funcionaria muito bem, mas a maioria das câmeras tira vantagem de dois processos
adicionais para extrair ainda mais dados de cor dessa configuração. Se a câmera tratou cada
uma das cores dos grupos de 2x2 como se tivesse chegado ao mesmo lugar, então ela obtém
somente a metade da resolução horizontal e vertical que é capaz de fazer. Se, por outro lado, a
câmera computar a cor usando combinações de diversos grupos de 2x2 'sobrepostos', então ela
obteria uma imagem de resolução maior do que usando apenas um grupo de 2x2 para cada
pixel. Veja a combinação de sobreposição na ilustração abaixo.
3. Note como não foi calculada a informação nas bordas do conjunto, já que ela só estaria
disponível se houvesse mais sensores para os lados e para cima. é por isso que quando o cálculo
ocorre nas bordas dos sensores de câmeras digitais um pouco de informação tem que ser
descartada, o que não é um problema muito grave, quando lembramos que se tratam de
imagens de megapixels, ou seja, alguns pixels a menos...
Existem outros algoritmos de "demosaicing" que são capazes de extrair mais resolução, produzir
imagens com menos ruídos ou adaptar-se para aproximar melhor a imagem em cada ponto;
obviamente estes são demasiado complexos para o presente texto.
Artefatos de 'demosaicing'
Imagens com detalhes muito pequenos (na mesma escala do limite de resolução do sensor)
podem, as vezes, enganar o algoritmo de 'demosaicing', produzindo um resultado com um
aspecto não muito realista. O artefato que aparece mais comumente é chamado de moiré
4. (pronuncia-se 'moar-ei'), que pode se apresentar como um padrão que se repete, uma
disposição de cor ou ainda arranjos de pixels que se parecem com um estranho 'labirinto'.
Duas fotos diferentes são mostradas na imagem acima, cada uma com um grau de
magnificação. Note o aparecimento do moiré em todos os quatro quadrados na imagem de
baixo, bem como no terceiro quadrado da primeira imagem (repare nas linhas diagonais muito
sutis). Ambos os padrões que se parecem a labirintos e as disposições coloridas podem ser
vistos no terceiro quadrado da versão diminuída. Esses artefatos dependem tanto do tipo de
textura da imagem original quanto do software utilizado para tratar a imagem capturada.
Conjuntos de Microlentes
Você deve ter se perguntado porque o primeiro diagrama desse tutorial não mostrava as
cavidades do sensor coladas umas nas outras. Os sensores de câmeras no mundo real não têm
sítios cobrindo a superfície inteira do sensor. Na verdade eles normalmente cobrem somente
metade da área total do sensor, já que outras partes eletrônicas tem que ser colocadas também.
Mas cada uma das cavidades possui 'microlentes' logo acima delas que funcionam como funis
para aumentar a capacidade de captação de cada sítio, assim é possível medir fótons que
poderiam ter acabado em lugares sem sensibilidade. Na imagem abaixo as cavidade são
mostradas com um pequeno pico entre elas que direcionam os fótons para a cavidade.
Microlentes bem feitas podem melhorar o sinal fotônico em cada fotosítio e, dessa forma, pelo
mesmo tempo de exposição, criar imagens que têm menos ruído. Fabricantes de câmeras
utilizam os avanços na tecnologia de microlentes para reduzir (ou manter) o ruído nas últimas
câmeras de alta resolução, apesar de elas terem fotosítios menores devido ao fato de terem a
mesma quantidade de megapixels na mesma área de sensor.