O documento discute os principais componentes e conceitos fundamentais da fotografia, incluindo: (1) as três partes principais da câmera - óptica, meio de captura e mecânica; (2) como a luz é capturada através da lente e registrada no filme ou sensor; (3) os papéis do diafragma e obturador na regulação da quantidade de luz.
3. A máquina fotográfica
• Uma máquina fotográfica tem a capacidade de
captar os reflexos luminosos dos objetos, num
determinado momento, guardando-os sob a
forma de uma imagem. Para tal, usa um
mecanismo análogo ao olho humano, onde muito
genericamente podemos apontar - a lente (o
cristalino no olho, ou lens), diafragma (a íris) e
uma superfície sensível à luz, que pode ser uma
película de filme, na fotografia analógica, ou um
sensor eletrônico, na fotografia digital (a retina).
6. Como a câmera funciona
A câmera é composta por 3 partes:
– Parte óptica (lentes);
– Meio de captura (filme ou sensor);
– Parte mecânica (corpo da câmera).
É a combinação desses elementos que dá
origem as mais diversas fotografias.
7. reflexo luminoso de
um objeto passa
através da lente,
sensibilizando o
sensor, ou a película
de filme, criando
desta forma a
imagem.
O diafragma regula a
quantidade de luz que
entra de cada vez,
assim, o sensor é mais
ou menos
sensibilizado ficando a
imagem mais ou
menos clara.
8. Ao fechar o diafragma
reduzimos a dimensão do
feixe luminoso e, desta
forma, aumentamos a
qualidade dos diferentes
raios que atravessam a
objectiva, pois eliminamos
os raios oblíquos ao plano
focal e que produzem
defeitos e distorções na
imagem final. Isto é,
deixamos passar apenas os
raios incidentes em ângulo
recto ao plano focal
obtendo imagens mais
nítidas. Ao fechar o
diafragma aumenta-se a
capacidade de focagem da
objectiva (aumenta a
profundidade de campo)
9.
10. Parte óptica
A parte óptica é
composta pelas lentes.
Tem a função de
receber a luz e
redirecionála de modo
a refletir uma imagem
tal como a que se
encontra diante da
câmera.
11. Parte óptica
• A imagem é formada
pela luz que passou por
uma lente.
• A natureza da imagem
formada depende de
como a luz viaja pela
lente. Isto depende de
dois fatores:
– O ângulo que a luz
penetra na lente
– A estrutura da lente
12. Parte óptica
• O "poder" de uma lente é descrito como distância focal,
que é a distância entre o objeto fotografado e a lente.
Quanto maior, indica que maior é a capacidade de
captura.
• Alguns exemplos:
Distância Focal Tipo de fotografia
Menor que 21mm Arquitetura
21 – 35 mm Landscape
135 – 300+ mm Esporte, pássaros, insetos
13. Parte óptica
• Zoom permite a variação da distância focal em um
intervalo pré-definido.
• Abertura focal define o ajuste do quanto de luz
penetra nas lentes.
14. Focagem da lente
Consiste em aumentar ou diminuir o diâmetro
ântero-posterior da lente de forma a fazer
convergir os reflexos luminosos do objeto o
mais próximo possível do sensor, de forma a
que os contornos da imagem fiquem o mais
nítido possível.
15. Imaginemos que o interior da
máquina é representado por
uma sala e a objectiva pela sua
janela. Em vez de diafragma e
obturador teríamos a ação de
abrir e fechar os veda-luzes:
diafragma = mais abertos,
menos abertos
obturador = abrir e fechar
mais rápido, abrir e fechar
mais lento
16. Íris (ou Diafragma): A quantidade de
luz
• Cada abertura tem um valor f que
representa a razão entre o seu diâmetro e
a distância focal da objetiva. Assim, f4
significa que a abertura é igual a uma
quarta parte da distância focal da
objetiva, como se vê pelos círculos
tracejados, à direita; em f16 a abertura é
um dezasseis avos da distância focal, e
assim sucessivamente.
• Do emprego deste sistema de frações, em
vez dos diâmetros da abertura, resulta
que todas as objetivas reguladas para o
mesmo valor f fotografam o mesmo
objeto com igual intensidade de luz. Em
consequência, o emprego dos valores f
permite mudar de máquina ou de objetiva
com a garantia de que o efeito da
exposição não se altera.
17. A quantidade de luz
Sobre-exposição: Subexposição:
excesso de exposição, exposição insuficiente,
provoca mais provoca menos
densidade e menos densidade e menos
contraste contraste
18. Parte óptica
• Câmeras que dispõem de uma grande variedade de
aberturas permitem muito mais flexibilidade nas
imagens fotografadas.
19.
20. Meio de captura
• Filme Fotográfico: Contém componentes
químicos que são sensíveis a luz.
• A revelação de um filme fotográfico é feita por
uma série de banhos químicos que fazem com
que a imagem latente no filme exposto se
torne visível sob a forma de negativo.
25. Parte mecânica
• O principal componente da parte mecânica é o
diafragma.
• O diafragma foi idealizado em 1568. É um dispositivo
capaz de permitir ou não a entrada de luz.
• Outros componentes também constituem a parte
mecânica: disparador, flash, visor, a própria caixa da
câmera, etc.
26. A mesma abertura, mas com
velocidades diferentes:
com velocidade 2 (dois segundos) a fotografia ficará mais
clara do que com velocidade 0.5 (meio segundo), pois o
elemento fotosensível fica exposto à luz durante mais
tempo (4 vezes mais)
f.8 v 0.5s f.8 v 2s
28. Velocidade de Obturação
Este parâmetro mede o tempo que o obturador permanece aberto, regulando desta forma a
quantidade de luz que que chega ao sensor. Assim, se quisermos fotografar um momento muito
rápido e se tivermos luz suficiente para tal (o momento em que um jogador de futebol cabeceia a
bola para golo ou o exacto momento em que um avião se encontra de pernas para o ar durante
um looping) escolhemos uma velocidade alta, se, pelo contrário, queremos fotografar uma
imagem com pouca luz (fotografia nocturna, por exemplo) ou queremos imagens arrastadas
(também com pouca luz), escolhemos uma velocidade baixa, sendo que, neste último caso,
temos de nos certificar que a máquina se encontra estabilizada, num tripé, por exemplo, caso
contrário e devido à quantidade de luz que vai entrando de pontos diferentes (uma vez que a
máquina se está a mover) a imagem ficará tremida. De referir ainda que a velocidade é medida
em segundos, ou, na maior parte dos casos em fracções de segundo, sendo que, 1'' (um segundo)
é uma velocidade de obturação baixa e 1/1000'' (um milésimo de segundo) é uma velocidade de
obturação bastante elevada.
29. f.16 v 2s
Uma abertura de
diafragma quatro vezes
menor aliada a uma
velocidade de obturador
quatro vezes mais lenta
f.8 v 0.5s equivale a
Uma abertura de
diafragma quatro vezes
maior aliada a uma
velocidade de obturador
quatro vezes mais rápida.
31. Obturador
Velocidade - O tempo a que o material sensível fica exposto à luz
• As velocidades de obturação (tempos de exposição), tal como os
diafragmas, diminuem gradualmente – cada velocidade é metade
da anterior. Esta progressão de razão 2, comum às duas escalas, é
particularmente importante quando se combinam os valores de
obturação com os do diafragma.
• Na posição B (pose), o obturador fica aberto enquanto se mantiver
a pressão no botão respectivo.
32. Abertura
A abertura não é mais do que a abertura do diafragma, controlando desta forma
a quantidade de luz que passa através da lente. Não querendo complicar, devo
referir que a abertura, ao alterar a profundidade de campo, tem um efeito na
focagem, assim, quanto menor a abertura, menor a quantidade de luz que passa
através da lente, mas maior a profundidade de campo, ou seja, maior é o alcance
de focagem, isto é, conseguimos ter uma maior quantidade de objectos em faixas
de focagem diferentes focados corretamente. A abertura é medida com a letra f
seguida por um número. Não entrando em pormenores nem em equações
complicadas, posso dizer que esse número é uma fração, assim, quanto maior o
valor absoluto do número, menor a abertura. Para melhor exemplificar este
conceito, apresento abaixo uma imagem elucidativa.
33. ISO (ou ASA)
O ISO (ou ASA, sistema americano e ISO é um sistema internacional.) e
mais uma vez não entrando em grandes pormenores técnicos,
representa a sensibilidade do sensor à luz, ou seja, quanto mais
elevado for o ISO, menor a quantidade de luz que é necessária para o
sensor criar uma imagem. Assim, se quisermos tirar uma fotografia
com pouca luz a uma velocidade relativamente elevada (fotografia
interior a pessoas sem querer usar flash, por exemplo) e onde por
alguma razão não é possível fixar a máquina (por não se ter tripé, ou
pelos objectos alvo da fotografia serem eles mesmos móveis, como é o
caso das pessoas ou animais), optamos por um ISO elevado, se pelo
contrário temos muita luz, optamos por um ISO baixo. De referir que
quanto maior o ISO maior o "grão" da fotografia, ou seja, menor a
nitidez da imagem (tanto os contornos como os conteúdos).
34. Profundidade de campo e nitidez
• Como se vê aqui, a profundidade de campo estende-se para a frente e
para trás do objeto focado. Nas duas fotografias o foco foi ajustado para a
peça do meio e só o diafragma foi alterado. Na da direita, tirada com f16,
a grande profundidade de campo permitiu que todas as peças ficassem
nítidas. Abrindo o diafragma a f 2.8, as peças em fundo e em primeiro
plano perdem a nitidez. É possível, portanto, com o mesmo assunto,
conseguir resultados muito diferentes alterando a abertura do diafragma.
• A profundidade de campo varia também consoante a distância máquina-
objeto. O aumento desta distância faz aumentar a extensão da zona nítida
para aquém e além do objeto, o que altera a sua imagem.
40. Ângulos das objetivas
• Numa máquina de 35mm vulgar, o campo abraçado
pelas objectivas de 28mm, 50mm e 135mm é de
respectivamente, cerca de 73º, 45º e 20º
41. Uma objectiva zoom
28-135 mm
equivale a este conjunto
de objectivas
Zoom óptico e zoom digital
da realidade à ficção
42. 9.2mm com a maq. Digital C2500L
equivale a 36mm numa máq. clássica
17 mm com a maq. Digital C2500L
equivale a 70mm numa máq. clássica
46. O efeito de “olhos vermelhos” é causado pela luz do
flash que atravessa a pupila e se reflete na retina.
Sendo esta irrigada por vasos sanguíneos é a sua cor
Red-eye avermelhada que o flash revela. Quanto mais
próximo o flash se encontrar da objetiva, maior é a
probabilidade de ocorrer este efeito, justamente
porque os eixos de ambos os dispositivos estão mais
próximos. Claro que isto se aplica, desde logo, às
máquinas com flash incorporado embora o efeito
possa ocorrer com flashes externos montados na
sapata/suporte. Este efeito é mais pronunciado nas
teleobjetivas, ou zoom ajustado em close-up, do que
nas objetivas grande-angular. Quanto mais próximo
do tema, maior o risco de “olhos vermelhos”. Este
efeito é também mais usual em ambientes escuros
pois aí as pupilas estão mais dilatadas para captar a
pouca luminosidade do ambiente. Os dispositivos
anti “red-eye” funcionam na base de um pré-disparo
de flash, ou uma luz fixa, que vai obrigar a contrair as
pupilas e reduzir, assim, a “abertura” ocular que
revela a coloração sanguínea.
47. Iluminação - A temperatura de cor
A temperatura de cor das fontes de luz mede-
se em graus Kelvin (ºK). A escala Kelvin
começa no zero absoluto ou -273ºC que é, em
teoria, a temperatura mais fria possível.
Quando uma placa de metal é
progressivamente aquecida, emite luz que
varia pelo vermelho, laranja, amarelo, branco,
e termina numa emissão de luz azul (salvo
alteração física ou química na placa metálica).
A luz emitida por este objecto em cada
estádio de cor, pode identificar-se pela
temperatura correspondente. A luz de uma
simples vela acesa tem uma temperatura de
cor de aproximadamente 2.000 ºK, enquanto
que no outro extremo do espectro, a luz de
um dia solarengo se situa entre 12.000 e
18.000 ºK. A luz da manhã e da tarde situa-se
à volta dos 5.000 ºK, e a meio de um dia
nublado regista-se cerca de 6.000ºK.
48. RECAPITULANDO
• A focagem determina a nitidez do objecto - o movimento da objectiva foca ou desfoca partes
do objecto a diferentes distâncias da máquina.
• A extensão da zona de nitidez é regulada pelo diafragma - o diafragma regula o brilho da
imagem (através da intensidade de luz admitida) e a profundidade de campo. Quanto mais
alto o valor f mais estreita a abertura e maior a profundidade de campo. A profundidade de
campo também aumenta se usarmos uma objectiva de curta distância focal ou aumentarmos
a distância objecto-máquina.
• A velocidade de obturação afecta a imagem de objectos móveis – o obturador regula o
tempo de exposição do filme e, consequentemente, o aspecto mais ou menos tremido da
imagem. Este efeito varia com o movimento da máquina e a velocidade relativa, direcção e
distância do objecto.
• O valor da exposição é determinado pela abertura e velocidade de obturação - Para
fotografar a mesma cena dispõe-se geralmente de uma série de combinações de diafragmas
e tempos de exposição. Desde que fique assegurada a exposição suficiente, pode-se optar
entre uma profundidade de campo curta ou extensa, e entre o movimento “congelado” ou
tremido.
50. Profundidade de bit
• A quantidade de níveis de cinza, que podem
ser usados para representar cada pixel em
uma fotografia digital, é determinada pela
profundidade de bit da imagem.
• A profundidade de bit é o espaço de
armazenamento alocado para cada pixel.
• Quanto maior a profundidade de bit, mais
níveis de cinza podem ser armazenados
• As imagens coloridas (mais complexas)
precisam maior profundidade de bit
51.
52. Armazenando informação da imagem
• A profundidade de bit está diretamente
relacionada ao método usado pelo
computador para armazenar a escala de cinza
ou a informação de cor de cada pixel
• No nível mais básico, os computadores são
binários – trabalham com zero e um
• Os computadores mantêm o controle de zero
e um desligando os “disjuntores” dos
microchips
53.
54. Armazenando informação de imagem
• Cada um dos milhões de “disjuntores” tem o
valor binário de um BIT
• Os computadores pessoais trabalham com
grupos de oito disjuntores, que formam uma
única unidade chamada BYTE
• Um byte pode ter 256 valores diferentes
• Uma imagem em PxB, o valor da escala de
cinza para cada pixel está contido em um byte
55. Armazenando informação de imagem
• Como cada byte pode conter 256 níveis
diferentes, cada pixel pode ter 256 níveis
diferentes de cinza.
• A imagem digital PxB tem profundidade de 8
bits ou 1 byte
• Em uma imagem digital colorida são
necessários três bytes para representar cada
pixel. Um byte para cada uma das três cores
primárias aditivas
56. Qualidade da imagem
• O tamanho do arquivo tema ver com a sua
qualidade para reprodução
• Resolução – tamanho de cada pixel
• Profundidade de bit – quantidade de níveis de
cinza
• Quanto maior o arquivo, mais informação ele
contém
• Quanto maior a resolução, maior a qualidade
e maior a cópia pode ser
59. Foto cores – teoria da cor
• Existem dois sistemas para mostrar toda a
gama de cores
• Um, o aditivo, é usado basicamente na
televisão a cores
• O outro, o sistema subtrativo, é empregado
na fotografia e nas artes gráficas
• Ambos utilizam misturas de três cores básicas
para gerar todas as outras cores
60. Sistema aditivo
• É baseado
no princípio
de que,
adicionando-
se partes
iguais de luz
vermelha,
verde e azul,
cria-se luz
branca
61. Sistema aditivo
• É o sistema ideal para televisão e monitores
de computador, porque a tela cria e emite luz
como as três fontes de luz colorida
• O tubo de televisão tem três canhões de
elétrons, um da cada cor aditiva, criando
todas as cores que se vêem na TV
• É chamado, em computação, de RGB
62. Sistema substrativo
• É o inverso do
sistema aditivo.
Ele começa com
uma luz branca e
usa filtros para
subtrair cores.
São usados três
filtros: amarelo,
magenta e ciano
63. Sistema substrativo
• É usado tanto na fotografia quanto na
impressão colorida
• Os corantes fotográficos ou as tintas de
impressão agem como filtros primários
subtrativos que modificam a luz e produzem
toda a gama de cores que vemos
• O sistema é conhecido como CMYK
• As combinações de cores possíveis são
conhecidas pelo círculo cromático
65. Matiz, saturação e valor
• Matiz – é a própria cor
• Saturação – é a pureza da cor
• Valor – é a luminosidade ou obscuridade da
cor
• Em muitas aplicações de computador isso é
conhecido como perfil HSB para matiz,
saturação e valor (brilho)
67. Fotografia digital colorida
• As imagens são produzidas com o uso dos
sistemas aditivos e subtrativos da mesma
forma que a fotografia convencional
• Os programas de tratamento de imagem
(Photoshop) oferecem meios adicionais para
ver e interagir com as imagens digitais
coloridas
• Métodos de armazenamento e compactação
são muito importantes
69. Sistema RGB
• Sistema aditivo que combina vermelho, verde
e azul.
• Em uma imagem RGB típica, cada cor primária
aditiva é representada por um byte.
• A informação de coro completa para cada
pixel é armazenada em três bytes
• A profundidade de byte de uma imagem RGB
é de 24 bits
• A representação de três bytes permite uma
imagem de 256 x 256 x 256 = 16.777.216
cores no total
70. Sistema CMYK
• Sistema de cor subtrativo formado pelas cores
primárias subtrativas (Ciano, Magenta e
Amarelo) com uma camada adicional K que
contém o preto e valores de cinza neutros
• A maioria das impressoras coloridas usa esta
tecnologia
• A maioria da imagens CMIK armazena 4 bytes
por pixel. Um byte para cada cor primária e
mais um byte para o K
72. Balanceamento de cor
• As cores primárias aditivas são complementares das
primárias subtrativas
• Pode-se, por conta disso, controlar o balanceamento
de cores de uma imagem
73.
74. Sistema HSB
• Permite o controle da matiz, saturação e
brilho independentemente
• Muitas pessoas acham este sistema mais
intuitivo do que o RGB e o CMYK
• O HSB não é realmente um sistema de cores,
mas uma maneira diferente de ajustar
qualquer sistema de cor usado
76. Saturação
• Uma cor completamente saturada é uma cor
pura, sem outros matizes misturados
• Uma cor completamente não saturada será
totalmente cinza, sem “cor” alguma, nada se
diferenciando dos outros cinzas
• A maioria dos programas de processamento
de imagens permite que a saturação da cor
seja modificada de forma contínua, co cinza
neutro a cor pura
77. Brilho
• Também conhecido como luminosidade ou
valor
• Você pode alterar o brilho de uma cor
adicionando ou subtraindo a luz branca
• Na ponta da escala de brilho, não existe
nenhuma luz branca e a cor aparece como
preto denso
• Na outra ponta, existe tanta luz branca que
ela se sobrepõe à própria cor e aparece como
branco brilhante
78. Imagem bitmap ou vetorial
• Os computadores lidam com informações
gráficas de duas maneiras.
• Uma é tratar a imagem como um padrão de
pixels. É a imagem rasterizada ou bitmap, que
consiste em uma série de pixels arrumados
em uma grade
• Outra forma é vetorial, onde o desenho é uma
coleção de linhas, curvas e círculos
79. Principais arquivos
• TIFF – Tagged-Image File Format - Tamanho maior,
qualidade melhor. O mais universal arquivo de
imagem bitmap. Suportam compressão sem perda
(LZW) e podem ser usados tanto em Windows como
em Macintosh
• PSD – Formato padrão usado pelo Photoshop. Deve
ser usado enquanto a imagem é editada no progrma
e depois convertido
• GIF – Graphics Interchange Format – Reduz os
arquivos de duas maneiras, usando cor indexada e
compresão sem perda (LZW). É usado mais na
Internet e pouco para impressão
80. Principais arquivos
• JPEG – Joint Photographic Experts Group –
Compressão com perda de qualidade. Quando o
arquivo é descomprimido, não fica idêntico ao
original. A perda de informação é minimizada
pelo descarte de informação de cor que o olho
humano não percebe tão rapidamente
• RAW – Armazenam os dados sem nenhuma
compressão. É diferente para cada modelo de
câmera fotográfica. Não tem compressão
81. Principais arquivos
• PNG – Portable Network Graphics –
Alternativa ao formato GIFF muito usado na
Internet
• PICT – Formato vetorial padrão dos
computadores Macintosh
• BMP – Formato padrão para computadores
com plataforma Windows
82. Principais arquivos
• EPS – Encapsulated PostScript –
Frequentemente usado para exportar imagens
para programas de edição eletrônica como
Page Maker e QuarkXExpress, Free Hand ou
Ilustrator. O arquivo EPS é muito versátil.
Pode conter bitmap ou vetorial, RGB ou CMYK
e também imagens PxB