Aparelhos Eletrônicos

 

Câmera Digital

Parte 1    Parte 2    Parte 3    Parte 4    Parte 5

Curso de Fotografia Digital - Parte 2

Momento decisivo, quando ações acontecem

O momento certo

Fotógrafos tornaram-se famosos por capturar sempre “o momento certo” quando ações acontecem e apenas um único momento a torna interessante. Para isso precisavam estar sempre pronto. Nunca se atrapalhar com controles e oportunidades perdidas. A grande maioria das câmeras digitais tem um sistema de disparo automático que deixa o fotógrafo livre de preocupações, mas por outro lado essas câmeras têm problemas que torna os momentos decisivos mais difíceis de serem obtidos.

Nas câmeras digitais mais simples, amadoras, acontece uma demora entre o momento de pressionar o disparador e a tomada da foto. Isso porque, no primeiro momento em que se pressiona o botão, a câmera rapidamente realiza um certo número de tarefas. Primeiro limpa o CCD, depois corrige o balanço de cor, mede a distância e estabelece a abertura do diafragma, e finalmente dispara o flash (se necessário) e tira a foto. Todos esses passos tomam tempo e a ação pode ter já ocorrido quando finalmente a foto é feita. Assim, fotografia de ação com uma câmera digital amadora (esportes, por exemplo), é praticamente impossível. Somente as chamadas câmeras avançadas, ou semi-profissionais, mais as SLR Digitais Pro, têm capacidade de fazer fotos em sequências rápidas inferiores a um segundo.

Depois ocorre um longo intervalo entre a foto tirada e a disponibilidade da câmera para uma nova foto porque a imagem capturada primeiro precisa ser armazenada na memória da câmera. Como a imagem precisa ser processada, uma certa quantidade de procedimentos são requeridos, e isso pode tomar alguns segundos (que parecerão uma eternidade para um fotógrafo que precisa fotografar uma ação rápida, já que não poderá ser feita outra foto enquanto isso tudo não for processado).

Mesmo nas câmeras SLR digitais, com mais recursos, pode ocorrer uma limitação na quantidade de fotos que se tira em sequência, em função do tempo que a câmera necessita para gravar a imagem num cartão de memória (o que pode depender da velocidade de gravação e leitura do próprio cartão). Por exemplo, uma câmera digital pode fazer fotos numa velocidade de 3 tomadas por segundo, mas até um máximo de 8 imagens.

Os controles de abertura e profundidade de campo

A abertura do diafragma, um série de placas sobrepostas formando uma espécie de anel, ajusta o tamanho da abertura das lentes através da qual passará a luz para atingir o sensor. Conforme isso muda de tamanho, afeta tanto a exposição da imagem como a profundidade de campo (o espaço dimensional no qual tudo ficará em foco).

A abertura do diafragma pode ser mais aberta para permitir mais luz, ou fechada para deixar passar menos luz. Enquanto o obturador regula o tempo de exposição, a abertura do diafragma controla a quantidade de luz. Portanto, quanto maior a abertura, mais luz atinge o sensor de imagem, quanto menor, menos luz atinge o sensor.

A área escura representa a profundidade de campo

Assim como a velocidade do obturador, a abertura do diafragma também afeta a nitidez da fotografia, mas de um modo diferente. Mudando-se o valor da abertura, muda-se a profundidade de campo, ou seja, o espaço dimensional que ficará nítido na cena, entre o primeiro plano e o segundo plano da imagem. Quanto menor a abertura usada, mais área da cena ficará nítida. Por exemplo, numa fotografia de paisagem, o fotógrafo vai querer uma abertura menor, de modo a que toda a paisagem (dos detalhes mais próximos aos mais distantes) estejam focados com nitidez; num retrato, o melhor será uma abertura maior, definindo a nitidez apenas na pessoa, tornando desfocado o restante da imagem e mantendo o interesse da foto apenas na pessoa.

Ajustes da abertura são determinados por números (F), e indicam o tamanho da abertura dentro da lente (no diafragma). Cada número deixa entrar metade da luz da abertura seguinte, e consequentemente duas vezes mais luz que a anterior. Da maior abertura possível para a menor, os número f tradicionalmente tem sido f/1, f/1.4, f/1.8, f/2, f/2.4 f/2.8, f/4, f/5.6, f/8, f/11, f/16, f/22, f/32 e f/45. Nenhuma lente possui toda a gama de ajustes; por exemplo, uma câmera digital padrão pode vir com uma lente de f/2 a f/16. A chamada “luminosidade” da lente é definida pela maior abertura, ou seja, no exemplo acima, f/2. Quanto mais luminosa a lente, melhor a qualidade e mais sofisticado o sistema ótico (e mais caro o preço).

Atenção para o fato de que quanto maior o número, menor a abertura para a luz. Assim, f/11 é menos luz que f/8, e assim por diante. Um detalhe é que a abertura maior pode mudar numa lente zoom, de modo a acomodar o sistema ótico, por exemplo, numa lente zoom de 35 a 200 mm, a abertura máxima (a luminosidade) pode ser f/2-f/4 (variando de f/2 a f/4 conforme se move o zoom de distância focal de 35 mm para 200 mm).

Observação: distância focal é a distância entre a lente e o filme (ou sensor). Conforme essa distância, a imagem parecerá mais próxima ou mais distante. Uma lente zoom permite diferentes distâncias focais, mudando assim a proximidade dos objetos na foto.

Escolhendo modos de exposição

Muitas câmeras oferecem mais de um modo de exposição. No modo totalmente automático, a câmera faz um ajuste de velocidade e abertura para produzir a melhor exposição possível. Geralmente, existem dois outros modos, que são muito usados, o de prioridade de abertura, ou de prioridade de velocidade. Todos oferecerão bons resultados na maioria das condições de fotografia. De qualquer modo, alternar entre esses modos pode trazer algumas vantagens.

Vamos examinar cada um desses modos.

  • Totalmente automáticos – este modo configura a velocidade e abertura, mais o balanço de cor (White-balance) e foco sem a intervenção do fotógrafo. Permite que o fotógrafo preste atenção na cena e ignore a câmera.
  • Modo programado – pemite que o fotógrafo selecione uma variedade de situações como fotos de retrato, cenários, esportes, crepúsculo, etc. Ainda é a câmera que estabelece a abertura e a velocidade nessas condições.
  • Prioridade de abertura – este modo permite que o fotógrafo selecione a abertura necessária para obter uma certa profundidade de campo enquanto o sistema combina essa abertura com a velocidade de obturador necessária para correto balanço da exposição. Usa-se esse modo sempre que a profundidade de campo for importante. Para ter certeza de um foco geral num cenário, escolhe-se uma pequena abertura (ex, f/16). O mesmo funciona para uma foto close-up (onde o foco é crítico). Já para deixar o fundo fora de foco e concentrar a nitidez num único plano, seleciona-se uma abertura grande, exemplo f/4.
  • Prioridade de obturador – este modo permite que se escolha a velocidade do obturador como prioritária, e é necessária quando se pretende congelar uma imagem ou tremer propositalmente um objeto, deixando a escolha da abertura para a câmera. Por exemplo, quando se fotografa ação de esportes, animais ou em fotojornalismo, a escolha de velocidade de obturador é quase obrigatório, com velocidades maiores, 1/500 por exemplo, para congelar a ação, ou baixas velocidades, 1/8 por exemplo, para tremer a imagem.
  • Modo manual – permite que se selecione tanto a velocidade como a abertura. Recomendado somente para fotógrafos experientes e profissionais.

Um dos fatores que fazem da fotografia algo tão fascinante é a chance que temos de interpretar a cena do nosso ponto de vista. Controles de velocidades de obturador e de abertura são dois dos modos mais importantes de fazer fotos únicas. Conforme o fotógrafo vai se tornando mais familiar com os efeitos da foto, encontrará a oportunidade de fazer escolhas instintivamente.

Capacidade de resolução da imagem

Quanto mais fotocélulas e conseqüentemente mais pixels, melhores serão os detalhes gravados e mais nítidas as imagens. Se alguém ampliar e continuar ampliando qualquer imagem digital, chegará um momento em que os pixels vão começar a aparecerem multifacetados (esse efeito se chama pixelização). Portanto, quanto mais pixels existirem em uma imagem, mais ela aceitará ampliações com qualidade; quanto menos pixels, menor a ampliação possível.

Portanto, aqui está a diferença básica entre modelos de câmeras digitais (e seus preços): a capacidade de resolução da imagem (e sua subseqüente qualidade e tamanho final). Outras diferenças são pertinentes à quantidade de recursos disponíveis na câmera e seu grau de automação ou possibilidade de ajustes manuais.

Voltando a falar sobre resolução, como vimos, os sensores de imagens contém uma teia (ou grade) de fotocélulas, cada uma delas representando um pixel na imagem final - assim a resolução de uma câmera digital é determinada pela quantidade de fotocélulas que existem na superfície de seu sensor. Por exemplo, uma câmera com um sensor no qual cabem 1600 (largura) x 1200 (altura) fotocélulas gera uma imagem de 1600 x 1200 pixels. Então, para efeito de terminologia e definição da capacidade de uma câmera, dizemos simplesmente que ela tem uma resolução de 1600 x 1200 pixels, ou 1,92 megapixels.

Atualmente as câmeras mais simples geram arquivos de 640 x 480 pixels, enquanto câmeras de capacidade média estão por volta de 1600 x 1200 pixels, e câmeras de ponta produzem imagens de 2.560 x 1.920 pixels (perto de 5 megapixels). Importante notar que isto se refere às câmeras amadoras, pois algumas profissionais já produzem mais de seis milhões de pixels. Quanto maior a capacidade de resolução, geralmente maior também o preço.

Outro detalhe importante é que quanto maior a imagem em pixel, maior o tamanho do arquivo resultante. Por isso, normalmente as câmeras digitais possuem uma regulagem para o tamanho do arquivo, dando a opção para o fotógrafo de escolher o modo de resolução. Assim, se alguém vai capturar imagens para a WEB e possui uma câmera de 3.3 megapixels, pode regulá-la para gerar imagens de apenas 640 x 480 pixels, bem mais fáceis de armazenar e lidar. Por exemplo, uma câmera de alta resolução, 2048 x 1560 pixels, gera uma imagem média em arquivo JPEG (depende das tonalidades e intensidade de luz retratadas) de aproximadamente 1,2 MB (megabytes). Já na resolução de 640 x 480 pixels, no mesmo formato JPEG, gerará um arquivo de apenas 220 Kb (kilobytes), ou seja, menos de 1/5 do tamanho.

Além da preocupação com espaço de armazenamento e rapidez em transmissão pela Internet, em termos práticos deve-se levar em conta o tamanho com o qual se pretende imprimir a imagem. Ainda seguindo os exemplos acima, a imagem de 2048 x 1560 pixels (3.3 MB) pode ser impressa, sem qualquer perda, em alta resolução (300 dpi), no tamanho de 17,34 x 13 cms, enquanto a imagem de 640 x 480 pixels permite apenas uma boa imagem impressa no tamanho 5,42 x 4,06 cms. Como se calcula o tamanho em termos de resolução é assunto que trataremos mais adiante neste curso, quando abordarmos a impressão.

Resolução Tamanho em pixels Tamanho do arquivo Tamanho da impressão
300 dpi 640x480 938.292 bytes 5,42x4,06 cm
300 dpi 800x600 1.456.648 pixels 6,77x5,08 cm
300 dpi 1024x768 2.375.728 bytes 8,67x6,50 cm
300 dpi 1600x1200 5.375.728 bytes 13,55x10,16 cm
300 dpi 2048x1536 9.453.572 bytes 17,34x13,00 cm

Apesar de quanto maior o número de fotocélulas num sensor melhores imagens serem produzidas, acrescentar simplesmente fotocélulas à um sensor nem sempre é fácil e pode resultar em problemas. Por exemplo, para se colocar mais fotocélulas num sensor de imagem, o sensor precisaria ser maior ou as fotocélulas menores. Chips maiores com mais fotocélulas aumentam as dificuldades de construção e os custos para o fabricante. Fotocélulas menores, por outro lado, serão menos sensíveis e irão capturar menos luz que as de um chip normal. Concluindo, colocar mais fotocélulas num sensor, além de sua complexidade e alto custo, acaba resultando em arquivos maiores, de difícil armazenamento. Por isso a constante corrida tecnológica entre os fabricantes na busca de sensores de maior resolução, com qualidade e preço competitivo.

A tecnologia Foveon

Recentemente, em 2002, surgiu um novo tipo de sensor digital no mercado, o Foveon X3, que por enquanto equipa apenas uma câmera digital, a Sigma SD9. Este sensor, do tipo CMOS, é uma verdadeira revolução no mercado, pois apresenta os sensores de imagem em camadas, e não mais num único nível com três fotocélulas diferentes para capturar cada cor (como os CCDs comuns). A vantagem desse sistema, que aproveita a capacidade do silício de absorver as ondas de luz, é que permite ao sensor funcionar como um filme fotográfico (que também captura a luz em camadas, embora tenha como sensor uma película química). Assim, cada pixel é formado por todas as cores, e não por cálculos e interpolações entre as informações colhidas por três fotocélulas diferentes (o que gera perdas). Teoricamente, com isso obtêm-se mais resolução, nitidez na imagem, e melhor amplitude de cores, igualando ou até superando a qualidade da fotografia convencional.

Contudo, a tecnologia ainda está em seu começo, com o amadurecimento, se for comprovada a sua eficiência, deve se constituir no futuro da fotografia digital.

O Tamanho da Imagem

Vamos começar por uma pequena revisão do visto até aqui. Como já sabemos, a qualidade da fotografia digital, tanto impressa como a apresentada na tela, depende principalmente do número de pixels utilizados para criar a imagem (fator também conhecido como resolução). Esse número, como vimos, é determinado pela quantidade de fotocélulas existentes no sensor de imagem da câmera (algumas câmeras usam o artifício de acrescentar pixels “artificiais”, inflando o tamanho da imagem, mas na prática isso não funciona; apenas aumenta o tamanho da imagem à custa da qualidade).

Quanto mais fotocélulas e conseqüentemente mais pixels, melhores serão os detalhes gravados e mais nítidas as imagens. Se alguém ampliar e continuar ampliando qualquer imagem digital, chegará um momento em que os pixels vão aparecer multifacetados (esse efeito se chama pixelização). Portanto, quanto mais pixels existirem em uma imagem, mais ela aceitará ampliações com qualidade; quanto menos pixels, menor a ampliação possível.

Como funciona o artifício de acrescentar pixels “fantasmas”, artificiais, na imagem, para simular maior resolução? Como o leigo pode distinguir entre a realidade e a ficção no mundo dos pixels e das câmeras digitais?

As questões acima são pertinentes, pois é preciso cuidado com algumas propagandas de câmeras digitais e também de scanners. Acontece que existem dois tipos de resolução, a ótica e a interpolada. A resolução ótica é o número absoluto de pixels que o sensor da imagem consegue capturar fisicamente durante a digitalização. Ou seja, corresponde exatamente à realidade. Contudo, por meio de software incorporado na câmera (qualquer programa editor de arquivos de imagem também pode fazer isso), é possível “acrescentar” mais pixels fictícios, num processo chamado “interpolação”. Para isso o software avalia os pixels ao redor de cada pixel que o cerca, para “imaginar” como deveria ser um novo pixel vizinho em termos de cor e brilho. O que na prática nunca dá certo - as imagens assim geradas apresentam geralmente inúmeras deficiências. O importante é ter em mente que a resolução interpolada não adiciona nenhuma informação à imagem – só acrescenta pixels que fazem o arquivo ficar maior. A qualidade final da fotografia fica geralmente comprometida.

Contudo, como toda regra tem sua exceção, em nível de software hoje em dia já existe um que realmente consegue a façanha. Ele não “imagina” nada. Realmente cria pixels que funcionam. Só que não está embutido em nenhuma câmera digital, é vendido somente para instalação em computadores - este incrível software, que recomendamos, é o Genuine Fractals. Alguns fabricantes de câmeras digitais já estão distribuindo cópias “lights” deste software especial junto com suas câmeras, como a Nikon.

Bits e Bytes

Quando lemos textos sobre sistemas digitais, freqüentemente encontramos os termos bit e byte. Alguns conceitos abordados nesta apostila exigem algum conhecimento básico a respeito, portanto, antes de prosseguirmos, façamos um pequeno resumo destes conceitos.

Um bit é a menor unidade digital, e também a unidade básica de informação que um computador utiliza. O termo tem como origem o termo binary digit, ou seja, dígito binário. Pode ser representado por dois possíveis estados, ligado (indicado pelo número um) e desligado (indicado pelo zero).

Já os bytes são grupos de 8 bits (agrupados para fim de processamento). Como cada grupo de 8 bits também tem dois estados (ligado-desligado), e o total de informação contido é 28 , ou seja, 256 combinações possíveis.

É interessante acrescentar ainda que kilobyte é uma medida que representa cem bytes, enquanto um megabyte corresponde à mil bytes.

Resoluções de Monitor

A resolução de um monitor é definida por sua largura e altura em pixels. Por exemplo, um monitor pode apresentar na tela 640 x 480 pixels, 800 x 600, 1024 x 768 pixels e assim por diante. O primeiro número é o número de pixels ao longo da tela (largura), e o segundo o número de linhas.

As imagens apresentadas num monitor são sempre em baixa-resolução. Geralmente as imagens mostradas na tela são convertidas para uma resolução de 72 pixels por polegada. Na verdade, não é esse o número exato em cada monitor, mas serve como base. Por exemplo, um monitor de 14 polegadas terá muito menos espaço físico para distribuir uma imagem com 800 x 600 pixels do que um monitor de 17 polegadas (onde os pixels terão mais espaço para se espalhar). Por isso, quanto maior o monitor, o ideal é ir aumentando a resolução padrão na tela para se obter imagem mais nítida. Um monitor de 21 polegadas, por exemplo, pode perfeitamente apresentar imagens em 1600 x 1200 pixels, enquanto para um monitor de apenas 14 polegadas isso seria impossível.

Resoluções de impressoras e scanners

As resoluções de impressoras e dos scanners são geralmente definidas pelo número de pontos por polegadas (em português, a abreviação pouco usada seria ppp, correspondente ao inglês dpi) que imprimem ou escaneiam. No monitor, como os pontos correspondem aos pixels, pode-se dizer também pixels por polegada, enquanto na impressora prevalece o termo pontos por polegada, pois cada pixel pode ser representado por vários pontos de impressão1. Como comparação, um monitor tem resolução de 72 dpi, uma impressora jato de tinta caseira de 600 a 1400 dpi, e uma impressora jato de tinta comercial de 1400 a 2880 dpi ou mais. Contudo, é importante diferenciar entre a resolução da imagem e as resoluções dos dispositivos de saída.

1 Isso gera confusão para muita gente, pois quando se salva um arquivo de imagem, a resolução é dada em pixels por polegada, sendo um arquivo de alta resolução geralmente igual a 300 pixels por polegada, ou seja, 300 dpi (que correspondem à capacidade máxima de impressão para impressoras de qualquer tipo). Ora, numa impressora jato de tinta, cada pixel pode ser representado por vários pontos de impressão, e portanto, mesmo que a resolução da impressora seja de 2880 dpi, na verdade essa resolução diz respeito apenas a recursos para melhor representar cada pixel na resolução padrão de 300 dpi.

Reprodução das cores

Como se sabe, a luz não passa de uma forma de energia eletromagnética, relacionada com o rádio, o radar, os raio-x, etc. Ela se propaga a partir de uma fonte de luz (de lâmpadas ao nosso Sol) em movimentos retilíneos, descrevendo ciclos em forma de ondas regulares que vibram perpendicularmente à direção de sua propagação. Embora não seja de nosso interesse estudar física, é importante compreender algumas de suas propriedades, principalmente em função das cores.

A luz, vista pelos olhos humanos, constitui uma faixa relativamente estreita de sua energia magnética irradiada, que se distribui aproximadamente entre 400 e 700 nm2. Esta faixa constitui o chamado espectro visível, e dentro dele cada comprimento de onda produz um estímulo diferente na parte posterior de nossos olhos – assim são percebidas as cores. A mistura de todos os comprimentos de onda do espectro visível é o que chamamos de luz branca.

A cores são assim distribuídas no espectro visível:

Antes dos 400 nm existe a chamada luz ultravioleta, invisível para a vista humana. A partir dos 400 nm, a luz passa a ser perceptível, e é de um violeta profundo, tornando-se azul na medida em que o comprimento da onda se aproxima de 450 nm. Esse azul vai cedendo lugar à um verde azulado por volta dos 500 nm, e a partir dos 580 nm começa a surgir o amarelo. Já nos 600 nm o amarelo vai passando para o laranja, e perto dos 650 nm, o vermelho vai escurecendo paulatinamente, até que a vista humana não consegue mais enxergar a luz, que passa ao infra-vermelho.

É importante notarmos que tudo o que vemos (e pode ser fotografado), dependo dos objetos que refletem os raios de luz, e que são tanto mais visíveis quanto mais próximos estiverem de uma fonte luminosa. Isso tem conseqüências práticas importantes para a fotografia em geral, principalmente em função da exposição correta (abertura do diafragma e velocidade do obturador), e no caso da fotografia digital não é diferente, em função da sensibilidade necessária para um sensor de imagem capturar as cores. Existem diversas implicações no modo como as fotocélulas que compõem um sensor percebem a luz, e como o chip do sensor processa essas informações, conforme veremos adiante.

Um dos grandes problemas da fotografia em geral, desde os seus primórdios, sempre foi o da captura correta das cores tais como as vemos na natureza, pois isso é praticamente impossível de ser reproduzido por material fotográfico. A amplitude de cor existente na natureza não pode simplesmente ser embalada por nenhum mecanismo humano, exceto os nossos próprios olhos.

Nas primeiras emulsões fotográficas, em branco e preto, apenas os objetos azuis eram percebidos pelo filme, ficando os de outras cores invisíveis. Mais tarde surgiu o filme orthocromático, que chegava até o verde, ignorando os tons laranja e vermelho. Finalmente, com o pancromático, as fotos passaram a cobrir quase todas tonalidades, mas com limitações. Os filmes a cores também sempre sofreram do mesmo problema, principalmente na hora de copiar a imagem em papel fotográfico. De qualquer modo, até hoje nenhum tipo de filme conseguiu cobrir com perfeição as cores da natureza.

A fotografia digital enfrenta o mesmo problema. A amplitude de cores que um sensor digital consegue capturar também é ligeiramente inferior, por exemplo, ao de um filme de slides, embora já esteja ao nível do filme tradicional em negativo (colorido)2.  Vejamos como a câmera digital “enxerga” as cores e as apresenta na tela de um monitor.

RGB

As cores na imagem fotográfica apresentada no monitor de um computador diferem em muito das cores naturais. Na verdade, são mais uma simulação de cores de modo a “enganar” a vista humana, e permitir que nós enxerguemos as cores na tela.

As cores num monitor são baseadas em três cores primárias – vermelho, verde e azul (em inglês; red, green and blue, ou RGB). Este modo é chamado aditivo, porque quando as três cores são combinadas em quantidades iguais, formam o branco. O sistema aditivo é utilizado sempre que a luz é projetada para formar cores, como em monitores. Assim, num monitor, cada pixel é composto por um grupo de três pontos, cada um de uma cor (vermelha, verde e azul).

O grande problema com os monitores para a fotografia digital, é que existem centenas de modelos de monitores, cada um com um modo próprio de apresentar cores na tela. É importante estudarmos o que fazer a respeito, pois de repente, vemos uma foto linda em nosso monitor, e quando é impressa (seja numa impressora caseira ou num laboratório fotográfico), temos uma decepcionante foto descolorida ou com cores fortes demais...

2 Os filmes em transparência, ou slides, conseguem maior amplitude de cor que os de negativo impressos em papel fotográfico

Parte 1    Parte 2    Parte 3    Parte 4    Parte 5

Fonte : www.tecnoshop.inf.br
Curso de Fotografia Digital - Parte 2