Fundamentos básicos da Fotografia digital
|
|
|
|
|
|
|
|
|
• Imagens InusitadasA fotografia digital está encontrando rápida aceitação em muitas áreas da fotografia. Um dos campos na qual está ganhando muitos adeptos, por exemplo, é o da macrofo-tografia. Quase todas as câmeras digitais permitem fotos em distâncias de apenas dois ou três centímetros. Assim, fica fácil obtermos imagens inusitadas de pequenos objetos, insetos, etc. Outro lado da fotografia que ganhou impulso com a chegada das câmeras digitais é o da fotografia artística. Fotos digitais podem se tornar em imagens incríveis a partir de softwares especiais ou montagens a partir de cópias trabalhadas posteriormente por meio de técnicas diversas. Um ponto interessante na fotografia digital é que as fotos podem ser vistas instantaneamente. Desse modo, praticamente fica afastada a possibilidade de erros. Outra vantagem é a facilidade de se repetir a foto em caso de necessidade - acabam assim as surpresas desagradáveis, como, por exemplo, quando se vai buscar um filme no laboratório e se descobre que a tampa da máquina ficou cobrindo a objetiva, que o filme estava vencido (e as cores ficaram alteradas) e assim por diante...
A maior de todas as vantagens, contudo, é que ninguém precisa mais economizar “cliques”, ou seja, hesitar em fazer qualquer foto, preocupar-se com o custo de filmes, revelação ou a quantidade disponível de material. Com a foto digital, utilizando-se uma câmera equipada com um cartão de grande capacidade de armazenamento, clica-se à vontade, e com isso o fotógrafo acaba obtendo boas imagens que de outra forma poderiam ser perdidas num momento de dúvida... Já que o custo da imagem é zero, ou melhor, apenas limitado ao custo inicial da máquina fotográfica, clicar à vontade não causa nenhum tipo de preocupação. Recomendo inclusive, para quem quer fotografar em externas (viagens por exemplo), além da câmera digital, o uso de um notebook, pois assim pode-se produzir centenas e centenas de imagens num único dia, sem qualquer preocupação com limites. Já que o custo da imagem é zero, ou melhor, apenas limitado ao custo inicial da máquina fotográfica e do computador portátil, clicar à vontade não causa nenhum tipo de preocupação. Outra vantagem da fotografia digital é que ficou fácil mostrar fotos para outras pessoas. Por exemplo, publicando-as em páginas da Internet. Também se pode mostrar as fotos pela tela de uma televisão, bastando conectar a câmera digital à entrada de vídeo do aparelho de TV. Graças a esse recurso, é possível selecionar as melhores fotos que estão gravadas no computador, regravá-las no cartão de memória da câmera digital e depois apreciá-las num aparelho de TV. Softwares podem fazer apresentação de fotos como se fosse uma projeção de slides. E mais, como a maioria das câmeras digitais de melhor qualidade também podem produzir vídeos, filmar também é muito simples, bem como transferir as imagens para uma fita de videocassete. Alguns fotógrafos comerciais de estúdio foram os primeiros a adotar a fotografia digital, já que graças a backs digitais as fotos são tiradas, corrigidas, editadas, impressas e enviadas com rapidez ao cliente, sem custos de transporte, provas, filmes, revelação, etc.
Com tudo o exposto acima, fotojornalistas e empresas como jornais e agências de notícia já adotaram ou estão adotando as câmeras digitais como padrão pela rapidez de captura e envio de imagens: fotografa-se um assunto, e do próprio local transmite-se a imagem digital por telefone ou outros meios à redação. Não podemos esquecer ainda que a fotografia digital também é ideal para aplicações científicas. De fato, em astronomia, os sensores digitais já estão sendo usados há anos, até mesmo no telescópio orbital Hubble. Também nos microscópios estão sendo utilizados sensores digitais. Hoje em dia, os maiores usuários de imagens fotográficas digitais são os desenvolvedores de multimídia e os webmasters (fotos digitais poupam tempo e dinheiro). Desde que tanto a multimídia como páginas da WEB são apresentadas sempre em monitores de computador (ou projetadas por meio de equipamentos computadorizados), as imagens digitais são uma necessidade. Em pouco tempo o usuário doméstico também estará lidando com desenvoltura com a fotografia digital. Finalmente, outro campo para imagens digitais é o de fotos de identificação para empresas, por exemplo. Pode-se também usar fotos para cartões de visitas, não obrigatoriamente da pessoa, mas de temas que tenham relação com a profissão, atividade ou empresa. |
|
|
• Resgatando Álbuns de FamíliaQuantos de nós não possuem gavetas ou pastas lotadas de fotografias, familiares ou de viagens, em sua maioria esquecidas e totalmente desorganizadas? Certo dia a gente lembra de uma ocasião especial, recorda ter alguma foto daquele momento ou lugar, quer ver ou mostrar a alguém, mas como encontrar a imagem? Pois é, a maioria das pessoas tira montes de fotografias para depois abandoná-las. Com a fotografia digital isso muda drasticamente, já que as imagens são facilmente inseridas em arquivos de texto, e-mails ou mesmo páginas da Web, além de impressas em impressoras caseiras (papel fotográfico e impressoras jato de tinta oferecem ótimos resultados) ou mesmo em papel fotográfico tradicional em laboratórios que lidem com arquivos digitais. Assim, fica muito fácil mostrá-las e compartilhá-las com outras pessoas. Por outro lado, é possível resgatar velhos álbuns de família esquecidos em gavetas, amarelando e estragando com o tempo. Se as imagens que eles contém forem escaneadas, podem ser recuperadas (e também as memórias que evocam), e depois apresentadas do mesmo modo que as novas fotos digitais. Sem falar da vantagem de que, enquanto fotos e negativos perdem cor e nitidez com o tempo, um arquivo digitalizado é perene (não esquecendo que devem sempre ser “becapeados” em CDs ou discos rígidos). Existem ainda softwares que simulam álbuns tradicionais de fotos na tela do computador, permitindo assim organizar e apresentar as imagens com facilidade. |
|
|
|
|
|
• Conceitos e procedimentosUma grande fotografia começa quando se reconhece uma grande cena ou motivo. Mas reconhecer uma grande oportunidade não é o suficiente para fotografá-la; o fotógrafo deve estar preparado. E isso envolve o conhecimento de sua câmera de modo a fotografar o que se vê.
Discussões sobre procedimentos que se usa para câmeras específicas estão integradas aos conceitos, aparecendo quando se aplicam. Esta visão integrada permite que o fotógrafo entenda primeiro os conceitos de fotografia e depois veja como procurar no manual de sua câmera os passos necessários para utilizá-los em qualquer situação. Para conseguir fotografias mais interessantes e criativas, o fotógrafo precisa entender como e quando usar um mínimo de recursos de sua câmera, como profundidade de campo e controle de exposição. Assim, estará pronto para manter tudo numa cena com nitidez absoluta para exibir melhores detalhes, ou deixar meio nebuloso para dar um ar impressionista à um retrato. Ou tomar closes dramáticos, congelar ações rápidas, criar maravilhosos panoramas, e capturar a beleza de arco-íris, por-de-sol, queimas de fogos e cenas noturnas. Não existem regras ou “melhores” modos de fazer fotos. Grande fotógrafos aprenderam o que sabem experimentando e tentando novos modos de fotografar. Câmeras digitais tornam isso muito fácil porque não existem custos de filmes ou demoras para se ver os resultados. Cada experiência é livre, e cada fotógrafo poderá registrar os resultados imediatamente, ou passo a passo. |
|
|
• Controles da câmera e criatividadeCâmeras digitais com recursos oferecem controles criativos sobre as imagens. Elas permitem que se controle a luz e o movimento em fotografias, bem como o que deve aparecer nítido e o que não deve. Embora a maioria das câmeras digitais simples sejam totalmente automáticas, algumas permitem que se faça pequenos ajustes que afetarão a imagem. As melhores câmeras oferecem uma ampla gama de controles, em alguns casos mais do que se pode encontrar em uma câmera 35 mm SLR. De qualquer modo, independentemente de quais controles a câmera oferece, os mesmo princípios básicos estão presentes. Mesmo que a câmera seja totalmente automática, é possível controlá-la indiretamente, ou tirar vantagem desses efeitos para controlar as imagens. • AutomatismoTodas as câmeras digitais possuem um modo automático que determina o foco, a exposição e o balanço de cor (White-balance). Tudo o que o fotógrafo tem a fazer é apontar a câmera e apertar o botão do disparo.
|
|
|
• O obturador e a exposiçãoO obturador mantém a luz longe do sensor exceto durante uma exposição (foto), quando abre sua cortina para permitir a luz de atingir o sensor de imagem. O período de tempo em que a cortina do obturador fica aberta afeta tanto a exposição da imagem como o movimento. Velocidades baixas de exposição do obturador deixam luz atingir o sensor da imagem por mais tempo, permitindo uma foto mais brilhante. Velocidades mais rápidas permitem menos tempo de luz, e assim a foto resulta mais escura. Em adição ao diafragma (a quantidade de luz que atingirá o sensor de imagem), a velocidade do obturador é o mais importante controle que se tem para a captura da imagem na fotografia. Entender a velocidade do obturador é vital quando se pretende que um objeto apareça nítido ou tremido na fotografia. Quanto mais tempo o obturador ficar aberto, mais tremido ficará o objeto na imagem (tanto em função de movimentos do objeto como por qualquer tremor do fotógrafo). Apesar das câmeras digitais poderem selecionar qualquer fração de segundo para uma exposição, há uma série de ajustes que tem sido tradicionalmente utilizados quando se usa uma câmera manualmente (que não podem ser feitas em algumas câmeras digitais simples). A velocidade tradicional de disparo (listada a seguir das velocidades mais rápidas às mais lentas), incluem 1/1000, 1/500, 1/250, 1/125, 1/60, 1/30, 1/15, 1/8, 1/4, 1/2, e 1 segundo (em câmeras mais sofisticadas podem chegar a 1/35.000 num extremo e no outro ficar o obturador aberto pelo tempo que o fotógrafo quiser). |
|
|
• O momento certoFotógrafos tornaram-se famosos por capturar sempre “o momento certo” quando ações acontecem e apenas um único momento a torna interessante. Para isso precisavam estar sempre pronto. Nunca se atrapalhar com controles e oportunidades perdidas. A grande maioria das câmeras digitais tem um sistema de disparo automático que deixa o fotógrafo livre de preocupações, mas por outro lado essas câmeras têm problemas que torna os momentos decisivos mais difíceis de serem obtidos. Nas câmeras digitais mais simples, amadoras, acontece uma demora entre o momento de pressionar o disparador e a tomada da foto. Isso porque, no primeiro momento em que se pressiona o botão, a câmera rapidamente realiza um certo número de tarefas. Primeiro limpa o CCD, depois corrige o balanço de cor, mede a distância e estabelece a abertura do diafragma, e finalmente dispara o flash (se necessário) e tira a foto. Todos esses passos tomam tempo e a ação pode ter já ocorrido quando finalmente a foto é feita. Assim, fotografia de ação com uma câmera digital amadora (esportes, por exemplo), é praticamente impossível. Somente as chamadas câmeras avançadas, ou semi-profissionais, mais as SLR Digitais Pro, têm capacidade de fazer fotos em sequências rápidas inferiores a um segundo. Depois ocorre um longo intervalo entre a foto tirada e a disponibilidade da câmera para uma nova foto porque a imagem capturada primeiro precisa ser armazenada na memória da câmera. Como a imagem precisa ser processada, uma certa quantidade de procedimentos são requeridos, e isso pode tomar alguns segundos (que parecerão uma eternidade para um fotógrafo que precisa fotografar uma ação rápida, já que não poderá ser feita outra foto enquanto isso tudo não for processado). Mesmo nas câmeras SLR digitais, com mais recursos, pode ocorrer uma limitação na quantidade de fotos que se tira em sequência, em função do tempo que a câmera necessita para gravar a imagem num cartão de memória (o que pode depender da velocidade de gravação e leitura do próprio cartão). Por exemplo, uma câmera digital pode fazer fotos numa velocidade de 3 tomadas por segundo, mas até um máximo de 8 imagens. |
|
|
• Os controles de abertura e profundidade de campoA abertura do diafragma, um série de placas sobrepostas formando uma espécie de anel, ajusta o tamanho da abertura das lentes através da qual passará a luz para atingir o sensor. Conforme isso muda de tamanho, afeta tanto a exposição da imagem como a profundidade de campo (o espaço dimensional no qual tudo ficará em foco). A abertura do diafragma pode ser mais aberta para permitir mais luz, ou fechada para deixar passar menos luz. Enquanto o obturador regula o tempo de exposição, a abertura do diafragma controla a quantidade de luz. Portanto, quanto maior a abertura, mais luz atinge o sensor de imagem, quanto menor, menos luz atinge o sensor. Assim como a velocidade do obturador, a abertura do diafragma também afeta a nitidez da fotografia, mas de um modo diferente. Mudando-se o valor da abertura, muda-se a profundidade de campo, ou seja, o espaço dimensional que ficará nítido na cena, entre o primeiro plano e o segundo plano da imagem. Quanto menor a abertura usada, mais área da cena ficará nítida. Por exemplo, numa fotografia de paisagem, o fotógrafo vai querer uma abertura menor, de modo a que toda a paisagem (dos detalhes mais próximos aos mais distantes) estejam focados com nitidez; num retrato, o melhor será uma abertura maior, definindo a nitidez apenas na pessoa, tornando desfocado o restante da imagem e mantendo o interesse da foto apenas na pessoa. Ajustes da abertura são determinados por números (F), e indicam o tamanho da abertura dentro da lente (no diafragma). Cada número deixa entrar metade da luz da abertura seguinte, e consequentemente duas vezes mais luz que a anterior. Da maior abertura possível para a menor, os número f tradicionalmente tem sido f/1, f/1.4, f/1.8, f/2, f/2.4 f/2.8, f/4, f/5.6, f/8, f/11, f/16, f/22, f/32 e f/45. Nenhuma lente possui toda a gama de ajustes; por exemplo, uma câmera digital padrão pode vir com uma lente de f/2 a f/16. A chamada “luminosidade” da lente é definida pela maior abertura, ou seja, no exemplo acima, f/2. Quanto mais luminosa a lente, melhor a qualidade e mais sofisticado o sistema ótico (e mais caro o preço). Atenção para o fato de que quanto maior o número, menor a abertura para a luz. Assim, f/11 é menos luz que f/8, e assim por diante. Um detalhe é que a abertura maior pode mudar numa lente zoom, de modo a acomodar o sistema ótico, por exemplo, numa lente zoom de 35 a 200 mm, a abertura máxima (a luminosidade) pode ser f/2-f/4 (variando de f/2 a f/4 conforme se move o zoom de distância focal de 35 mm para 200 mm). Observação: distância focal é a distância entre a lente e o filme (ou sensor). Conforme essa distância, a imagem parecerá mais próxima ou mais distante. Uma lente zoom permite diferentes distâncias focais, mudando assim a proximidade dos objetos na foto. |
|
|
• Obturadores das câmeras digitaisQuando um obturador se abre, ao invés de expor um filme, na câmera digital ele coleta luz no sensor de imagem – um dispositivo eletrônico de estado sólido. Como se viu anteriormente, o sensor de imagem contém uma grade de pequenas fotocélulas. Conforme a lente foca a cena no sensor, algumas fotocélulas gravam as luzes mais fortes, outras as sombras, enquanto terceiras os níveis de luzes intermediárias. Cada célula converte então a luz que cai sobre ela numa carga elétrica. Quanto mais brilhante a luz, mais alta a carga. Quando o obturador fecha e a exposição está completa, o sensor recorda o padrão gravado. Os vários níveis de carga são então convertidos para números binários que podem ser usados para recriar a imagem. Uma vez que o sensor tenha capturado a imagem, esta precisa ser convertida, ou seja, digitalizada, e depois armazenada. A imagem armazenada no sensor não é lida de uma vez, mas em partes separadas. Existem dois modos de se fazer isso – usando escaneamento interlaçado (interlaced) ou progressivo. Num sensor de escaneamento interlaçado, a imagem é inicialmente processada por linhas ímpares, depois por linhas pares. Este tipo de sensor é freqüentemente utilizado em câmeras de vídeo porque a transmissão de TV é interlaçada. Num escaneamento progressivo, as colunas são processadas uma após outra em seqüência. |
|
|
• Usando velocidade de obturador e abertura de diafragma ao mesmo tempoComo tanto a velocidade do obturador como a abertura do diafragma afetam a exposição (a quantidade total de luz que atinge o sensor da imagem), assim se pode controlar se a foto será mais clara ou escura, mais nítida ou menos nítida, e assim por diante. A velocidade do obturador controla o tempo que o sensor da imagem será exposto à luz e a abertura controla a quantidade de luz que entrará para compor a imagem. O fotógrafo, ou o sistema automático da câmera, pode casar uma velocidade de obturador curta (para deixar entrar luz num período curto) com uma abertura grande (para deixar entrar mais quantidade de luz); ou uma velocidade de obturador longa (para deixar entrar luz por um período maior) e uma abertura pequena (para deixar entrar menos luz). Em termos técnicos, não faz diferença a combinação usada. Contudo, os resultados não serão os mesmos, daí a magia de se controlar manualmente a câmera, ao invés de deixar ao sistema automático. É controlando de forma criativa essa combinação que se pode obter grandes fotografias. O objeto sempre se move, ou pelo menos a câmera poderá ser mover num curto espaço de tempo. Também a profundidade de campo será afetada. A conjugação desses fatores, e o controle sobre eles, é que fazem a diferença entre fotos convencionais e fotos de grande qualidade. Como vimos, cada abertura de um número f/ determina metade ou o dobro da abertura seguinte (para mais ou para menos). Assim, uma abertura de f/8 deixa entrar metade da luz de uma abertura de f/5.6. Já uma velocidade de obturador de 1/60 s deixa passar metade da luz que uma abertura de 1/30. Se o fotógrafo mudar a regulagem de uma exposição que mostra luz correta (balanceada) de f/8 com 1/30 s para f/5.6 com 1/60, obterá o mesmo resultado técnico correto – só que a profundidade de campo muda, assim como o controle dos movimentos – portanto, na primeira foto, teremos maior profundidade de campo com menos velocidade, na segunda, o contrário. Quanto maiores as diferenças nos controles, mais dramáticos serão os resultados da foto. Para fotografia “padrão”, precisa-se de uma média de velocidade em torno de 1/60 e de abertura f/5.6. Velocidades menores resultarão em tremores (embora um tripé possa ajudar) e aberturas menores limitarão a profundidade de campo. Uma câmera automática “pensa” pelo padrão, assim dificilmente se obterão fotos espetaculares com um sistema automático.
|
|
|
• Escolhendo modos de exposiçãoMuitas câmeras oferecem mais de um modo de exposição. No modo totalmente automático, a câmera faz um ajuste de velocidade e abertura para produzir a melhor exposição possível. Geralmente, existem dois outros modos, que são muito usados, o de prioridade de abertura, ou de prioridade de velocidade. Todos oferecerão bons resultados na maioria das condições de fotografia. De qualquer modo, alternar entre esses modos pode trazer algumas vantagens. Vamos examinar cada um desses modos.
Um dos fatores que fazem da fotografia algo tão fascinante é a chance que temos de interpretar a cena do nosso ponto de vista. Controles de velocidades de obturador e de abertura são dois dos modos mais importantes de fazer fotos únicas. Conforme o fotógrafo vai se tornando mais familiar com os efeitos da foto, encontrará a oportunidade de fazer escolhas instintivamente. |
|
|
• Usando o flashO flash incorporado em câmeras digitais, apesar de suas limitações, pode ser aproveitado com criatividade pelo fotógrafo. Existem basicamente os seguintes modos de uso de flash em câmeras digitais (algumas acrescentam mais ou menos recursos)
|
|
|
|
| OS
INVENTORES George Smith e Willard Boyle inventaram os sensores de imagens, os CCDs, nos laboratórios Bell, em 1969. Em 1970, os pesquisadores dos laboratórios da Bell construíram o primeiro CCD para vídeocâmera. Em 1975, eles apresentaram a primeira câmera equipada com CCD com imagem de qualidade suficiente para a televisão. Hoje a tecnologia do CCD atinge não apenas a televisão comum, mas também aplicações em vídeo que vão de monitoramento de segurança à televisão de alta definição, e do endoscópio à videoconferência. Fax, copiadoras, scanners, câmeras digitais e leitores de barras também empregam CCDs para transformar padrões de luz em informação útil. Desde 1983, quando telescópios foram equipados com CCDs, foi possível aos astrônomos estudar objetos milhares de vezes menores que os mais sofisticados filmes comuns podiam detectar, e gravar imagens em segundos que antes exigiam horas de exposição. Atualmente todos os telescópios, incluindo o Hubble (no espaço), utilizam sistemas de informação digital proporcionados por chips CCDs ultrasensíveis. Pesquisadores em outros campos do conhecimento, como em química, utilizam CCDs para observar reações químicas. |
Chegamos aqui a um ponto importante - a relação entre pixels e imagem.
As fotografias digitais são feitas de centenas de milhares ou até milhões de pequenos pontos chamados elementos da imagem, ou simplesmente pixels. Cada um desses pixels é capturado por uma única fotocélula do sensor de imagem ao se tirar uma foto, assim a quantidade de fotocélulas do sensor é que determina a quantidade de pixels numa imagem (e conseqüentemente, sua resolução, ou seja, a relação entre nitidez e tamanho da imagem). Portanto, numa câmera digital, cada fotocélula captura o brilho de um único pixel. O modo como essas fotocé-lulas estão dispostas determina a forma física da teia (ou grade, como queiram), que é por fileiras e colunas simples. Isso pode ser bem observado se ampliarmos demais as fotos, pois a imagem aparece montada em pequenos quadrados.
O computador e a impressora utilizam cada um desses pequenos pixels capturados pelas fotocélulas do sensor da câmera para apresentar a imagem na tela ou imprimir as fotos. Para isso, o computador divide a área do monitor onde será apresentada a imagem (ou a página de impressão onde será impressa) numa teia de pixels, de modo muito parecido ao modo como o sensor divide a imagem ao capturá-la. São utilizados os valores armazenados pelas fotocélulas para especificar o brilho e a cor de cada pixel dessa teia – uma forma de reprodução da imagem por números. Por isso, endereçar uma teia de pixels individuais desse modo se chama bit mapping (mapeamento de bits).
Concluindo, a qualidade da fotografia digital, tanto impressa como a apresentada na tela, depende principalmente do número de pixels utilizados para criar a imagem (fator também conhecido como resolução). Esse número, como vimos, é determinado pela quantidade de fotocélulas existentes no sensor de imagem da câmera.
|
|
• Capacidade de resolução da imagemQuanto mais fotocélulas e conseqüentemente mais pixels, melhores serão os detalhes gravados e mais nítidas as imagens. Se alguém ampliar e continuar ampliando qualquer imagem digital, chegará um momento em que os pixels vão começar a aparecerem multifacetados (esse efeito se chama pixelização). Portanto, quanto mais pixels existirem em uma imagem, mais ela aceitará ampliações com qualidade; quanto menos pixels, menor a ampliação possível. Portanto, aqui está a diferença básica entre modelos de câmeras digitais (e seus preços): a capacidade de resolução da imagem (e sua subseqüente qualidade e tamanho final). Outras diferenças são pertinentes à quantidade de recursos disponíveis na câmera e seu grau de automação ou possibilidade de ajustes manuais. Voltando a falar sobre resolução, como vimos, os sensores de imagens contém uma teia (ou grade) de fotocélulas, cada uma delas representando um pixel na imagem final - assim a resolução de uma câmera digital é determinada pela quantidade de fotocélulas que existem na superfície de seu sensor. Por exemplo, uma câmera com um sensor no qual cabem 1600 (largura) x 1200 (altura) fotocélulas gera uma imagem de 1600 x 1200 pixels. Então, para efeito de terminologia e definição da capacidade de uma câmera, dizemos simplesmente que ela tem uma resolução de 1600 x 1200 pixels, ou 1,92 megapixels. Atualmente as câmeras mais simples geram arquivos de 640 x 480 pixels, enquanto câmeras de capacidade média estão por volta de 1600 x 1200 pixels, e câmeras de ponta produzem imagens de 2.560 x 1.920 pixels (perto de 5 megapixels). Importante notar que isto se refere às câmeras amadoras, pois algumas profissionais já produzem mais de seis milhões de pixels. Quanto maior a capacidade de resolução, geralmente maior também o preço. Outro detalhe importante é que quanto maior a imagem em pixel, maior o tamanho do arquivo resultante. Por isso, normalmente as câmeras digitais possuem uma regulagem para o tamanho do arquivo, dando a opção para o fotógrafo de escolher o modo de resolução. Assim, se alguém vai capturar imagens para a WEB e possui uma câmera de 3.3 megapixels, pode regulá-la para gerar imagens de apenas 640 x 480 pixels, bem mais fáceis de armazenar e lidar. Por exemplo, uma câmera de alta resolução, 2048 x 1560 pixels, gera uma imagem média em arquivo JPEG (depende das tonalidades e intensidade de luz retratadas) de aproximadamente 1,2 MB (megabytes). Já na resolução de 640 x 480 pixels, no mesmo formato JPEG, gerará um arquivo de apenas 220 Kb (kilobytes), ou seja, menos de 1/5 do tamanho. Além da preocupação com espaço de armazenamento e rapidez em transmissão pela Internet, em termos práticos deve-se levar em conta o tamanho com o qual se pretende imprimir a imagem. Ainda seguindo os exemplos acima, a imagem de 2048 x 1560 pixels (3.3 MB) pode ser impressa, sem qualquer perda, em alta resolução (300 dpi), no tamanho de 17,34 x 13 cms, enquanto a imagem de 640 x 480 pixels permite apenas uma boa imagem impressa no tamanho 5,42 x 4,06 cms. Como se calcula o tamanho em termos de resolução é assunto que trataremos mais adiante neste curso, quando abordarmos a impressão.
Apesar de quanto maior o número de fotocélulas num sensor melhores imagens serem produzidas, acrescentar simplesmente fotocélulas à um sensor nem sempre é fácil e pode resultar em problemas. Por exemplo, para se colocar mais fotocélulas num sensor de imagem, o sensor precisaria ser maior ou as fotocélulas menores. Chips maiores com mais fotocélulas aumentam as dificuldades de construção e os custos para o fabricante. Fotocélulas menores, por outro lado, serão menos sensíveis e irão capturar menos luz que as de um chip normal. Concluindo, colocar mais fotocélulas num sensor, além de sua complexidade e alto custo, acaba resultando em arquivos maiores, de difícil armazenamento. Por isso a constante corrida tecnológica entre os fabricantes na busca de sensores de maior resolução, com qualidade e preço competitivo. • A tecnologia FoveonRecentemente, em 2002, surgiu um novo tipo de sensor digital no mercado, o Foveon X3, que por enquanto equipa apenas uma câmera digital, a Sigma SD9. Este sensor, do tipo CMOS, é uma verdadeira revolução no mercado, pois apresenta os sensores de imagem em camadas, e não mais num único nível com três fotocélulas diferentes para capturar cada cor (como os CCDs comuns). A vantagem desse sistema, que aproveita a capacidade do silício de absorver as ondas de luz, é que permite ao sensor funcionar como um filme fotográfico (que também captura a luz em camadas, embora tenha como sensor uma película química). Assim, cada pixel é formado por todas as cores, e não por cálculos e interpolações entre as informações colhidas por três fotocélulas diferentes (o que gera perdas). Teoricamente, com isso obtêm-se mais resolução, nitidez na imagem, e melhor amplitude de cores, igualando ou até superando a qualidade da fotografia convencional. Contudo, a tecnologia ainda está em seu começo, com o amadurecimento, se for comprovada a sua eficiência, deve se constituir no futuro da fotografia digital.
|
|
|
• O Tamanho da ImagemVamos começar por uma pequena revisão do visto até aqui. Como já sabemos, a qualidade da fotografia digital, tanto impressa como a apresentada na tela, depende principalmente do número de pixels utilizados para criar a imagem (fator também conhecido como resolução). Esse número, como vimos, é determinado pela quantidade de fotocélulas existentes no sensor de imagem da câmera (algumas câmeras usam o artifício de acrescentar pixels “artificiais”, inflando o tamanho da imagem, mas na prática isso não funciona; apenas aumenta o tamanho da imagem à custa da qualidade). Quanto mais fotocélulas e conseqüentemente mais pixels, melhores serão os detalhes gravados e mais nítidas as imagens. Se alguém ampliar e continuar ampliando qualquer imagem digital, chegará um momento em que os pixels vão aparecer multifacetados (esse efeito se chama pixelização). Portanto, quanto mais pixels existirem em uma imagem, mais ela aceitará ampliações com qualidade; quanto menos pixels, menor a ampliação possível. Como funciona o artifício de acrescentar pixels “fantasmas”, artificiais, na imagem, para simular maior resolução? Como o leigo pode distinguir entre a realidade e a ficção no mundo dos pixels e das câmeras digitais? As questões acima são pertinentes, pois é preciso cuidado com algumas propagandas de câmeras digitais e também de scanners. Acontece que existem dois tipos de resolução, a ótica e a interpolada. A resolução ótica é o número absoluto de pixels que o sensor da imagem consegue capturar fisicamente durante a digitalização. Ou seja, corresponde exatamente à realidade. Contudo, por meio de software incorporado na câmera (qualquer programa editor de arquivos de imagem também pode fazer isso), é possível “acrescentar” mais pixels fictícios, num processo chamado “interpolação”. Para isso o software avalia os pixels ao redor de cada pixel que o cerca, para “imaginar” como deveria ser um novo pixel vizinho em termos de cor e brilho. O que na prática nunca dá certo - as imagens assim geradas apresentam geralmente inúmeras deficiências. O importante é ter em mente que a resolução interpolada não adiciona nenhuma informação à imagem – só acrescenta pixels que fazem o arquivo ficar maior. A qualidade final da fotografia fica geralmente comprometida. Contudo, como toda regra tem sua exceção, em nível de software hoje em dia já existe um que realmente consegue a façanha. Ele não “imagina” nada. Realmente cria pixels que funcionam. Só que não está embutido em nenhuma câmera digital, é vendido somente para instalação em computadores - este incrível software, que recomendamos, é o Genuine Fractals. Alguns fabricantes de câmeras digitais já estão distribuindo cópias “lights” deste software especial junto com suas câmeras, como a Nikon.
|
|
|
• Bits e BytesQuando lemos textos sobre sistemas digitais, freqüentemente encontramos os termos bit e byte. Alguns conceitos abordados nesta apostila exigem algum conhecimento básico a respeito, portanto, antes de prosseguirmos, façamos um pequeno resumo destes conceitos. Um bit é a menor unidade digital, e também a unidade básica de informação que um computador utiliza. O termo tem como origem o termo binary digit, ou seja, dígito binário. Pode ser representado por dois possíveis estados, ligado (indicado pelo número um) e desligado (indicado pelo zero). Já os bytes são grupos de 8 bits (agrupados para fim de processamento). Como cada grupo de 8 bits também tem dois estados (ligado-desligado), e o total de informação contido é 28 , ou seja, 256 combinações possíveis. É interessante acrescentar ainda que kilobyte é uma medida que representa cem bytes, enquanto um megabyte corresponde à mil bytes.
|
|
|
• Resoluções de MonitorA resolução de um monitor é definida por sua largura e altura em pixels. Por exemplo, um monitor pode apresentar na tela 640 x 480 pixels, 800 x 600, 1024 x 768 pixels e assim por diante. O primeiro número é o número de pixels ao longo da tela (largura), e o segundo o número de linhas. As imagens apresentadas num monitor são sempre em baixa-resolução. Geralmente as imagens mostradas na tela são convertidas para uma resolução de 72 pixels por polegada. Na verdade, não é esse o número exato em cada monitor, mas serve como base. Por exemplo, um monitor de 14 polegadas terá muito menos espaço físico para distribuir uma imagem com 800 x 600 pixels do que um monitor de 17 polegadas (onde os pixels terão mais espaço para se espalhar). Por isso, quanto maior o monitor, o ideal é ir aumentando a resolução padrão na tela para se obter imagem mais nítida. Um monitor de 21 polegadas, por exemplo, pode perfeitamente apresentar imagens em 1600 x 1200 pixels, enquanto para um monitor de apenas 14 polegadas isso seria impossível. • Resoluções de impressoras e scannersAs resoluções de impressoras e dos scanners são geralmente definidas pelo número de pontos por polegadas (em português, a abreviação pouco usada seria ppp, correspondente ao inglês dpi) que imprimem ou escaneiam. No monitor, como os pontos correspondem aos pixels, pode-se dizer também pixels por polegada, enquanto na impressora prevalece o termo pontos por polegada, pois cada pixel pode ser representado por vários pontos de impressão1. Como comparação, um monitor tem resolução de 72 dpi, uma impressora jato de tinta caseira de 600 a 1400 dpi, e uma impressora jato de tinta comercial de 1400 a 2880 dpi ou mais. Contudo, é importante diferenciar entre a resolução da imagem e as resoluções dos dispositivos de saída. 1 Isso gera confusão para muita gente, pois quando se salva um arquivo de imagem, a resolução é dada em pixels por polegada, sendo um arquivo de alta resolução geralmente igual a 300 pixels por polegada, ou seja, 300 dpi (que correspondem à capacidade máxima de impressão para impressoras de qualquer tipo). Ora, numa impressora jato de tinta, cada pixel pode ser representado por vários pontos de impressão, e portanto, mesmo que a resolução da impressora seja de 2880 dpi, na verdade essa resolução diz respeito apenas a recursos para melhor representar cada pixel na resolução padrão de 300 dpi.
|
|
|
• Reprodução das cores
Como se sabe, a luz não passa de uma forma de energia eletromagnética, relacionada com o rádio, o radar, os raio-x, etc. Ela se propaga a partir de uma fonte de luz (de lâmpadas ao nosso Sol) em movimentos retilíneos, descrevendo ciclos em forma de ondas regulares que vibram perpendicularmente à direção de sua propagação. Embora não seja de nosso interesse estudar física, é importante compreender algumas de suas propriedades, principalmente em função das cores. A luz, vista pelos olhos humanos, constitui uma faixa relativamente estreita de sua energia magnética irradiada, que se distribui aproximadamente entre 400 e 700 nm2. Esta faixa constitui o chamado espectro visível, e dentro dele cada comprimento de onda produz um estímulo diferente na parte posterior de nossos olhos – assim são percebidas as cores. A mistura de todos os comprimentos de onda do espectro visível é o que chamamos de luz branca. A cores são assim distribuídas no espectro visível:
Antes dos 400 nm existe a chamada luz ultravioleta, invisível para a vista humana. A partir dos 400 nm, a luz passa a ser perceptível, e é de um violeta profundo, tornando-se azul na medida em que o comprimento da onda se aproxima de 450 nm. Esse azul vai cedendo lugar à um verde azulado por volta dos 500 nm, e a partir dos 580 nm começa a surgir o amarelo. Já nos 600 nm o amarelo vai passando para o laranja, e perto dos 650 nm, o vermelho vai escurecendo paulatinamente, até que a vista humana não consegue mais enxergar a luz, que passa ao infra-vermelho. É importante notarmos que tudo o que vemos (e pode ser fotografado), dependo dos objetos que refletem os raios de luz, e que são tanto mais visíveis quanto mais próximos estiverem de uma fonte luminosa. Isso tem conseqüências práticas importantes para a fotografia em geral, principalmente em função da exposição correta (abertura do diafragma e velocidade do obturador), e no caso da fotografia digital não é diferente, em função da sensibilidade necessária para um sensor de imagem capturar as cores. Existem diversas implicações no modo como as fotocélulas que compõem um sensor percebem a luz, e como o chip do sensor processa essas informações, conforme veremos adiante. Um dos grandes problemas da fotografia em geral, desde os seus primórdios, sempre foi o da captura correta das cores tais como as vemos na natureza, pois isso é praticamente impossível de ser reproduzido por material fotográfico. A amplitude de cor existente na natureza não pode simplesmente ser embalada por nenhum mecanismo humano, exceto os nossos próprios olhos. Nas primeiras emulsões fotográficas, em branco e preto, apenas os objetos azuis eram percebidos pelo filme, ficando os de outras cores invisíveis. Mais tarde surgiu o filme orthocromático, que chegava até o verde, ignorando os tons laranja e vermelho. Finalmente, com o pancromático, as fotos passaram a cobrir quase todas tonalidades, mas com limitações. Os filmes a cores também sempre sofreram do mesmo problema, principalmente na hora de copiar a imagem em papel fotográfico. De qualquer modo, até hoje nenhum tipo de filme conseguiu cobrir com perfeição as cores da natureza. A fotografia digital enfrenta o mesmo problema. A amplitude de cores que um sensor digital consegue capturar também é ligeiramente inferior, por exemplo, ao de um filme de slides, embora já esteja ao nível do filme tradicional em negativo (colorido)2. Vejamos como a câmera digital “enxerga” as cores e as apresenta na tela de um monitor. • RGBAs cores na imagem fotográfica apresentada no monitor de um computador diferem em muito das cores naturais. Na verdade, são mais uma simulação de cores de modo a “enganar” a vista humana, e permitir que nós enxerguemos as cores na tela. As cores num monitor são baseadas em três cores primárias – vermelho, verde e azul (em inglês; red, green and blue, ou RGB). Este modo é chamado aditivo, porque quando as três cores são combinadas em quantidades iguais, formam o branco. O sistema aditivo é utilizado sempre que a luz é projetada para formar cores, como em monitores. Assim, num monitor, cada pixel é composto por um grupo de três pontos, cada um de uma cor (vermelha, verde e azul). O grande problema com os monitores para a fotografia digital, é que existem centenas de modelos de monitores, cada um com um modo próprio de apresentar cores na tela. É importante estudarmos o que fazer a respeito, pois de repente, vemos uma foto linda em nosso monitor, e quando é impressa (seja numa impressora caseira ou num laboratório fotográfico), temos uma decepcionante foto descolorida ou com cores fortes demais... 2 Os filmes em transparência, ou slides, conseguem maior amplitude de cor que os de negativo impressos em papel fotográfico
|
|
|
• Sistemas de gerenciamento de corConforme as imagens passam da câmera digital ou de um scanner para as telas dos monitores, e depois para impressoras ou páginas da WEB, as cores mudam porque cada equipamento tem seu modo de apresentá-las. Desse modo, se você imprime uma página da Internet em sua impressora, perceberá que as cores aparecem bem diferentes olhando essa página na tela e observando o resultado da impressão no papel... Para se conseguir cores mais consistentes em uma grande variedade de equipamentos, é preciso um sistema de gerenciamento de cores. As cores não coincidem (tela e folha impressa), por bons motivos. Vejamos o porque: O monitor e a impressora usam sistemas diferentes de cores – RGB na tela e CMYK na página. RGB produz cores, não pigmentos ou tintas. CMYK (cores ciano, magenta, amarela e preta) produz cores combinando pigmentos ou tintas. E o processo de conversão de RGB para CMYK não é perfeito. Como já salientei antes, fotógrafos experientes sabem que slides tem mais contraste e riqueza de cores do que as fotos impressas. Isso acontece porque os slides são vistos por luzes transmitidas, enquanto as fotos são vistas por luz refletida. O mesmo é verdadeiro para uma tela de monitor e uma imagem impressa. Os monitores não precisam usar meio-tons para criar cores porque podem variar a intensidade da cor em cada pixel (a única impressora que consegue isso é a que utiliza um sistema chamado dye sub, ou sublimação). Para conseguir imagens impressas mais próximas do resultado da tela, é preciso fazer testes, imprimindo uma foto e depois ajustando as cores na tela para se assemelharem à foto impressa (pelos ajustes de brilho e contraste). Mesmo assim isso pode ser muito complicado, principalmente se as tonalidades não conferirem (cada monitor funciona com sua própria temperatura de cor, o que gera tons mais azulados (frios) ou mais avermelhados (quentes). Para superar esses problemas, só utilizando-se um sistema de gerenciamento de cor, ou CMS.
De qualquer modo, existem cores que nunca aparecem corretamente, do mesmo modo como dificilmente um laboratório de fotografia tradicional envia cópias idênticas de um mesmo negativo em datas diferentes... O jeito é o fotógrafo se conformar com as pequenas diferenças - afinal, desde que fotografia existe, esse problema nunca foi completamente solucionado. Sistemas de gerenciamento de cor são projetados para manter as cores das imagens o mais consistentes possíveis entre os processos de escaneamento ou digitalização da imagem, apresentação na tela e impressão. Isto pode ser uma dor de cabeça para muita gente, e sem dúvida é o maior entrave ao uso da imagem digital por parte dos leigos. Nada pior que você olhar na tela uma linda foto colorida, e imprimi-la apenas para ver no papel uma foto que parece ter sido feita com um filtro cinza em frente à objetiva. Um sistema de gerenciamento de cor adota um padrão independente em termos de cores como RGB ou CMYK. Existem muitos sistemas, mas os mais conhecidos são o Microsoft Image Color Management (ICM), para computadores PC, e o ColorSync para computadores Mac.
|
|
|
|
|
|
• Cores SubtrativasVoltando às cores no monitor e impressoras. Apesar da maioria das câmeras utilizar o sistema de cores aditivas RGB, algumas câmeras mais sofisticadas e todas as impressoras usam o sistema CMYK (de quatro cores). Este sistema, chamado de cores subtrativas, usa três cores primárias, Ciano, Magenta e Amarelo. Estas três cores são combinadas em quantidades iguais, e o resultado é um preto porque todas as cores são subtraídas. O sistema CMYK é largamente usado pela indústria de impressão, mas suas cores não podem ser perfeitamente transmitidas numa tela de monitor, pois precisam ser convertidas para RGB e acontece alguma perda na conversão. Na saída da impressora, cada pixel é formado por pequenos pontos de ciano, magenta, amarelo e tinta preta. Quando esses pontos se sobrepõem, várias cores são formadas. • Dos Cinzas Nascem as CoresJá os sensores de imagens das câmeras digitais, que trabalham com o modo de cores RGB, o mesmo dos monitores, gravam apenas em escala de cinzas – uma série de 256 tons de cinza que vai do branco puro ao preto puro. Basicamente, só capturam o brilho. Como então os sensores capturam cores quando tudo o que fazem é gravar cinzas? A resposta está no uso de filtros azuis, verdes e vermelhos para separar as luzes refletidas de um objeto colorido. Existem alguns modos de se fazer isso:
Quando três exposições separadas são feitas através de diferentes filtros, cada pixel no sensor grava uma cor específica na imagem e três diferentes arquivos são mesclados para gerar uma imagem colorida. De qualquer modo, quando três sensores separados são utilizados, ou quando diferentes filtros são colocados diretamente sobre as fotocélulas num sensor, a resolução ótica desse sensor é reduzida para 1/3. Isto porque cada uma das fotocélulas disponíveis grava apenas parte da imagem (no caso, uma única cor). Por exemplo, em alguns sensores com 1.2 milhões de fotocélulas, 400 mil utilizam filtros vermelhos, 400 mil filtros azuis e 400 mil filtros verdes. Cada fotocélula armazena a cor capturada (pelo filtro) em valores de 8, 10 ou 12 bits. Para criar imagens completas coloridas de 24, 30 ou 36 bits, usa-se interpolação. Esta forma de interpolação utiliza as cores nos pixels vizinhos para calcular as duas cores que a fotocélula não gravou. Combinando essas cores interpoladas com a cor medida diretamente pela célula, a cor original do pixel é reconstituída (se o pixel é de um vermelho brilhante, e se os pixels azuis e verdes ao lado também são brilhantes, contabiliza-se um branco brilhante). Isto requer muito cálculo, pois exige comparações com os 8 pixels vizinhos de forma a esse processamento ter sucesso. Também resulta em mais informação na imagem, assim os arquivos ficam maiores. • Canais de CoresCada uma das cores de uma imagem podem ser controladas independentemente e isto é chamado canal de cor. Se um canal de 8 bits de cor é usado para cada cor num pixel – vermelho, azul e verde – as três cores combinadas somam 24 bits de cor. Na seqüência na página anterior, observamos três imagens de uma mesma foto, cada uma delas apresentada num único canal de cor (utilizei o Photoshop para este exemplo). Observe as diferenças, de como o computador trata cada um dos canais. Quando se usa o recurso de interpolação para ampliar artificialmente uma imagem é preciso haver informação suficiente ao redor dos pixels para contribuir com a informação de cores, o que nem sempre é o caso. Sensores de imagens de baixa resolução tem um problema de cores irreais que ocorrem quando um ponto de luz na cena original é somente grande suficientemente para um ou dois pixels. Os pixels vizinhos não contém nenhuma informação de cor sobre o pixel, assim a cor naquele ponto pode aparecer sem qualquer ligação com a imagem que o cerca.
|
|
|
• Armazenamento da imagemImagens digitais são armazenadas em arquivos de bitmaps – uma série de pixels individuais. Ao longo dos anos, grande número de diferentes formatos de arquivos de bitmap foi desenvolvido. Cada um tem suas características únicas que o tornam interessante para determinado uso. Entretanto, vários desses formatos também caíram em desuso ou são encontrados somente em circunstâncias especiais. Conforme novas necessidades surgem, como imagens para serem vistas na WEB, novos formatos de arquivos aparecem. De qualquer modo, todas as imagens (não-animadas) que se encontram na WEB ou em programas multimídia, bem como a maior parte das imagens que se vê impressas, foram criadas ou editadas no computador como digitais. • Imagens em bitmap (ou mapa de bits)Imagens em bitmap são formadas por pixels e são definidas por suas dimensões (em pixels) bem como pelo número de cores incorporadas. Por exemplo, quando se amplia uma pequena área de uma imagem de 640 x 480 pixels, os pequenos pixels misturam-se a tons contínuos do mesmo modo que fotos ampliadas num jornal apresentam uma mistura de pontos indefinidos. Cada um dos pequenos pixels pode ter uma escala de cinza ou uma cor. Utilizando-se 24 bits de cor, cada pixel pode assumir qualquer uma das 16 milhões de cores possíveis. Todas as fotografias e pinturas digitais são em bitmaps, e qualquer tipo de imagem assim pode ser salva ou exportada. De fato, quando se imprime qualquer formato de imagem numa impressora laser ou jato de tinta, a imagem é primeiro convertida (rasterized) tanto pelo computador como pela impressora em bitmap, de tal modo que seja impresso em forma de pontos. Bitmaps são amplamente usados mas sofrem de dois problemas inevitáveis:
|
|
|
• Formatos de imagens
Existem dois tipos de formato para imagens: os formatos próprios de softwares (padrões), e os formatos de aplicação geral para transferência entre diferentes mídias e até sistemas operacionais. Conforme novos programas surgem, os desenvolvedores tem apresentado a tendência de criar formatos próprios para suas aplicações, que só podem ser “lidos” pelos seus próprios softwares. Parte disso é em função de levar vantagem sobre a competição, e parte a necessidade de se projetar novos procedimentos e possibilidades. De qualquer modo, formatos próprios podem causar problemas quando se quer transferir as imagens para outros programas. Como formatos próprios são limitados, os formatos para transferência são projetados para possibilitar que as imagens possam ser abertas por praticamente qualquer programa. Alguns se tornaram assim padrões – qualquer aplicativo pode abri-los e salvar imagens com sua extensão.
|
|
|
• CompressãoQuando se digitaliza uma foto, o tamanho do arquivo é grande se comparado a outros arquivos de um computador. Uma imagem de baixa resolução em 640 x 480 pixels, por exemplo, pode ter até 307.200 pixels, o que resulta num tamanho de arquivo, sem compressão, de quase um megabyte. Portanto, a compressão de imagens é uma necessidade, ou o disco rígido do computador ficará lotado somente com as fotos. Durante a compressão, a informação é duplicada e tudo o que não tiver valor é eliminado ou salvo de modo resumido, reduzindo o tamanho do arquivo. Quando a imagem é editada ou apresentada, o processo de compressão é revertido. Existem dois modos de compressão – com ou sem perda – e a fotografia digital utiliza os dois modos. A chamada lossless compression (menos perda) comprime uma imagem de tal modo que a qualidade é mantida. Embora pareça a ideal, não proporciona redução significativa do arquivo, que geralmente fica reduzido a um terço do tamanho original. O padrão mais utilizado é o LZW (Lempel-Ziv-Welch), que tanto em arquivos GIF como TIFF produz compressão de 50 a 90%. A maioria das câmeras digitais utiliza o sistema de compressão com perda, já que o espaço para armazenagem de imagens é extremamente complicado e caro (falaremos dos cartões adiante) e, em geral, a qualidade é mantida por meio do JPEG em qualidade máxima de compressão. O formato descarta informações não importantes da imagem. Por exemplo, se grandes áreas do céu são azuis, só o valor de um pixel precisa ser salvo – quando a imagem é aberta, aquele valor é aplicado para todo o conjunto (por isso os tamanhos de arquivos comprimidos variam muito, pois dependem de quanta informação de cor existe na imagem). Contudo, como a qualidade é afetada pelo grau de compressão, para o usuário mais exigente e para profissionais, as câmeras mais avançadas permitem que se opte pela imagem em TIFF (o que obriga a um cartão de memória de grande capacidade).
|
|
|
• Formatos para câmera digitalPraticamente todas as câmeras digitais salvam as fotos no formato JPEG, embora algumas poucas (as mais sofisticadas) também o façam em TIFF. Algumas ainda salvam no modo original em que capturam a imagem, também conhecido como formato RAW (palavra que significa cru, natural, matéria-prima). Vejamos as principais características de cada um desses formatos.
|
|
|
• Cartões de memóriaMuito bem, agora que já se tem uma idéia de como uma máquina fotográfica digital captura e salva a imagem, vamos tocar num ponto muito importante: o armazenamento das fotos. Gravar as fotografias (como arquivos de imagem) é uma das tarefas mais difíceis e (ainda) limitantes para um equipamento digital. O problema é que fotografias em alta resolução, com qualidade para ser impressa em tamanhos razoáveis, formam arquivos muito grandes. Este é, de fato, ainda um dos fatores não resolvidos da fotografia digital. Para se ter melhor idéia, vamos relacionar formatos de arquivos, resoluções de fotos e tamanhos estimados de arquivos:
Como se observa pela tabela acima, para se tirar 36 fotografias no formato TIFF em alta resolução (o que corresponderia a quantidade de fotos de um filme tradicional) seriam necessários nada mais nada menos que 324 MB de espaço num cartão de memória. Sim, já existem cartões dessas dimensões, mas ainda custam muito caro. Para baratear custos, os fabricantes costumam entregar, junto com a câmera, cartões digitais de 8 ou 16 MB de capacidade. Muito pouco, como se percebe, quando se fala em altas resoluções. Contudo, quando a idéia são fotos para a Internet, tipo 640 x 480 pixels (que representam arquivos por volta de 10 kbs), pode-se tirar centenas de fotos num cartão de memória de 8 MB.
|
|
|
• Equipamentos para armazenamento de arquivos de imagensCom câmeras tradicionais, o filme é utilizado tanto para gravar como armazenar a imagem. Com câmeras digitais, equipamentos separados realizam essas duas funções. A foto é capturada pelo sensor de imagem, e depois gravada num equipamento de armazenamento. Praticamente todos os novos modelos de câmeras digitais usam alguma forma de mídia de armazenamento removível, normalmente cartões de memória flash. Também são usados pequenos discos rígidos e até mesmo disquetes. Qualquer que seja o tipo utilizado, a câmera permite que se remova o equipamento quando este ficar com o espaço de armazenamento completo e que se insira outro. O número de imagens que se pode gravar até completar o espaço disponível depende de uma série de fatores:
O número de imagens a ser armazenada é importante porque uma vez que se atinja esse limite não há outra escolha senão parar de tirar fotos ou apagar algumas já feitas de modo a criar espaço. O quanto de espaço o usuário precisa depende parcialmente do uso que pretende da câmera.
|
|
|
|
|
|
|
|
|
|
|
|
• Verificando o sistema operacionalAntes de prosseguirmos, se você quer ver em seu sistema a cor correta de uma foto, deve configurar o sistema operacional, como o Windows, para apresentar o modo “True Color” na tela do monitor (se sua placa de vídeo suportar isso). Vá ao painel de controle, e entre em propriedades do monitor. Na caixa de diálogo, entre com a maior capacidade de cores que tiver o driver da placa (true color, ou 24 bits, ou ainda 36 bits). Em high color (12 ou 16 bits) a imagem ainda não está ideal. Como bits e cores se relacionam? É simples aritmética. Para calcular quantas diferentes cores podem ser capturadas ou apresentadas na tela, simplesmente use exponenciação. Por exemplo, 8 bits de cores corresponderão a 28 = 256 cores. Imagens em preto e branco requerem somente 2 bits para indicar que pixels serão brancos e quais serão pretos. Escalas de cinza exigem 8 bits para apresentar 256 diferentes tons de cinza. Imagens coloridas são mostradas utilizando-se 4 bits (16 cores), 8 bits (256 cores), 16 bits (65 mil cores, este é o chamado High Color), e 24 bits (16 milhões de cores). Algumas câmeras e monitores podem apresentar até 30 ou 36 bits. Esta informação extra serve para melhorar ainda mais as cores, mas é processada, no final, em 24 bits de cor no máximo. A própria vista humana jamais enxergará esses milhões de cores que o computador pode oferecer...
|
|
|
• Editando as imagensA maioria das fotografias digitais, quando são abertas no computador, estão teoricamente prontas para impressão. Contudo, nem sempre se encontram otimizadas, ou seja, é como se alguém tirasse uma foto comum e percebesse que a imagem está sem contraste, ou muito escura, etc. No caso da foto tradicional nada há a fazer (a não ser que a pessoa possua um quarto escuro e inúmeros recursos e equipamentos para preparar cópias corrigidas dentro de certos limites). Só que enquanto a fotografia convencional permitiria que se corrigisse num processo demorado apenas uma cópia em papel por vez, no computador o fotógrafo pode editar a imagem, melhorando sua qualidade em um minuto ou menos de tempo dispendido, e nunca mais mexer nela – depois, sempre que tirar uma cópia, seja para distribuição on-line ou imprimir, o original estará perfeito... Para isso, utilizam-se programas específicos para correção de detalhes, que vão de problemas simples (como olhos vermelhos, brilho, contraste) a mais sofisticados (como correção de cores por canais individuais, etc). Se o usuário é amador, ou seja, não tenha necessidade de enviar a foto para impressão em revistas ou uso publicitário, softwares simples resolvem os pequenos problemas. Contudo, se você é um fotógrafo mais exigente, ou profissional, então o jeito é adotar o Adobe Photoshop.
• Ajustando a imagemMuito bem, uma vez garantido que as cores que você vê na tela estarão muito próximas da realidade, o próximo passo importante na otimização da imagem é verificarmos os levels (níveis de cor) da imagem. Ocorre que muitas vezes a foto vai gerar uma amplitude de cores que na verdade não existe, e com isso as cores na imagem aparecerão incorretas, pois a imagem é gravada com a amplitude completa. Existem vários softwares que podem corrigir isso, mas vamos nos limitar ao Adobe Photoshop. Nesse programa, é possível corrigir os níveis de cor tanto automaticamente como manualmente pelo menu para correção do histograma, em Image, Adjust, Levels... Um histograma é um gráfico que mostra todos os níveis de brilho possíveis dentro de uma imagem, a partir de um ideal que vai de puro preto (valor 0), a puro branco (valor 255). Muitas vezes uma foto possui falhas dentro desse gráfico, que podem ser corrigidos arrastando-se pequenos triângulos corretivos no Photoshop. Na maioria dos casos, escolher a opção de correção automática resolve o problema. Contudo, corrigir automaticamente nem sempre gera um bom resultado. O ideal é experimentarmos a correção manualmente, pela ferramenta “conta-gotas” visível no menu, ou arrastando-se com o mouse os indicadores de canal (pequenos triângulos ao longo da linha que acompanha o histograma). Só com a prática se aprenderá melhor a utilizar este recurso. Outra correção fundamental é em termos de brilho e contraste. Geralmente as imagens digitais são pouco contrastadas ou com pouco brilho, dependendo do modelo e marca da câmera. Um ajuste quase sempre funciona bem, e isso é melhor resolvido pelo menu Image, Adjust, Curves...
Contudo, o uso deste recurso do Photoshop é mais sensível, também exige prática. Para simplificar, pode-se corrigir os níveis de brilho e contraste no menu Image, Adjust, Brightness/Contrast..., mas se você conseguir trabalhar no modo Curves... o resultado será melhor. A maioria das fotos tiradas com uma câmera digital contém ainda algum desfoque que pode ser corrigido usando-se um processo chamado, no Photoshop, unsharp masking. A ferramenta funciona localizando bordas dentro da imagem procurando por pares de pixels adjacentes que tenham uma específica diferença de brilho (chamada pelo Photoshop “threshold”) e aumenta o contraste entre esses pixels em certo valor. Isso afeta não apenas os pixels mudados, mas também numa certa distância.
Os controles desse filtro são três:
Enfim, estes são os retoques básicos. Com o tempo você poderá se divertir com as centenas de outros recursos, filtros, etc, que o Photoshop é capaz. Basta adicionar sua criatividade.
|
|
|
|
Com 300 dpi a imagem fica correta para o olho humano
|
Para entendermos melhor o processo de impressão de uma imagem digital, em primeiro lugar é preciso entender que um pixel não tem tamanho ou forma. No momento em que “nasce”, é simplesmente uma carga elétrica. Seu tamanho e aparência são determinados apenas e tão somente pelo equipamento que o apresenta. Entender como o pixel e o tamanho da imagem se relacionam um como o outro exige um pequeno esforço - mas nada além do que um conhecimento de matemática básico.
Um pixel torna-se visível no sensor de imagem de uma câmera desde o momento exato em que o obturador abre. O tamanho de cada fotocélula no sensor pode ser medido, mas os pixels em sí são apenas cargas elétricas convertidas em números digitais. Esses números, como qualquer outro número que se imagine, não tem tamanho físico.
Embora os pixels capturados não tenham dimensões físicas, pela quantidade de fotocélulas existentes sobre a superfície de um sensor pode-se estabelecer uma quantidade de pixels na fotografia digital.
Como os pixels armazenados num arquivo de imagem não têm tamanho físico ou formato, não é de estranhar que o número de fotocélulas não indique por sí mesmo a definição da imagem ou mesmo seu tamanho. Isso porque as dimensões de cada pixel capturado e a imagem da qual faz parte são determinados pelo equipamento de saída. Este equipamento de saída (digamos um monitor ou um impressora), por sua vez, pode expandir ou contrair os pixels disponíveis na imagem por uma pequena ou grande área da tela ou do papel de impressão.
Se os pixels de uma imagem são comprimidos numa área menor, a nitidez perceptível ao olho humano aumenta. Imagens em alta resolução apresentadas em monitores ou impressas parecem mais nítidas porque os pixels disponíveis na imagem são agrupados numa área menor – não porque existam mais pixels. Se os pixels são ampliados, passando assim a mesma imagem a cobrir uma área maior, a percepção de nitidez da imagem diminui. E se aumentarmos a imagem além de certo ponto, os pixels passam a parecerem quadrados.
Assim, como no exemplo citado quando abrimos o arquivo da foto recém tirada, ela aparece com 72 dpi, o que expande a imagem para aquele tamanho enorme de mais de meio metro, e com certeza torna a foto completamente tomada por visíveis pixels quadrados.No momento em que determino que a saída deve ser de 300 dpi (a maior resolução possível), os pixels se agrupam corretamente para o olho humano, e a imagem a ser gerada diminui para os pouco mais de 17 centímetros.
|
|
• A imagem no monitorComo já vimos, quando uma imagem digital é apresentada na tela do computador, o tamanho é determinado por três fatores – a resolução do monitor, o tamanho da tela, e o número de pixels na imagem. Vamos rever isso tudo para uma melhor compreensão do momento da impressão. O tamanho de cada pixel na tela é determinado pela resolução do monitor. Esta resolução é quase sempre dada a partir de um par de números que indicam a capacidade da tela em largura e altura. Por exemplo, a resolução básica de um monitor de 14 polegadas é de 640x480 pixels – uma resolução pequena. Um tamanho médio de resolução seria 800x600 pixels, enquanto uma resolução alta para o mesmo monitor seria de 1024x768 pixels. O primeiro número significa a largura, ou seja, quantos pixels ocupam a largura da tela, enquanto o segundo número corresponde a quantas linhas (altura) de pixels cabe na tela. Lembrando que a apresentação dos pixels é sempre em 72 dpi num monitor. Assim, a quantidade de pixels por polegadas (ppi) que aparece num monitor de computador depende da resolução utilizada, já que serão necessários muito mais pixels num monitor de 14 polegadas numa resolução de 1024x768 do que numa de 640x480. Do mesmo modo que a resolução da tela afeta o tamanho da imagem, assim acontece com o tamanho do monitor. Se você tiver um monitor de 14 polegadas e outro de 21 polegadas, e usar a mesma resolução nos dois, digamos, 800x600 pixels, as imagens aparecerão de tamanhos bem diferentes, pois os pixels (como não tem dimensão), irão se acomodar para preencher todo o espaço da tela. Assim, uma mesma imagem em 800x600 pixels, no monitor de 14’ aparecerá nítida, enquanto no de 21’ poderá se apresentar sem nitidez nenhuma. Finalmente, o que determina a resolução do monitor, além da capacidade do próprio equipamento em apresentar determinados modos de resolução, é a placa de vídeo do computador. Para um fotógrafo, uma boa placa de vídeo é tão importante quanto dispor de um bom monitor. Existem diferenças significativas de qualidade tanto entre monitores como placas de vídeo (como todo garoto que joga games no computador bem sabe).
|
|
|
• Entendendo pixels por polegadaInfelizmente todas as medidas utilizadas por impressoras e computadores foram determinadas nos Estados Unidos, onde se continua utilizando esse nonsense que são as medidas em pés, polegadas e assim por diante. Então o jeito é nos adaptarmos. Lembrem sempre que 1 polegada vale 2,54 cms, ou seja, pouco mais de 2 centímetros e meio. Normalmente o usuário não tem como mudar o número de pixels de uma imagem para assim mudar o tamanho da imagem impressa. Esta tarefa é gerenciada pelo software que se utiliza para imprimir a imagem. Portanto, a primeira coisa a ser checada é se a imagem terá a resolução correta (de 300 dpi) no tamanho que você pretende imprimir. Aqui, uma dica. Se você estiver imprimindo na sua impressora caseira, pode conseguir um maior tamanho de imagem sem praticamente nenhuma perda de qualidade observável se colocar uma resolução de até 267 dpi. Menos que isso já surgirão problemas com a qualidade da imagem. Agora, se estiver mandando para um laboratório para impressão em papel fotográfico tradicional, terá que usar os 300 dpi, pois as máquinas são geralmente calibradas para essa definição. Então, um exercício; qual o maior tamanho que se pode imprimir, sem perda, uma imagem com 2048 x 1536 pixels e 300 dpi? A resposta será dividirmos o número de pixels na largura (2048/300=6,826), e depois multiplicarmos por 2,54, ou seja, (6,826x2,54=17,33). A resposta é 17,33 cms! Uma vez ajustada a largura, qualquer programa ajusta automaticamente também a altura (1536 pixels). Mas se quiserem fazer a conta, (1536/300=5,12) depois (5,12x2,54=13,00). Resposta, 13 cms. A fotografia será impressa em alta resolução, sem perdas, no tamanho de 17,33 x 13,00 centímetros. Uma observação importante: alguns equipamentos, como plotters e impressoras especiais, utilizam outros números ideais de resolução, e no caso deve-se consultar as empresas que fornecem o serviço a respeito da resolução com a qual o arquivo deve ser enviado. Isso pode variar de 125 a 400 dpi, portanto, é bom sempre perguntar a respeito antes de gravar um CD para envio de material.
|
|
|
|
|
|
• Como as cores são impressasImpressoras coloridas geram imagens dividindo a página em milhares ou até milhões de pequenos pontos, cada um deles endereçado pelo computador. Conforme a impressora move a página pela cabeça de impressão, imprime um ponto de cor, usando duas ou três cores sobre cada um desses pontos ou deixando-os em branco. Para entender como as cores são impressas, devemos estudar o sistema CMYK, utilizado pelas impressoras. Na maioria das impressoras (dye sub são exceção), cada ponto impresso tem a mesma densidade de cor. Se uma impressora combinar somente essas cores sólidas, pode ficar limitada às cores primárias. Para capturar os milhões de cores de uma fotografia, a impressora tem que usar um recurso para enganar a vista humana, gerando um padrão aceitável de pontos para visualização. Este processo é chamado de halftoning ou dithering (meio tom). O processo de halftoning é feito arranjando os pontos imprimíveis em pequenos grupos chamados células, e utilizando-se esses grandes pontos formados por células em unidades para a impressão dos pixels. Cada célula mede 5 por 5 ou 8 por 8 pontos. As três ou quatro cores primárias são combinadas num determinado padrão, que a vista humana percebe como cores intermediárias. Para cores menos saturadas, a impressora deixa alguns pontos sem imprimir e simula assim brancos de cor. Este processo é utilizado faz muito tempo em impressão industrial, e pode ser percebido se você olhar uma fotografia de revista com uma lupa. Até recentemente, não existiam impressoras de baixo custo capazes de impressões de qualidade, mas grandes progressos aconteceram nos últimos anos.
|
|
|
|
|
|
|
|
|
• Dynamic RangeComo estudamos anteriormente, cenas do mundo real são cheias de luzes brilhantes e sombras fortes. Estes extremos são chamados de dynamic range, ou amplitude de cores. Os filmes não tem de modo algum a amplitude de cores que se observa na natureza, assim sempre é uma tarefa difícil capturar uma cena real num filme. E quando o filme (a foto) é impressa, perde ainda mais qualidade. Por isso é melhor escanear originais (negativos e slides) do que imagens já impressas. O quanto de amplitude de cores se pode capturar depende da habilidade do scanner em registrar os tons que vão do puro branco ao puro preto. Se o scanner não tiver um dynamic range suficiente, os detalhes serão perdidos nas áreas sombreadas ou de luz forte, ou em ambas. O dynamic range de um scanner pode ser medido e determinado num número entre 0.0 (branco) e 4.0 (preto) que indica a capacidade de capturar todos os valores intermediários. Scanners comuns (flatbed) normalmente registram valores entre 0.0 e 2.4. Os novos equipamentos de 30 ou 36 bits podem alcançar por volta de 3.0, apresentando melhores detalhes nas áreas sombreadas. Embora a densidade da imagem varie do puro branco ao puro preto, nenhum detalhe pode ser visto nessas áreas. Conforme você progride do puro branco para áreas levemente escuras, os detalhes aparecem. O mesmo ocorre do outro lado do espectro. O ponto no qual o scanner captura o detalhe é chamado Dmax (densidade máxima). O dynamic range é calculado subtraindo-se a densidade mínima (Dmin) da máxima. Por exemplo, se um scanner tem um Dmin de 0.2 e um Dmax de 3.2, o dynamic range é de 3.0. • Profundidade de corComo vimos anteriormente, a profundidade de cor refere-se a quantos bits são determinados por cada pixel na imagem. Os melhores scanners utilizam 36 bits (12 para cada canal vermelho, verde e azul) para produzir 6.8 trilhões de cores. Quando esses arquivos são processados e convertidos em arquivos de 24 bits, passam a ter mais graduações e cores mais vívidas. A qualidade das cores numa imagem escaneada não depende apenas da profundidade mas também de seu “registro”. Desde que as cores são capturadas por diferentes sensores em intervalos de tempo diversos, podem não combinar perfeitamente na hora da mesclagem. Isso aparece na forma de manchas ao redor de detalhes da imagem.
|
|
|
|
• Scanners para filmesOs scanners para slides e negativos têm muito mais qualidade do que os de papel porque possuem uma amplitude de cores (dynamic range) maior. Utilizando-se um adaptador para rolos de filmes (filmstrip holder), pode-se escanear em seqüência seis ou mais fotos com excelentes resultados. Como slides e negativos são menores e precisam ser muito ampliados, estas unidades precisam ter resoluções altas para serem úteis. Alguns dos melhores scanners de filmes utilizam um software chamado Digital ICE que elimina poeira e sujeira da superfície do fotograma escaneado. • Scanners de mesaOs chamados scanners de mesa (flatbed scanners) são úteis tanto para imagens branco e preto como coloridas. São excelentes para restauração de fotografias antigas. E uma das vantagens do scanner de mesa é que são pau para toda obra, podendo copiar documentos de todos os tipos e ainda utilizar o OCR (reconhecimento de texto). Muitos desses scanners possibilitam ainda digitalização de slides e negativos através de adaptadores, geralmente embutidos na tampa superior do scanner. Contudo, as resoluções neste caso são geralmente bem inferiores a resolução que um verdadeiro scanner de transparências permite, e as cores nem sempre saem muito boas. É interessante notar que se pode fazer experiências interessantes com um scanner, usando-o para gravar imagens, quase como se fosse uma máquina fotográfica. Um bom truque é colocar algum material sobre o objeto que se quer gravar, de modo a fazer fundos interessantes (como tecidos de diversas texturas e cores). E quando o preço e qualidade não são problemas, o ideal é usar scanner cilíndrico. Nestes modelos, a transparência (slide ou negativo) ou ainda a foto já impressa são fixados num cilindro de vidro. Conforme o cilindro gira, a imagem é lida uma linha por vez num tubo fotosensível ao invés de um CCD. Estes equipamentos permitem a mais alta qualidade de RGB e CMYK com grandes detalhes tanto nas partes claras como em áreas sombreadas. O dynamic range é tão alto que você pode capturar detalhes ínfimos em tonalidades, e a resolução chega a valores altíssimos, impossíveis de serem obtidos em outros equipamentos. Contudo, somente bureaus e empresas podem ter scanners cilíndricos, pois o custo chega a valores de milhares de dólares. Assim, quando se necessitar de escaneamento de alta qualidade, o melhor é procurar uma empresa especializada para o serviço. |