Os Fundamentos da Fotografia Digital


 
INTRODUÇÃO

Antes de começarmos a explorar as máquinas fotográficas digitais e como elas são usadas, vamos antes dar uma olhada em alguns dos princípios básicos como sensor de imagem, resolução e coloração, que são os alicerces da fotografia digital.

Diferentemente de máquinas fotográficas tradicionais que usam filme para armazenar uma imagem, máquinas fotográficas digitais usam um dispositivo de estado sólido chamado de sensor de imagem. Estes chips de silicone do tamanho de uma unha, contêm centenas de milhares ou milhões de diodos fotossensíveis chamados "photosites". Cada um destes photosites registra a intensidade ou brilho da luz que se incide sobre ele. Cada photosite reage à luz que lhe incide acumulando uma carga de energia; quanto maior a luz, mais alto será a carga. O brilho registrado por cada photosite é então guardado como um jogo de números que podem ser usados para determinar a cor e brilho de pontos na tela ou tinta em uma página impressa para então reconstruir a imagem. Neste capítulo, nós olharemos este processo de perto porque é o fundamento de tudo o que segue.

Intel camera.JPG (32723 bytes) Aqui uma visão do que uma máquina fotográfica em toda a sua complexidade eletrônica. Bem-vindo ao mundo novo da fotografia digital. Cortesia da Intel.

 PIXELS—SOMENTE PONTOS

Ligue seu computador e leia seu e-mail ou escreva um documento. Quando você precisa fazer alguma pesquisa você entra na Internet e folheia clipes de vídeo históricos, museus de arte e exibições de fotografia. Quando você quer relaxar, carrega um programa de simulador de vôo e voa por um mundo computadorizado com fotos realistas ou veste um óculos 3D e assiste as coisas saltarem fora da tela vindo até você. Tão diferente quanto estas experiências podem ser, elas todas têm uma coisa em comum—você está olhando a nada mais do que pontos. Como os pintores impressionistas que pintaram cenas maravilhosas com pontos pequenos de pintura, sua tela, e sua impressora criam imagens com pontos pequenos chamados elementos de imagem—ou somente pixels.

Pixels são criados dividindo uma imagem em uma grade. O computador pode mudar o brilho de todo quadrado ou pixel nesta grade. Fazendo assim, são exibidas texto e imagens. Controlando, ou endereçando uma grade de pixels individualmente deste modo é chamado mapeamento de bit ou "bit mapping".
 

jellybean.JPG (90229 bytes)
Aqui você vê uma reprodução da famosa pintura "The Spirit of ‘76" feita toda com jujubas. Imagine cada jujuba como um pixel e então será mais fácil imaginar como os pontos formam uma imagem. Jelly Bean Spirit of ’76 courtesy of Herman Goelitz Inc. Makers of Jelly Belly

Se você aumenta qualquer imagem digital o bastante, os pixels começarão a aparecer—isto é chamado de pixelização. Isto é semelhante a granulação que surge quando são aumentadas impressões de filmes tradicionais além de um certo ponto.

muttandjeff.JPG (63265 bytes)
Um pássaro " black-crowned night heron" e um filhote de "great blue heron" se equilibram num tronco de madeira parecendo os personagens de estórias em quadrinhos Mutt e Jeff ou Bert e Ernie. Mesmo se você clicar na imagem para aumentá-la, os pixels não aparecerão.
muttandjeff pixels.JPG (31364 bytes)
Quando uma seção desta mesma imagem é recortada e depois aumentada, os pixels (pontos ou elementos) quadrados começam a aparecer claramente. Clique na imagem para ver ainda mais claramente e verifique como cada pixel é uma pequeno quadrado feito de uma única cor.

A maquilagem de um pixel varia e depende em se está na máquina fotográfica, na tela, ou em uma impressão.

pixels-camera.GIF (1665 bytes) Na máquina fotográfica, cada photosite no sensor de imagem representa um pixel. A cor de cada pixel é calculada usando os pixels que o cercam. Este desenho mostra nove pixels.
pixels-screen.GIF (1719 bytes) Na tela, cada pixel tem uma única cor formada pela mistura dos raios luminosos vermelhos, verdes e azuis ou LCDs. Este desenho mostra nove pixels.
pixels-printer.GIF (3325 bytes) Em uma impressão, um pixel é formado de muitos mais pontos menores que se misturam para dar a impressão de uma única cor. Este desenho mostra um pixel.

 

 RESOLUÇÃO DE DISPOSITIVOS DIGITAIS

A qualidade de qualquer imagem digital, se impressa ou exibida em uma tela, depende em parte de sua resolução—o número de pixels utilizados para criar a imagem. Mais e menores pixels somam detalhe e realçam com nitidez a imagem. Esta tabela lista alguns padrões de comparação. Os números de várias fontes diferem. 

Existem três modos para se expressar a resolução de uma imagem; por suas dimensões em pixels, pelo número total de pixels, ou pela relação de pixels por polegada (ppi) ou pontos por polegada (dpi).

Elemento Resolução Total de Pixels
TV (NTSC) colorida 320 x 525 168.000
Olho humano 11.000 x 11.000 120 milhões
35-mm slide   A revista "The Economist" diz que tem 20 milhões ou mais. A CMOS Imaging News diz que são de 5 a 10 milhões dependendo do filme. Outra fonte diz aproximadamente 80 milhões de pixels. Robert Caspe da SoundVision diz que negativos de filmes coloridos tem 1000 pixels por polegada enquanto filme diapositivo a cores tem 2000 pixels por polegada.
Filme da câmera Kodak Disc 1982   3 milhões de pixels—cada um com cerca de 0.0003 polegadas de diâmetro.

 

Resolução—Ótica e Interpolada

Cuidado com as reivindicações sobre resolução para máquinas fotográficas e scanners porque há dois tipos; ótico e interpolado. A resolução ótica de uma máquina fotográfica ou scanner é um número absoluto porque os photosites de um sensor de imagem são dispositivos físicos que podem ser contados. Para melhorar a resolução em certos aspectos limitados, a resolução pode ser aumentada usando um software. Este processo é chamado de resolução interpolada, que soma pixels a uma imagem. Para fazer assim, um software avalia os pixels que cercam cada pixel novo para determinar o que suas cores deveriam ser. Por exemplo, se todos os pixels ao redor de um pixel recentemente inserido são vermelhos, o pixel novo será criado como vermelho. O que é importante é se lembrar de resolução interpolada não soma informação nova para a imagem—só soma pixels e faz o arquivo ficar maior. Esta mesma coisa pode ser feita em um editor de fotografia como o Photoshop, através de ajuste do tamanho da imagem. Cuidado com companhias que promovem ou enfatizam a resolução interpolada (ou otimizada) do dispositivo deles. Você estará adquirindo menos do que você pensa. Sempre confira a resolução ótica do dispositivo. Se isto não é informado, fuja do produto—você estará lidando com pessoas que não têm muito senso ético e profissional em seus corações.

Resoluções das Máquinas

Como você viu, sensores de imagem contêm uma grade de photosites—cada um representa um pixel na imagem final. A resolução do sensor é determinada pelo número de photosites que existem em sua superfície. Esta resolução normalmente é especificada em um dos dois modos—pela dimensão do sensor em pixels ou por seu número total de pixels. Por exemplo, a mesma máquina fotográfica pode especificar sua resolução como sendo de 1200 x 800 pixels (onde " x " é pronunciado " por " como em " 1200 por 800 "), ou 960 mil pixels (1200 multiplicados por 800). Máquinas fotográficas de alta resolução freqüentemente se referem ao tamanho dos arquivos ao invés da resolução. Por exemplo, alguém pode dizer que uma máquina fotográfica cria arquivos de 30 Megabytes. Isto é justo uma forma de abreviar.

camerares.JPG (36784 bytes)
A resolução das câmera são fornecidas como dimensões (1200 x 800) ou por totais (960,000).

Máquinas fotográficas para iniciantes têm atualmente ao redor de 640 x 480 pixels de resolução, embora este número venha sendo constantemente melhorado. Máquinas fotográficas melhores, aquelas com 1 milhões ou mais pixels são chamadas máquinas fotográficas de megapixel e aquelas com mais de 2 milhões são chamadas máquinas fotográficas de multi-megapixel. Até mesmo as máquinas fotográficas digitais profissionais mais caras só dão aproximadamente 6 milhões de pixels. Como você poderia esperar, os custos sobem com o aumento da resolução da máquina fotográfica.

Tamanho não é tudo!

Quanto mais alta a resolução de uma máquina fotográfica, maior serão os arquivos de imagem que ela cria. Por isto, algumas máquinas fotográficas lhe permitem especificar mais de uma resolução quando você tira uma foto. Embora é provável que você obtenha um melhor resultado com uma resolução mais alta, nem sempre isto é necessário—especialmente quando a imagem vai ser exibida na Web ou impressa muito pequena. Nestes casos bastarão imagens de resolução mais baixa, e porque elas têm tamanhos de arquivo menores, você poderá guardar mais na memória da máquina fotográfica.

Embora mais photosites significam resolução mais alta, acrescentar mais não é fácil e cria outros problemas. Por exemplo:

  • Soma significativamente mais photosites ao chip, assim o chip deve ser maior e cada photosite menor. Chips maiores com mais photosites aumentam dificuldades (e custos) de fabricar. Photosites menor devem ser mais sensíveis para capturar a mesma quantia de luz.
  • Mais photosites criam imagens maiores para arquivar e criam problemas de armazenamento.

Resolução dos Monitores

A resolução de um monitor de PC quase sempre é determinada como um par de números que indicam a largura da tela e altura em pixels. Por exemplo, um monitor pode ser especificado como sendo 640 x 480, 800 x 600, 1024 x 768, e assim por diante.

  • O primeiro número no par é o número de pixels de um lado ao outro da tela.
  • O segundo número é o número de linhas de pixels de cima abaixo a tela.
monitorres with labels.JPG (57808 bytes) Este é uma tela de 640 x 480 . Isso significa que existem 640 pixels em cada linha e 480 linhas.

Imagens exibidas no monitor são de muito baixa resolução. Como você pode ver na tabela abaixo, o número atual de pixels por polegada depende da resolução e o tamanho do monitor. Geralmente, são convertidas imagens que serão exibidas na tela a 72 pixels por polegada (ppi), uma resolução originada na era do Apple. (Os números vermelhos na tabela são os pixels por polegada para cada combinação de tamanho de tela e resolução.) Como você pode ver na tabela, este não é um número exato para qualquer resolução em qualquer tela, mas tende a ser uma boa aproximação. Se uma imagem tem 800 pixels de largura, os pixels por polegada aparecem diferentes em um monitor de 10 polegadas de largura que em um de 20 polegadas. O mesmo número de pixels tem que ser espalhado por uma tela maior assim a relação dos pixels por polegada acaba caindo.

Resolução

Tamanho do Monitor

14 15 17 19 21
640 x 480 60 57 51 44 41
800 x 600 74 71 64 56 51
1024 x 768 95 91 82 71 65

 

Resolução da Impressora e do Scanner

Resoluções de impressoras e de scanners normalmente são especificadas pelo número de pontos por polegada (dpi) que eles imprimem ou esquadrinham. (Geralmente pixels por polegada se referem à imagem e tela de exibição e pontos por polegada se referem à impressora e imagem impressa. Às vezes eu penso que toda esta terminologia só existe para nos confundir. Para propósitos de comparação, monitores usam uma média de 72 ppi para exibir texto e imagens, impressoras de jato de tinta variam até 1700 dpi e máquinas de tipográficas comerciais variam entre 1.000 e 2.400 dpi.

 CONVERTENDO UNIDADES DE MEDIDA

Quando trabalhamos com imagens digitais, algumas vezes você precisa converter entre dimensões de imagem como polegadas, pixels, ou pixels por polegada (às vezes expressas como pontos por polegada). Não desista aqui, é tudo só multiplicação e divisão!

Convertendo dimensões em pixels para polegadas

Como você viu, imagens são descritas pelas dimensões delas em pixels. Porém, impressões são descritas em polegadas ou centímetros. O que fazer se você tem uma imagem digital e quer fazer uma impressão? Para saber que tamanho uma imagem terá quando exibida ou impressa, você tem que converter de pixels a polegadas (ou cm). Fazendo assim, você divide a dimensão da imagem em pixels pela resolução do dispositivo em pixels por polegada (ppi). Por exemplo, para converter as dimensões para uma imagem de 1500 x 1200 que será impressa a 300 ppi você divide como segue:

Largura: 1500 pixels ÷ 300 ppi = 5 polegadas
Altura: 1200 pixels ÷ 300 ppi = 4 polegadas

O resultado é uma impressão de 5 x 4 polegadas. Porém, se o dispositivo de produção imprime a 600 ppi, o resultado muda para 2.5 x 2 polegadas de impressão como segue:

Largura: 1500 pixels ÷ 600 ppi = 2.5 polegadas
Altura: 1200 pixels ÷ 600 ppi = 2 polegadas
Height: 1200 pixels ÷ 600 ppi = 2"   

Convertendo dimensões de polegadas para pixels

Esquadrinhar é o verso de imprimir. Você normalmente esquadrinha imagens medidas em polegadas para criar arquivos definidos em pixels. Por exemplo, quando esquadrinhando uma foto, para saber que tamanho terá a imagem digital, você precisa converter de polegadas a pixels. Para fazer isto, você multiplica o número de polegadas pelo de pixels por polegada (ppi) do dispositivo. Por exemplo, se você esquadrinha uma imagem de 4 x 5 polegadas a 300 ppi, você calcula o tamanho de cada lado em pixels ao multiplicar suas dimensões em polegadas pelo número de pixels por polegada como segue:

Largura: 5 pol. x 300 ppi = 1500 pixels
Altura: 4 pol. x 300 ppi = 1200 pixels

eight: 4" x 300 ppi = 1200 pixels

numberofpixels.JPG (33776 bytes)
Para converter de polegadas para pixels você multiplica o tamanho em polegadas vezes os pixels por polegada. Aqui, um lado tem 5 polegadas e outro 4. Para calcular o tamanho de cada lado em pixels, você multiplica estas dimensões pelo número de pontos por polegada, neste caso 300.

Convertendo dimensões em pixels para pixels por polegada

Quando você faz impressões de imagens, os pixels começam a mostrar quando a impressão é aumentada a um ponto onde o número de pixels por polegada (ppi) caia muito. Se sua impressora só pode imprimir uma imagem bem definida a 300 ou mais pixels por polegada, você precisa determinar se o tamanho da imagem que você planeja imprimir cairá abaixo deste nível. Digamos que você tem uma imagem esquadrinhada e quer imprimi-la a um certo tamanho. Quando você aumenta ou reduz uma imagem assim, muda o ppi. Para descobrir como ficam os pixels (ou pontos) por polegada, você converte do tamanho original da imagem em pixels para sua relação de pixels por polegada. Por exemplo, se você esquadrinha um slide a 2700 ppi, sua imagem esquadrinhada é aproximadamente 3712 pixels de largura (um slide tem aproximadamente 1.375 polegadas de largura). Se você então imprime aquela imagem que esquadrinhou em 10 polegadas de largura, os pixels são esticados por sobre uma área maior assim o ppi na impressão cai de 2700 ppi a 371 ppi (3712 pixels ÷ 10 polegadas = 371 pixels por polegada). Também, se você sabe o tamanho da imagem em pixels, você pode dividir aquele número pelo número de pixels que você quer imprimir por polegada para determinar o maior tamanho possível da impressão.

scanning and printing dpi.JPG (24631 bytes) Aqui um slide é esquadrinhado a 2700 dpi. Os 3712 pixels resultantes são esparramados por uma impressão de 10 polegadas de largura. O dpi na impressão são de 371.

Resolução e Tamanho de Imagem

Surpreendentemente, resolução não indica nitidez por si só, ou até mesmo tamanho. O mesmo número de pixels pode ocupar uma área pequena ou grande na tela ou impressão. Quando eles são espalhados por sobre uma área maior, a nitidez visualizada cai (quando vistos de uma mesma distância). Reciprocamente, se eles são apertados em uma área menor, aumento de nitidez é verificado. As imagens em telas de alta resolução ou impressões de alta definição só parecem mais nítidas porque os pixels disponíveis se agrupam em uma área muito menor —não porque há mais pixels. Quanto menor uma imagem é exibida a partir de um determinado arquivo, mais nítida aparecerá. Porém, quando aumenta muito, a nitidez começa a diminuir e eventualmente os pixels quadrados começarão a aparecer na imagem—ela se torna pixelizada.

Pixel-size.JPG (34278 bytes)
Para que a resolução cresça, o tamanho dos pixels tem que diminuir.


O tamanho final de uma imagem depende da resolução do dispositivo de produção. Imagine fazer dois chãos de azulejo, um com azulejos grandes e um com pequenos. O com azulejos pequenos terá curvas mais nítidas e mais detalhe. Porém, se você tem o mesmo número de azulejos grandes e pequenos, a área coberta pelos azulejos pequenos será muito menos.

Image sizes at various dpi.JPG (25732 bytes)
Esta imagem mostra como uma foto de 640 x 480 é apresentada na tela ou impressa em dispositivos com diferentes pontos por polegada (ppi). A 72 ppi será 8.9 x 6.7 pol., a 300 ppi será 2.1 por 1.6 pol. e a 1500 ppi, será somente 0.43 x 0.32 pol.

Você pode ver como isto acontece estudando a tabela abaixo que lista várias resoluções de imagem encontradas em CDs de fotos. Uma imagem com 768 x 512 pixels caberá justa em uma tela fixada para uma resolução de 800 x 600. Será exibida a um pouco mais de 10 x 7 polegadas—quase do tamanho de uma página de revista. Aquela mesma imagem, impressa em uma impressora de 300 dpi encolhe para aproximadamente 2.5 por 1.7 polegadas. Em uma impressora de 1.500 dpi, a mesma imagem encolhe a um tamanho menor que um selo.

Original Tela de 14 pol. @ 72 ppi Impressora de 300 dpi Impressora de 1500 dpi
Largura Altura Largura Altura Largura Altura Largura Altura
192 128 2.67 1.78 0.64 0.43 0.13 0.09
384 256 5.33 3.56 1.28 0.85 0.26 0.17
768 512 10.67 7.11 2.56 1.71 0.51 0.34
1536 1024 21.33 14.22 5.12 3.41 1.02 0.68
3072 2048 42.67 28.44 10.24 6.83 2.05 1.37
6144 4096 85.33 56.89 20.48 13.65 4.10 2.73

Para fazer uma imagem maior ou menor para um determinado dispositivo de produção, deve-se redimensioná-la em um programa de editoração de fotografia ou pela aplicação em que você está imprimindo. O redimensionamento é feito através de interpolação. Quando aumentado, novos pixels são somados e cada pixel novo é determinada pelas cores de seus vizinhos. Quando reduzido, algum pixels são apagados.

Quando aumentado além de um certo ponto, imagens digitais se tornam pixelizadas, perdem detalhe e mostram os pixels de que eles são feitos. Uma regra básica é que uma imagem de 1.5 megapixel pode ser aumentada aproximadamente até 8 x 10 antes de começar a mostrar pixels a uma distância normal de visualização. A Kodak diz que uma imagem de 1-megapixel pode ser reproduzida foto realisticamente a 5 " x 7 ".

 

 INTENSIDADE DE COR

Resolução não é o único fator que governa a qualidade de suas imagens. Igualmente importante é a cor. Quando você vê uma cena natural, ou uma impressão fotográfica a cores bem feita, você pode diferenciar milhões de cores. Imagens digitais podem aproximar este realismo de cor, mas se isto pode ser obtido em seu sistema depende de suas capacidades e sua regulagem. Quantas cores existem em uma imagem ou quanto um sistema pode exibir é chamado de intensidade de cor, profundidade de pixel, ou profundidade de bit. PCs mais velhos estão restritos a exibições que mostram só 16 ou 256 cores. Porém, muitos sistemas mais novos incluem um cartão vídeo e um monitor que podem exibir o que é chamado Cor Verdadeira de 24-bit. Chama-se Cor Verdadeira porque estes sistemas exibem 16 milhões de cores, mais ou menos o número que pode discernir o olho humano.

DICA: Verificando Seu Sistema

Você pode ter que regular seu sistema para cor total, se isto não acontece automaticamente. Para ver se seu sistema Windows 95/98 suporta Cor Verdadeira, clique no botão Iniciar, clique Configurações , e então clique Painel de Controle e depois Vídeo. Clique a aba de Configurações e confira a configuração da paleta de Cor.

Como bits e cores se relacionam uns aos outros? É aritmética simples. Para calcular quantas cores diferentes podem ser capturadas ou podem ser exibidas, simplesmente eleve o número 2 a potência do número de bits usados para registrar ou exibir a imagem. Por exemplo, 8-bits lhe dão 256 cores porque 2 elevado a 8 = 256. Aqui esta uma tabela para lhe mostrar algumas outras possibilidades.

Nome Bits por pixel Formula Número de cores
Preto e branco 1 2 elev. a 1 2
Monitor de vídeo no Windows 4 2 elev. a 4 16
Graduação de Cinza 8 2 elev. a 8 256
256 cores 8 2 elev. a 8 256
High color 16 2 elev. a 16 65 mil
True color 24 2 elev. a 24 16 milhões

Algumas máquinas fotográficas e scanners usam 30 ou mais bits por pixel. Estes bits extras são usados para melhorar a cor na imagem quando ela é processada até sua forma final de 24-bit.

mom_bw.GIF (19803 bytes) mom_gray.JPG (22612 bytes) mom_color.JPG (24065 bytes)
Imagens em preto e branco exigem só 2-bits para indicar qual pixels são brancos e quais são pretos. Imagens em escala de cinza precisam de 8 bits para exibir 256 graduações diferentes de cinza. Iimagens de cor são exibidas usando 4 bits (16 cores), 8 bits (256 cores), 16 bits (65 mil cores) chamada High Color, e 24 bits (16 milhões de cores) chamada True Color ou Cor Verdadeira.
Revisão: Bits e Bytes

Lendo sobre sistemas digitais, você freqüentemente encontra os termos bit e byte.

bits animated.gif (50837 bytes)O bit é a menor unidade digital. É basicamente um único elemento no computador que como uma lâmpada incandescente tem só dois possíveis estados, ligado (indicando 1) ou desligado (indicando 0). O termo bit é uma contração da frase mais descritiva binary digit (dígito binário).

Bytes são grupos de 8-bits unidos juntos para processar. Desde que cada um dos oito pedaços tem dois estados (ligado ou desligado), a quantia total de informação que pode ser carregada é 28 (2 elevado a 8º potência), ou 256 possíveis combinações

Profundidade de cor é importante em ambas as extremidades do espectro. É inteligente equalizar a profundidade da cor de uma imagem com o uso planejado para ela. Por exemplo, se uma imagem será impressa, 24-bit cor é um fator imperativo se você quer obter cores para vivas e bem definidas. Porém, se uma imagem será colocada na Web, veja que a maioria das pessoas ainda está usando monitores de 256 cores. Imagens publicadas em milhões de cores levarão muito mais tempo para carregar porque os arquivos são maiores.

 SENSORES DE IMAGEM

Da mesma maneira que em uma máquina fotográfica tradicional, a luz entra em uma máquina fotográfica digital por uma lente controlada por um obturador. Máquinas fotográficas digitais têm um de três tipos de obturadores eletrônicos que controlam a exposição:

  • Obturadores eletrônicos com sensores usam o próprio sensor de imagem para fixar o tempo de exposição. Um circuito cronometrado diz quando começar e parar a exposição.
  • Obturadores eltro-mecanicos são dispositivos mecânicos que são eletronicamente controlados.
  • Obturadores eletro-óticos são dispositivos eletronicamente dirigidos situados em frente do sensor de imagem e que mudam o curso ótico da transmitância (quantidade de luz transmitida através de um material em proporção ao total de luz incidente sobre a superfície do material transmissor).

De Raios de Luz a Imagens

Quando o obturador abre, em lugar de expor um filme, a máquina fotográfica digital coleta luz em um sensor—um dispositivo eletrônico de estado sólido. Como você viu, o sensor de imagem contém uma grade de photosites minúsculos. Quando a lente focaliza a cena no sensor, alguns photosites registram realces, outros sombras, e outros registram tudo, todos os níveis de luminosidade.

sensor sizes.GIF (5539 bytes) Sensores de imagem são freqüentemente dispositivos minúsculos. Os três tamanhos mais comuns usados em máquinas fotográficas digitais são justo uma fração do tamanho de um slide de 35mm ou um negativo.

Cada photosite converte a luz incidente em uma carga elétrica. Quanto mais luminosa for a luz, o mais alto a carga. Quando o obturador fecha e a exposição se completa, o sensor " se lembra " do padrão que registrou. Então são convertidos os vários níveis de carga para números digitais que podem ser usados para recriar a imagem.

vision image sensor.jpg (3857 bytes) Sensores de imagem contêm uma grade de photosites que converte a luz que incide neles para uma carga elétricas. Estas cargas podem ser medidas e convertidas em números digitais que indicam quanta luminosidade incidiu em cada photosite. Cortesia da VISION.

Estas duas ilustrações mostram como sensores de imagem capturam imagens.

sensor with charges.JPG (18060 bytes) wpe1.jpg (19157 bytes)
Quando uma imagem é enfocada pela lente da máquina fotográfica (ou scanner), ela cai no sensor de imagem. Quantias variadas de luminosidade incide em cada photosite e desprendem elétrons que são então capturados então e armazenados. O número de elétrons soltos de um photosite é diretamente proporcional à quantia de luz que o atingiu. Quando a exposição é completada, o sensor está como um tabuleiro de damas, com números diferentes de quadrados de xadrez (elétrons) empilhados em cada quadro (photosite). Quando a imagem é lida no sensor, os elétrons armazenados são convertidos a uma série de descargas analógicas as quais são convertidas então a valores digitais por um conversor Análogo-para-Digital (A to D) .

Esquadrinhamento Entrelaçado vs. Progressivo

Uma vez que o sensor capturou uma imagem, esta deve ser lida, convertida para digital, e então deve ser armazenada. Não são lidas as cargas elétricas armazenadas no sensor tudo de uma vez mas uma linha de cada vez. Há dois modos para fazer isto—usando esquadrinhamento interlaçado ou progressivo.

  • Em um sensor de esquadrinhamento interlaçado, a imagem é primeiramente processada pelas linhas impares e então pelas pares.
  • Em um sensor de esquadrinhamento progressivo, as linhas são processadas uma após a outra, em seqüência..
interlaced.GIF (18212 bytes) Em um sensor de esquadrinhamento interlaçado, a imagem é lida em linhas alternadas. A imagem então é completada com a leitura das linhas faltantes.

 SENSORES DE IMAGEM E CORES

Quando fotografia foi inventada, podia-se somente registrar imagens em preto e branco. A busca da cor foi um processo longo e árduo, e neste ínterim muitas mãos foram usadas para colorir (motivando o comentário de um autor " assim você acaba tendo que saber pintar afinal de contas"!). Uma inovação importante foi a descoberta de James Clerk Maxwell's em 1860 de que fotos coloridas podiam ser formadas usando-se filtros vermelhos, azuis e verdes. Ele fez o fotógrafo, Thomas Sutton, fotografar uma tira de tartana três vezes, cada vez com um filtro diferente de cor em cima da lente. As três imagens foram reveladas e então foram projetadas sobre uma tela com três projetores diferentes, cada um equipado com o mesmo filtro de cor de acordo com sua imagem. Quando juntas, as três imagens formaram uma imagem de cor sólida. Agora, depois de um século sensores de imagem estão trabalhando do mesmo modo.

Cores aditivas

Cores em uma imagem fotográfica normalmente são baseadas nas três cores primárias: vermelho, verde, e azul (RGB). Isto é chamado de sistema de cor aditivo porque quando as três cores são combinadas em quantidades iguais, elas formam o branco. Este sistema é usado sempre que a luz é projetada para formar cores como num monitor de PC (ou em seu olho). O primeiro uso comercialmente próspero deste sistema para capturar imagens de cor foi inventado pelos irmãos Lumiere em 1903 e se tornou conhecido como o processo Autochrome. Eles tingiram grãos de goma em vermelho, verde, e azul e os usaram para criar imagens de cor em placas de vidro.

RGB breakdown.GIF (6603 bytes) RGB usa cores aditivas. Quando todos as três estão misturados em quantias iguais elas formam o branco. Quando vermelho e verde se sobrepõe, eles formam amarelo, e assim por diante.


Cores Subtrativas

Embora a maioria das máquinas usem o sistema de cor aditiva RGB, algumas máquinas de lata resolução e todas as impressoras usam o sistema CMYK. Este sistema chamado de coloração subtrativa, usa as três cores primária Cian, Magenta e Amarelo ( em inglês CMY-Cyan, Magenta, Yellow-com o K significando o Black, preto). Quando esta três cores são combinadas em quantidades iguais, o resultado é o preto, porque todas as cores são subtraídas (preto é a ausência de cor). O sistema CMYK é muito usado na industria da impressão, mas se você pretende mostrar imagens em CMYK em sua tela, elas terão de ser convertidas para RGB e você perderá alguma fidelidade de cor nesta conversão.

cmyk.JPG (25128 bytes) Quando você combina tintas ou pigmentos cian, magenta, e amarelas ou, você cria cores subtrativas. (Esta ilustração ainda é um pouco grosseira e ficará aquele modo para eu pode entender como combinar as cores facilmente em CorelDraw ou me render e deixar para um verdadeiro artista de computador. Enquanto isso, você pode visitar o site da Olympus para ver outra ilustração da mesma coisa.).

No Final É Tudo Preto E Branco

Sensores de imagem registram só escalas de cinza de 256 tons crescentemente mais escuros, que variam de puro branco a puro negro. Basicamente, eles só capturam luminosidade.

grayscale.GIF (3467 bytes)
A escala de cinza contém uma gama de tons que vai do puro branco ao puro negro. (Veja também no site http://www.hsdesign.com/scanning/welcome.html).

Como, então os sensores capturam cores quando tudo que eles podem fazer são registros de cinzento? O truque é usar filtros vermelhos, verdes e azuis para separar os componentes vermelhos, verdes e azuis da luz refletida por um objeto. (Igualmente, os filtros em um sensor de CMYK serão ou cian, ou magenta ou amarelo.) Há vários modos para fazer isto, incluindo o seguinte:

  • Podem ser usados três sensores de imagem separados, cada um com seu próprio filtro. Deste modo cada sensor de imagem captura a imagem em uma única cor.
  • Podem ser feitas três exposições separadas mudando-se o filtro para cada uma. Deste modo, as três cores são" pintadas " sobre o sensor, uma de cada vez.
  • Podem ser colocados filtros em cima de photosites individualmente assim cada um pode capturar uma única das três cores. Deste modo, um terço da fotografia é capturado em luz vermelha, um terço em azul e um terço em verde.
bayer.JPG (60938 bytes) Cada pixel no sensor de imagem tem um filtro vermelho, verde e azul que se misturaram pelo photosite em padrões projetados para renderem imagens mais definidas e mais verdadeiras nas cores. Os padrões variam de companhia a companhia mas o mais popular é o padrão Bayer de mosaico mostrado aqui atrás do sensor de imagem. Cortesia da IBM.

De Preto e Branco a Colorido

Quando são feitas três exposições separadas por filtros diferentes, cada pixel no sensor registra cada cor na imagem e os três arquivos são fundidos para formar a imagem em cores. Porém, quando três sensores separados são usados, ou quando são colocados filtros pequenos diretamente em cima de photosites individuais no sensor, a resolução ótica do sensor será reduzida para um terço. Isto é porque cada um dos photosites disponível registra uma única das três cores. Por exemplo, em um sensor com 1.2 milhões de photosites, 400 mil têm filtros vermelhos, 400 mil têm verde, e 400 mil têm azul. Isto significa que a resolução ainda é 1.2 milhões, ou é de  400 mil? Vejamos

Cada photosite armazena sua cor capturada (como vista pelo filtro) como sendo de 8 -, 10 -, ou 12-bits de valor. Para se criar uma imagem a cores de 24 -, 30 -, ou 36-bit usa-se a interpolação. Esta forma de interpolação usa as cores de pixels vizinhos para calcular as duas cores que um photosite não registrou. Combinando estas duas cores interpoladas com a cor medida diretamente pelo photosite, a cor original de todo o pixel é calculada. (" Se eu sou uma luminosidade vermelha e o pixels verde e azul ao meu redor também são luminosos de forma que isto significa que eu realmente sou um pixel branco ".) Este processo depende muito do computador, são necessários fazer comparações com até oito pixels vizinhos para se executar este processo corretamente; também resulta em aumento de dados por imagem, assim os arquivos se põem maiores.

Image_sensor-interpolation.GIF (8688 bytes)
Aqui a cor sólida do pixel central vermelho se prepara para ser interpolada a partir das cores dos oitos pixels vizinhos.

Coloração Alternativa

Quando a interpolação é usada, lá tem que ter bastante informação em pixels circunvizinhos para contribuir na formação da cor. Isto nem sempre é o caso. Sensores de imagem de baixa resolução têm um problema chamado alternação de cor que acontece quando uma mancha de luz na cena original é só grande bastante para ser lido por um ou dois pixels. Assim os pixels circunvizinhos não contêm informação de cor precisa sobre o pixel fazendo a cor daquela mancha vir a aparecer como um ponto de cor desconectado da imagem circunvizinha. Outra forma de alternação de cor aparecem como dedos fora de cor e de lugar cercando objetos nitidamente definidos.

Canais De Cor

Cada uma das cores em uma imagem pode ser controlada independentemente e pode ser chamada de um canal de cor. Se um canal de cor de 8-bit é usado para cada cor em um pixel—vermelho, verde e azul—os três canais podem ser combinados para dar cor de 24-bit.

channels.JPG (39393 bytes) Quando uma imagem é aberta no PhotoShop aparece numa caixa de diálogo os canais vermelhos, verdes e azuis assim você pode selecionar qual o que você quer trabalhar. A imagem no topo na caixa de diálogo é a combinação

 

 SENSORES DE ÁREA ORDENADA E LINEAR

Dê para um grupo de desenhistas de máquinas fotográficas ou de scanners uma teoria e uma caixa de componentes e você verá sair fogos de artifício. Eles explorarão toda possível combinação para ver qual trabalha melhor. O mercado determina os vencedores eventuais neste sistema de " lançar contra a parede e vê qual gruda ". No momento, os desenhistas têm dois tipos de componentes com que jogar: sensores de área ordenada ou sensores lineares.

Sensores De Área Ordenada

A maioria das máquinas fotográficas usa sensores de área ordenada, com photosites organizados em uma grade, porque eles podem cobrir a área inteira da imagem e podem capturar uma imagem inteira tudo de uma vez.

image sensor.jpg (5102 bytes) Sensores de área ordenada têm os photosites deles (pixels) organizados em uma grade. Assim eles podem capturar uma imagem inteira imediatamente. Cortesia da VISION.

Estes sensores de área ordenada podem ser incorporados em uma máquina fotográfica em uma variedade de modos:

  • Máquinas fotográficas de um chip e um disparo usam filtros de cor diferentes em cima de cada photosite para capturar todas as três cores com uma única exposição. Esta é a forma mais comum de sensor de imagem usada em máquinas fotográficas digitais amadoras.
  • Máquinas fotográficas de um chip e três disparos fazem três exposições separadas: um para cada filtro vermelho, verde e azul. Um filtro colorido diferente é colocado na frente do sensor de imagem para cada uma das cores. Estas máquinas fotográficas não podem fotografar objetos móveis em cor (embora eles podem em preto & branco) e são normalmente usadas para fotografia de estúdio.
  • Máquinas fotográficas de dois chips capturam "chromonance" usando um sensor (normalmente equipado com filtros para luz vermelha e luz azul) e "luminance" com um segundo sensor (normalmente o que captura a luz verde). Máquinas fotográficas de dois chips exigem menos interpolação para obter cores verdadeiras.
  • Máquinas fotográficas de três chips, como uma da MegaVision, usam três sensores de imagem de corpo inteiro; cada um coberto com um filtro para fazê-lo sensível ao vermelho, verde ou azul. Um divisor de luz dentro da máquina fotográfica divide imagens incidentes em três cópias; cada uma apontando a cada um dos sensores. Este desenho produz imagens de alta resolução com distribuição de cor excelente. Porém, máquinas fotográficas de três chips tendem a ser caras e volumosas.

Sensores lineares

Scanners e algumas máquinas fotográficas profissionais, usam sensores de imagem com photosites organizado em uma ou três linhas chamados de sensores de imagem lineares. Porque eles não cobrem a totalidade da área da imagem, esta deve ser esquadrinhada pelo sensor enquanto ele constrói a imagem dos pixels capturados nas linhas. Máquinas fotográficas com estes sensores só são úteis para fotografar modelos imóveis e fotografia de estúdio. Porém, estes sensores são extensamente usados em scanners.

stamp scan.jpg (77475 bytes) Quando um sensor linear esquadrinha uma imagem gradualmente uma linha de cada vez, ele constrói uma imagem inteira.
  • Sensores de imagem linear colocam um filtro colorido diferente sobre o dispositivo para fazer três exposições diferentes, cada um para capturar o azul, verde e o vermelho. 
  • Sensores Tri-lineares usam 3 linhas de photosites—cada um com um filtro vermelho, verde e azul. Desde que cada um pixel tem seu próprio sensor, cada cor é capturada muito precisamente numa única exposição.

 SENSORES DE IMAGEM CCD E CMOS

Até recentemente, CCDs eram os únicos sensores de imagem usados em máquinas fotográficas digitais. Eles foram bem desenvolvidos pelo uso em telescópios astronômicos, scanners e videocameras. Porém, há um desafio novo no horizonte, o CMOS, sensor de imagem que promete se tornar o sensor de imagem de escolha em um grande segmento do mercado

ccdwaffer.jpg (61797 bytes) Sensores de imagem são formados em waffers de silicone e então são cortados separadamente. Cortesia da IBM.

Sensores de Imagem CCD

Charge-Coupled Devices ou Dispositivos de Carga Acoplada (CCDs) capturam a luz em pequenos photosites em sua superfície e recebem seu nome devido ao modo como a carga elétrica é lida após a exposição. Para começar, as descargas elétricas da primeira fila são transferidas para um dispositivo de leitura. Aí o sinal é levado a um amplificador e daí para um conversor de análogo para digital. Uma vez a fila tenha sido lida, sua carga elétrica no dispositivo de leitura é apagada e todas as filas se movem de cima para baixo. A próxima fila então entra no dispositivo de leitura. As descargas em cada fila estão "acopladas" aquelas da fila de cima de modos que quando uma se move para baixo, a de cima desce para preencher o vazio. Deste modo, cada fila pode ser lida, uma de cada vez.

ccd readout.GIF (40789 bytes)
O CCD leva uma linha inteira por vez para o dispositivo de leitura. Este dispositivo então desloca um pixel por vez para o amplificador de saída.

É tecnicamente possível, mas não econômico, usar o processo de fabricação do CCD para integrar outras funções da máquina fotográfica, como relógios, cronômetros lógicos e processamento de sinal, tudo no mesmo chip como os photosites. Estes normalmente são postos em chips separados assim máquinas fotográficas de CCD contêm vários chips, freqüentemente chegam a ter 8, e não menos que 3.

História

O CCD nasceu de fato por razões erradas. Nos anos sessenta haviam computadores mas a memória produzida em massa e barata que eles precisavam para operar ainda não existiam. Ao invés, haviam muitos modos estranhos e incomuns sendo explorados para armazenar dados enquanto estavam sendo manipulados. Uma processo usava o fósforo que cobre a tela de um monitor de PC e escrevia dados na tela com um feixe de luz e lia o retorno com outro feixe. Porém, na ocasião a tecnologia mais usada era a memória de bolha desenvolvida pelo Bell Labs, eles então propuseram o CCD como um modo de armazenar dados em 1969. Dois cientistas do Bell Labs, Willard Boyle e George Smith, " começaram jogando idéias para todo lado ", nas palavras de Smith, e inventaram dispositivos de carga acoplada em uma hora. " Sim, foi algo incomum--como uma lâmpada incandescente sendo acendida ". Desde então, a lâmpada incandescente iluminou longe e amplamente. Aqui estão alguns destaques:

  • Em 1974, o primeiro CCD de imagem foi produzido pela Fairchild Electronics com um formato de 100x100 pixels.
  • Em 1975, as primeiras máquinas de TELEVISÃO com CCD estavam prontas para uso em radiodifusões comerciais.
  • Em 1975, o primeiro scanner de mesa com CCD foi introduzido pela Kurzweil Computer, que usavam o primeiro chip integrado de CCD, um 500 sensor de ordenação linear da Fairchild.
  • Em 1979, um sistema CCD RCA de 320x512 esfriado com nitrogênio líquido viu pela primeira vez a luz em um telescópio de 1m no observatório Kitt Peak National. As primeiras observações com este CCD mostraram rapidamente sua superioridade comparado com chapas fotográficas.
  • Em 1982, a primeira máquina fotográfica de estado sólido foi introduzida para vídeo-laparoscopia (não pergunte o que é isto!)

 

Sensores de Imagem CMOS

Sensores de imagem são fabricados em waffers fundidos. Lá são cauterizados os circuitos minúsculos e dispositivos são colados sobre chips de silício. O problema maior com CCDs é que não há bastante economia de escala em sua produção. Eles são criados em fundições que usam processos especializados e caros que só podem ser usados para fazer CCDs. Enquanto isso em toda parte, mais e maiores laboratórios estão usando um processo diferente chamado Semicondutor Complementar de Óxido de Metal (CMOS), fazendo milhões de chips para processadores de computador e memória. Este é sem dúvida o processo mais comum e de retorno financeiro mais alto do mundo. Os mais recentes processadores de CMOS, como o Pentium II, contêm quase 10 milhões de elementos ativos. Usando este mesmo processo e o mesmo equipamento para o fabricar sensores de imagem CMOS os custos diminuem porque os custos fixos da produção são distribuídos em um muito maior número de dispositivos. (CMOS se refere a como um sensor é fabricado e não a uma tecnologia de sensor específica.) Como resultado desta economia de escala, o custo de fabricar uma hóstia de CMOS é um terço do custo de fabricar uma hóstia semelhante que usa o processo especial de CCD.

800dies.jpg (26111 bytes) O sensor de cor de 800 x 1000 da VISIONprovê alta resolução a mais baixo custo do que CCDs comparáveis. Cortesia de imagem da VISION.

Sensores de Pixel Passivos e Ativos

Há dois tipos básicos de sensores de imagem CMOS—passivo e ativo.

  • Sensor de pixel passivo (PPS) foram os primeiros dispositivos sensores de imagem usados nos anos sessenta. Num sensor de pixel passivo de CMOS, um photosite converte fótons em uma carga elétrica. Esta carga é levada para fora do sensor e é ampliada. Estes sensores são pequenos—só grande o bastante para os photosites e as conexões deles. O problema com estes sensores é o ruído que aparece como um padrão de fundo na imagem. Para cancelar este ruído, os sensores usam freqüentemente processo de computação adicionais.
  • Sensores de pixel ativo (APSs) reduzem o ruído associado com os sensores de pixel passivo. Circuitos em cada pixel determinam o nível de ruído e os cancelam. São estes circuitos ativos que dão o nome ao dispositivo de pixel ativo. O desempenho desta tecnologia é comparável a muitos dispositivos de carga acoplada (CCDs) e também permite uma maior ordenação da imagem e resolução mais alta.

Pixels passivos de CMOS baratos e de baixa energia estão sendo usados em máquinas fotográficas digitais feitas para amadores. Há um consenso de que enquanto estes dispositivos poderão dominar o mercado de máquina fotográficas amadoras, os sensores de pixel ativo serão dominantes em outros nichos.

Toshiba CMOS.gif (20087 bytes) A Toshiba fabrica um sensor de imagem de 1.300.000 pixels, que é um semicondutor complementar de óxido de metal (CMOS). Cortesia da Toshiba.

Fatos sobre sensores de imagem CMOS

Aqui estão algumas coisas que você deverá gostar de saber sobre sensores de imagem CMOS:

  • A qualidade de imagem dos CMOS está emparelhando com a qualidade do CCD na baixa e média resolução, só ainda deixando intocável os sensores de imagem de alta resolução.
  • Sensores de imagem CMOS podem incorporar outros circuitos no mesmo chip e podem eliminar os muitos chips separados que são requeridos por um CCD. Isto também permite somar características adicionais ao chip a um pequeno custo extra. Estas características incluem anti-jitter (estabilização de imagem) e compressão de imagem. Isto não só faz a máquina fotográfica menor, mais leve e mais barata; também requer menos energia, assim as baterias duram mais.
  • Sensores de imagem CMOS podem trocar os modos de operação entre fotografia e vídeo imediatamente. Porém, vídeo gera arquivos enormes, então inicialmente estas máquinas fotográficas terão que ser acopladas a nave mãe (o PC) quando usadas neste modo, mesmo para registrar só alguns segundos de vídeo. Porém, este modo trabalha bem para videoconferência embora as máquinas fotográficas não podem capturar os 20 quadros por segundo necessários para animação em vídeo.
  • Enquanto sensores de CMOS superam na captura de imagens ao ar livre em dias ensolarados, eles sofrem em baixas condições de luz. A sensibilidade deles à luz é diminuída porque parte de cada photosite é coberta com circuitos que filtram ruído e executam outras funções. A porcentagem de um pixel dedicada a coleta de luz é chamada de fator de armazenamento do pixel. CCDs têm uns 100% de fator de armazenamento mas máquinas fotográficas de CMOS têm muito menos. Quanto mais baixo o fator de armazenamento, menos sensível é o sensor e os tempos de exposição devem ser mais longos. Se for muito baixo o fator de armazenamento a fotografia em recinto fechado sem um flash será virtualmente impossível. Para compensar fatores de armazenamento baixos, podem ser adicionadas microlentes a cada pixel para juntar luz das porções insensíveis do pixel e " enfocá-las " no photosite. Também o circuito pode ser diminuído para não cobrir uma área grande.
    Fill_factor.GIF (8348 bytes)
    O fator de armazenamento se refere a percentagem de um photosite que é sensível a luz. Se os circuitos cobrirem 25% de cada photosite o sensor é dito como tendo um fator de armazenamento de 75%. Quanto maior o fator de armazenamento mais sensível será o sensor.
  • Sensores de CMOS têm um nível de ruído mais alto que os de CCD, assim o tempo de processamento entre imagens é mais alto, pois estes sensores usam processamento digital de sinal (DSP) para reduzir ou eliminar o ruído. O DSP é uma câmera (a Svmini), que executa 600.000.000 instruções por quadro

 

 COMPRESSÃO

Quando você tira uma fotografia, o tamanho do arquivo da imagem é enorme comparado a muitos outros tipos de arquivos de computador. Por exemplo, uma imagem de baixa resolução de 640 x 480 tem 307.200 pixels. Se cada pixel usa 24 bits (3 bytes) para cor verdadeira, uma única imagem pode requerer mais de um megabyte de espaço para armazenamento. Com o aumento da resolução, sobe o tamanho do arquivo. A uma resolução de 1024 x 768, cada foto de 24-bit tem 2.5 megabytes. Para fazer o arquivo da imagem ficar menor e mais manejável, quase toda máquina fotográfica digital usa alguma forma de compressão. Imagens comprimidas não só permitem guardar mais imagens no dispositivo de armazenamento da máquina fotográfica, mas também lhe permite carregá-las e exibi-las mais rapidamente.

Como Funciona a Compressão

Durante a compressão, dados que são duplicados ou que não tem nenhum valor são eliminados ou são salvados em uma forma reduzida, reduzindo muito o tamanho de um arquivo. Quando a imagem é então editada ou é exibida, o processo de compressão é invertido.

Há duas formas de compressão—lossless (com pouca perda) e lossy (com perda)—e a fotografia digital usa ambos as formas.

Compressão Lossless

Compressão de Lossless (também chamada de compressão reversível) descomprime uma imagem a um estado que rivaliza com o original. Embora a compressão lossless pareça ideal, ela não traz muita compressão. Geralmente os arquivos comprimidos têm ainda um terço do tamanho original, não sendo pequenos o bastante para fazer muita diferença em certas situações. Por esta razão a compressão lossless é usada principalmente onde detalhes são extremamente importantes como em raios-x e fotos de satélites. O processo de compressão lossless mais usado é o LZW (Lempel-Ziv-Welch). Ele é usado em imagens de arquivos GIF e TIFF e alcançam níveis de compressão de 50 a 90%


Compressão Lossy

Embora seja possível comprimir imagens sem perder um pouco de qualidade, isto não é prático em muitos casos. Então, máquinas fotográficas digitais populares usam a compressão lossy. Isto degrada imagens até certo ponto e quanto mais elas estão comprimidas, maior será a degradação. Em muitas situações, como colocar imagens na Web, a degradação da imagem não é óbvia. Porém, impressões aumentadas a exibem facilmente.

Embora a compressão lossy não descomprima as imagens à mesma qualidade da fonte original, a imagem permanece lossless visualmente e parece normal. O truque é remover dados que não são óbvios ao espectador. Por exemplo, se áreas grandes do céu têm a mesma tonalidade de azul, só o valor de um pixel precisa de ser guardado junto com as localizações de onde os outros pixels idênticos aparecem na imagem. O principal esquema de compressão lossy é o JPEG (Joint Photographic Experts Group) usado em arquivos JFIF (JPEG File Interchange Format). Este esquema permite selecionar o grau de compressão. Relações de compressão entre 10:1 e 40:1 são comuns.

Porque a compressão lossy afeta a imagem, a maioria das máquinas fotográficas permite escolher entre níveis diferentes de compressão. Isto lhe permite escolher entre uma baixa compressão e qualidade de imagem mais alta ou maior compressão e qualidade mais pobre. A única razão para escolher compressão mais alta é para obter um menor tamanho de arquivo e assim poder armazenar mais imagens, enviá-los através de e-mail ou pode colocá-los na Web. A maioria das máquinas fotográficas lhe dá dois ou três escolhas equivalente a Bom (Good), Melhor (Better) e Muito Melhor (Best), possam aparecer outros nomes. (Se houvesse verdade nestas denominações elas seriam chamadas Bem Pior, Pior, e Bom.)