|
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
|
Antes de começarmos a explorar as máquinas fotográficas digitais e como elas são usadas, vamos antes dar uma olhada em alguns dos princípios básicos como sensor de imagem, resolução e coloração, que são os alicerces da fotografia digital. Diferentemente de máquinas fotográficas tradicionais que usam filme para armazenar uma imagem, máquinas fotográficas digitais usam um dispositivo de estado sólido chamado de sensor de imagem. Estes chips de silicone do tamanho de uma unha, contêm centenas de milhares ou milhões de diodos fotossensíveis chamados "photosites". Cada um destes photosites registra a intensidade ou brilho da luz que se incide sobre ele. Cada photosite reage à luz que lhe incide acumulando uma carga de energia; quanto maior a luz, mais alto será a carga. O brilho registrado por cada photosite é então guardado como um jogo de números que podem ser usados para determinar a cor e brilho de pontos na tela ou tinta em uma página impressa para então reconstruir a imagem. Neste capítulo, nós olharemos este processo de perto porque é o fundamento de tudo o que segue.
PIXELS—SOMENTE PONTOSLigue seu computador e leia seu e-mail ou escreva um documento. Quando você precisa fazer alguma pesquisa você entra na Internet e folheia clipes de vídeo históricos, museus de arte e exibições de fotografia. Quando você quer relaxar, carrega um programa de simulador de vôo e voa por um mundo computadorizado com fotos realistas ou veste um óculos 3D e assiste as coisas saltarem fora da tela vindo até você. Tão diferente quanto estas experiências podem ser, elas todas têm uma coisa em comum—você está olhando a nada mais do que pontos. Como os pintores impressionistas que pintaram cenas maravilhosas com pontos pequenos de pintura, sua tela, e sua impressora criam imagens com pontos pequenos chamados elementos de imagem—ou somente pixels. Pixels são criados dividindo uma
imagem em uma grade. O computador pode mudar o brilho de todo quadrado ou pixel
nesta grade. Fazendo assim, são exibidas texto e imagens. Controlando, ou
endereçando uma grade de pixels individualmente deste modo é chamado
mapeamento de bit ou "bit mapping".
Se você aumenta qualquer imagem digital o bastante, os pixels começarão a aparecer—isto é chamado de pixelização. Isto é semelhante a granulação que surge quando são aumentadas impressões de filmes tradicionais além de um certo ponto.
A maquilagem de um pixel varia e depende em se está na máquina fotográfica, na tela, ou em uma impressão.
RESOLUÇÃO DE DISPOSITIVOS DIGITAISA qualidade de qualquer imagem digital, se impressa ou exibida em uma tela, depende em parte de sua resolução—o número de pixels utilizados para criar a imagem. Mais e menores pixels somam detalhe e realçam com nitidez a imagem. Esta tabela lista alguns padrões de comparação. Os números de várias fontes diferem. Existem três modos para se expressar a resolução de uma imagem; por suas dimensões em pixels, pelo número total de pixels, ou pela relação de pixels por polegada (ppi) ou pontos por polegada (dpi).
Resoluções das MáquinasComo você viu, sensores de imagem contêm uma grade de photosites—cada um representa um pixel na imagem final. A resolução do sensor é determinada pelo número de photosites que existem em sua superfície. Esta resolução normalmente é especificada em um dos dois modos—pela dimensão do sensor em pixels ou por seu número total de pixels. Por exemplo, a mesma máquina fotográfica pode especificar sua resolução como sendo de 1200 x 800 pixels (onde " x " é pronunciado " por " como em " 1200 por 800 "), ou 960 mil pixels (1200 multiplicados por 800). Máquinas fotográficas de alta resolução freqüentemente se referem ao tamanho dos arquivos ao invés da resolução. Por exemplo, alguém pode dizer que uma máquina fotográfica cria arquivos de 30 Megabytes. Isto é justo uma forma de abreviar.
Máquinas fotográficas para iniciantes têm atualmente ao redor de 640 x 480 pixels de resolução, embora este número venha sendo constantemente melhorado. Máquinas fotográficas melhores, aquelas com 1 milhões ou mais pixels são chamadas máquinas fotográficas de megapixel e aquelas com mais de 2 milhões são chamadas máquinas fotográficas de multi-megapixel. Até mesmo as máquinas fotográficas digitais profissionais mais caras só dão aproximadamente 6 milhões de pixels. Como você poderia esperar, os custos sobem com o aumento da resolução da máquina fotográfica.
Embora mais photosites significam resolução mais alta, acrescentar mais não é fácil e cria outros problemas. Por exemplo:
Resolução dos MonitoresA resolução de um monitor de PC quase sempre é determinada como um par de números que indicam a largura da tela e altura em pixels. Por exemplo, um monitor pode ser especificado como sendo 640 x 480, 800 x 600, 1024 x 768, e assim por diante.
Imagens exibidas no monitor são de muito baixa resolução. Como você pode ver na tabela abaixo, o número atual de pixels por polegada depende da resolução e o tamanho do monitor. Geralmente, são convertidas imagens que serão exibidas na tela a 72 pixels por polegada (ppi), uma resolução originada na era do Apple. (Os números vermelhos na tabela são os pixels por polegada para cada combinação de tamanho de tela e resolução.) Como você pode ver na tabela, este não é um número exato para qualquer resolução em qualquer tela, mas tende a ser uma boa aproximação. Se uma imagem tem 800 pixels de largura, os pixels por polegada aparecem diferentes em um monitor de 10 polegadas de largura que em um de 20 polegadas. O mesmo número de pixels tem que ser espalhado por uma tela maior assim a relação dos pixels por polegada acaba caindo.
Resolução da Impressora e do ScannerResoluções de impressoras e de scanners normalmente são especificadas pelo número de pontos por polegada (dpi) que eles imprimem ou esquadrinham. (Geralmente pixels por polegada se referem à imagem e tela de exibição e pontos por polegada se referem à impressora e imagem impressa. Às vezes eu penso que toda esta terminologia só existe para nos confundir. Para propósitos de comparação, monitores usam uma média de 72 ppi para exibir texto e imagens, impressoras de jato de tinta variam até 1700 dpi e máquinas de tipográficas comerciais variam entre 1.000 e 2.400 dpi. CONVERTENDO UNIDADES DE MEDIDAQuando trabalhamos com imagens digitais, algumas vezes você precisa converter entre dimensões de imagem como polegadas, pixels, ou pixels por polegada (às vezes expressas como pontos por polegada). Não desista aqui, é tudo só multiplicação e divisão! Convertendo dimensões em pixels para polegadasComo você viu, imagens são descritas pelas dimensões delas em pixels. Porém, impressões são descritas em polegadas ou centímetros. O que fazer se você tem uma imagem digital e quer fazer uma impressão? Para saber que tamanho uma imagem terá quando exibida ou impressa, você tem que converter de pixels a polegadas (ou cm). Fazendo assim, você divide a dimensão da imagem em pixels pela resolução do dispositivo em pixels por polegada (ppi). Por exemplo, para converter as dimensões para uma imagem de 1500 x 1200 que será impressa a 300 ppi você divide como segue: Largura: 1500
pixels ÷ 300 ppi = 5 polegadas O resultado é uma impressão de 5 x 4 polegadas. Porém, se o dispositivo de produção imprime a 600 ppi, o resultado muda para 2.5 x 2 polegadas de impressão como segue: Largura:
1500 pixels ÷ 600 ppi = 2.5 polegadas Convertendo dimensões de polegadas para pixelsEsquadrinhar é o verso de imprimir. Você normalmente esquadrinha imagens medidas em polegadas para criar arquivos definidos em pixels. Por exemplo, quando esquadrinhando uma foto, para saber que tamanho terá a imagem digital, você precisa converter de polegadas a pixels. Para fazer isto, você multiplica o número de polegadas pelo de pixels por polegada (ppi) do dispositivo. Por exemplo, se você esquadrinha uma imagem de 4 x 5 polegadas a 300 ppi, você calcula o tamanho de cada lado em pixels ao multiplicar suas dimensões em polegadas pelo número de pixels por polegada como segue: Largura: 5 pol. x
300 ppi = 1500 pixels eight: 4" x 300 ppi = 1200 pixels
Convertendo dimensões em pixels para pixels por polegadaQuando você faz impressões de imagens, os pixels começam a mostrar quando a impressão é aumentada a um ponto onde o número de pixels por polegada (ppi) caia muito. Se sua impressora só pode imprimir uma imagem bem definida a 300 ou mais pixels por polegada, você precisa determinar se o tamanho da imagem que você planeja imprimir cairá abaixo deste nível. Digamos que você tem uma imagem esquadrinhada e quer imprimi-la a um certo tamanho. Quando você aumenta ou reduz uma imagem assim, muda o ppi. Para descobrir como ficam os pixels (ou pontos) por polegada, você converte do tamanho original da imagem em pixels para sua relação de pixels por polegada. Por exemplo, se você esquadrinha um slide a 2700 ppi, sua imagem esquadrinhada é aproximadamente 3712 pixels de largura (um slide tem aproximadamente 1.375 polegadas de largura). Se você então imprime aquela imagem que esquadrinhou em 10 polegadas de largura, os pixels são esticados por sobre uma área maior assim o ppi na impressão cai de 2700 ppi a 371 ppi (3712 pixels ÷ 10 polegadas = 371 pixels por polegada). Também, se você sabe o tamanho da imagem em pixels, você pode dividir aquele número pelo número de pixels que você quer imprimir por polegada para determinar o maior tamanho possível da impressão.
Resolução e Tamanho de ImagemSurpreendentemente, resolução não indica nitidez por si só, ou até mesmo tamanho. O mesmo número de pixels pode ocupar uma área pequena ou grande na tela ou impressão. Quando eles são espalhados por sobre uma área maior, a nitidez visualizada cai (quando vistos de uma mesma distância). Reciprocamente, se eles são apertados em uma área menor, aumento de nitidez é verificado. As imagens em telas de alta resolução ou impressões de alta definição só parecem mais nítidas porque os pixels disponíveis se agrupam em uma área muito menor —não porque há mais pixels. Quanto menor uma imagem é exibida a partir de um determinado arquivo, mais nítida aparecerá. Porém, quando aumenta muito, a nitidez começa a diminuir e eventualmente os pixels quadrados começarão a aparecer na imagem—ela se torna pixelizada.
Você pode ver como isto acontece estudando a tabela abaixo que lista várias resoluções de imagem encontradas em CDs de fotos. Uma imagem com 768 x 512 pixels caberá justa em uma tela fixada para uma resolução de 800 x 600. Será exibida a um pouco mais de 10 x 7 polegadas—quase do tamanho de uma página de revista. Aquela mesma imagem, impressa em uma impressora de 300 dpi encolhe para aproximadamente 2.5 por 1.7 polegadas. Em uma impressora de 1.500 dpi, a mesma imagem encolhe a um tamanho menor que um selo.
Para fazer uma imagem maior ou menor para um determinado dispositivo de produção, deve-se redimensioná-la em um programa de editoração de fotografia ou pela aplicação em que você está imprimindo. O redimensionamento é feito através de interpolação. Quando aumentado, novos pixels são somados e cada pixel novo é determinada pelas cores de seus vizinhos. Quando reduzido, algum pixels são apagados. Quando aumentado além de um certo ponto, imagens digitais se tornam pixelizadas, perdem detalhe e mostram os pixels de que eles são feitos. Uma regra básica é que uma imagem de 1.5 megapixel pode ser aumentada aproximadamente até 8 x 10 antes de começar a mostrar pixels a uma distância normal de visualização. A Kodak diz que uma imagem de 1-megapixel pode ser reproduzida foto realisticamente a 5 " x 7 ".
INTENSIDADE DE CORResolução não é o único fator que governa a qualidade de suas imagens. Igualmente importante é a cor. Quando você vê uma cena natural, ou uma impressão fotográfica a cores bem feita, você pode diferenciar milhões de cores. Imagens digitais podem aproximar este realismo de cor, mas se isto pode ser obtido em seu sistema depende de suas capacidades e sua regulagem. Quantas cores existem em uma imagem ou quanto um sistema pode exibir é chamado de intensidade de cor, profundidade de pixel, ou profundidade de bit. PCs mais velhos estão restritos a exibições que mostram só 16 ou 256 cores. Porém, muitos sistemas mais novos incluem um cartão vídeo e um monitor que podem exibir o que é chamado Cor Verdadeira de 24-bit. Chama-se Cor Verdadeira porque estes sistemas exibem 16 milhões de cores, mais ou menos o número que pode discernir o olho humano.
Como bits e cores se relacionam uns aos outros? É aritmética simples. Para calcular quantas cores diferentes podem ser capturadas ou podem ser exibidas, simplesmente eleve o número 2 a potência do número de bits usados para registrar ou exibir a imagem. Por exemplo, 8-bits lhe dão 256 cores porque 2 elevado a 8 = 256. Aqui esta uma tabela para lhe mostrar algumas outras possibilidades.
Algumas máquinas fotográficas e scanners usam 30 ou mais bits por pixel. Estes bits extras são usados para melhorar a cor na imagem quando ela é processada até sua forma final de 24-bit.
Profundidade de cor é importante em ambas as extremidades do espectro. É inteligente equalizar a profundidade da cor de uma imagem com o uso planejado para ela. Por exemplo, se uma imagem será impressa, 24-bit cor é um fator imperativo se você quer obter cores para vivas e bem definidas. Porém, se uma imagem será colocada na Web, veja que a maioria das pessoas ainda está usando monitores de 256 cores. Imagens publicadas em milhões de cores levarão muito mais tempo para carregar porque os arquivos são maiores. SENSORES DE IMAGEMDa mesma maneira que em uma máquina fotográfica tradicional, a luz entra em uma máquina fotográfica digital por uma lente controlada por um obturador. Máquinas fotográficas digitais têm um de três tipos de obturadores eletrônicos que controlam a exposição:
De Raios de Luz a ImagensQuando o obturador abre, em lugar de expor um filme, a máquina fotográfica digital coleta luz em um sensor—um dispositivo eletrônico de estado sólido. Como você viu, o sensor de imagem contém uma grade de photosites minúsculos. Quando a lente focaliza a cena no sensor, alguns photosites registram realces, outros sombras, e outros registram tudo, todos os níveis de luminosidade.
Cada photosite converte a luz incidente em uma carga elétrica. Quanto mais luminosa for a luz, o mais alto a carga. Quando o obturador fecha e a exposição se completa, o sensor " se lembra " do padrão que registrou. Então são convertidos os vários níveis de carga para números digitais que podem ser usados para recriar a imagem.
Estas duas ilustrações mostram como sensores de imagem capturam imagens.
Esquadrinhamento Entrelaçado vs. ProgressivoUma vez que o sensor capturou uma imagem, esta deve ser lida, convertida para digital, e então deve ser armazenada. Não são lidas as cargas elétricas armazenadas no sensor tudo de uma vez mas uma linha de cada vez. Há dois modos para fazer isto—usando esquadrinhamento interlaçado ou progressivo.
SENSORES DE IMAGEM E CORESQuando fotografia foi inventada, podia-se somente registrar imagens em preto e branco. A busca da cor foi um processo longo e árduo, e neste ínterim muitas mãos foram usadas para colorir (motivando o comentário de um autor " assim você acaba tendo que saber pintar afinal de contas"!). Uma inovação importante foi a descoberta de James Clerk Maxwell's em 1860 de que fotos coloridas podiam ser formadas usando-se filtros vermelhos, azuis e verdes. Ele fez o fotógrafo, Thomas Sutton, fotografar uma tira de tartana três vezes, cada vez com um filtro diferente de cor em cima da lente. As três imagens foram reveladas e então foram projetadas sobre uma tela com três projetores diferentes, cada um equipado com o mesmo filtro de cor de acordo com sua imagem. Quando juntas, as três imagens formaram uma imagem de cor sólida. Agora, depois de um século sensores de imagem estão trabalhando do mesmo modo. Cores aditivasCores em uma imagem fotográfica normalmente são baseadas nas três cores primárias: vermelho, verde, e azul (RGB). Isto é chamado de sistema de cor aditivo porque quando as três cores são combinadas em quantidades iguais, elas formam o branco. Este sistema é usado sempre que a luz é projetada para formar cores como num monitor de PC (ou em seu olho). O primeiro uso comercialmente próspero deste sistema para capturar imagens de cor foi inventado pelos irmãos Lumiere em 1903 e se tornou conhecido como o processo Autochrome. Eles tingiram grãos de goma em vermelho, verde, e azul e os usaram para criar imagens de cor em placas de vidro.
Cores SubtrativasEmbora a maioria das máquinas usem o sistema de cor aditiva RGB, algumas máquinas de lata resolução e todas as impressoras usam o sistema CMYK. Este sistema chamado de coloração subtrativa, usa as três cores primária Cian, Magenta e Amarelo ( em inglês CMY-Cyan, Magenta, Yellow-com o K significando o Black, preto). Quando esta três cores são combinadas em quantidades iguais, o resultado é o preto, porque todas as cores são subtraídas (preto é a ausência de cor). O sistema CMYK é muito usado na industria da impressão, mas se você pretende mostrar imagens em CMYK em sua tela, elas terão de ser convertidas para RGB e você perderá alguma fidelidade de cor nesta conversão.
No Final É Tudo Preto E BrancoSensores de imagem registram só escalas de cinza de 256 tons crescentemente mais escuros, que variam de puro branco a puro negro. Basicamente, eles só capturam luminosidade.
Como, então os sensores capturam cores quando tudo que eles podem fazer são registros de cinzento? O truque é usar filtros vermelhos, verdes e azuis para separar os componentes vermelhos, verdes e azuis da luz refletida por um objeto. (Igualmente, os filtros em um sensor de CMYK serão ou cian, ou magenta ou amarelo.) Há vários modos para fazer isto, incluindo o seguinte:
De Preto e Branco a ColoridoQuando são feitas três exposições separadas por filtros diferentes, cada pixel no sensor registra cada cor na imagem e os três arquivos são fundidos para formar a imagem em cores. Porém, quando três sensores separados são usados, ou quando são colocados filtros pequenos diretamente em cima de photosites individuais no sensor, a resolução ótica do sensor será reduzida para um terço. Isto é porque cada um dos photosites disponível registra uma única das três cores. Por exemplo, em um sensor com 1.2 milhões de photosites, 400 mil têm filtros vermelhos, 400 mil têm verde, e 400 mil têm azul. Isto significa que a resolução ainda é 1.2 milhões, ou é de 400 mil? Vejamos Cada photosite armazena sua cor capturada (como vista pelo filtro) como sendo de 8 -, 10 -, ou 12-bits de valor. Para se criar uma imagem a cores de 24 -, 30 -, ou 36-bit usa-se a interpolação. Esta forma de interpolação usa as cores de pixels vizinhos para calcular as duas cores que um photosite não registrou. Combinando estas duas cores interpoladas com a cor medida diretamente pelo photosite, a cor original de todo o pixel é calculada. (" Se eu sou uma luminosidade vermelha e o pixels verde e azul ao meu redor também são luminosos de forma que isto significa que eu realmente sou um pixel branco ".) Este processo depende muito do computador, são necessários fazer comparações com até oito pixels vizinhos para se executar este processo corretamente; também resulta em aumento de dados por imagem, assim os arquivos se põem maiores.
Coloração AlternativaQuando a interpolação é usada, lá tem que ter bastante informação em pixels circunvizinhos para contribuir na formação da cor. Isto nem sempre é o caso. Sensores de imagem de baixa resolução têm um problema chamado alternação de cor que acontece quando uma mancha de luz na cena original é só grande bastante para ser lido por um ou dois pixels. Assim os pixels circunvizinhos não contêm informação de cor precisa sobre o pixel fazendo a cor daquela mancha vir a aparecer como um ponto de cor desconectado da imagem circunvizinha. Outra forma de alternação de cor aparecem como dedos fora de cor e de lugar cercando objetos nitidamente definidos. Canais De CorCada uma das cores em uma imagem pode ser controlada independentemente e pode ser chamada de um canal de cor. Se um canal de cor de 8-bit é usado para cada cor em um pixel—vermelho, verde e azul—os três canais podem ser combinados para dar cor de 24-bit.
SENSORES DE ÁREA ORDENADA E LINEARDê para um grupo de desenhistas de máquinas fotográficas ou de scanners uma teoria e uma caixa de componentes e você verá sair fogos de artifício. Eles explorarão toda possível combinação para ver qual trabalha melhor. O mercado determina os vencedores eventuais neste sistema de " lançar contra a parede e vê qual gruda ". No momento, os desenhistas têm dois tipos de componentes com que jogar: sensores de área ordenada ou sensores lineares. Sensores De Área OrdenadaA maioria das máquinas fotográficas usa sensores de área ordenada, com photosites organizados em uma grade, porque eles podem cobrir a área inteira da imagem e podem capturar uma imagem inteira tudo de uma vez.
Estes sensores de área ordenada podem ser incorporados em uma máquina fotográfica em uma variedade de modos:
Sensores linearesScanners e algumas máquinas fotográficas profissionais, usam sensores de imagem com photosites organizado em uma ou três linhas chamados de sensores de imagem lineares. Porque eles não cobrem a totalidade da área da imagem, esta deve ser esquadrinhada pelo sensor enquanto ele constrói a imagem dos pixels capturados nas linhas. Máquinas fotográficas com estes sensores só são úteis para fotografar modelos imóveis e fotografia de estúdio. Porém, estes sensores são extensamente usados em scanners.
SENSORES DE IMAGEM CCD E CMOSAté recentemente, CCDs eram os únicos sensores de imagem usados em máquinas fotográficas digitais. Eles foram bem desenvolvidos pelo uso em telescópios astronômicos, scanners e videocameras. Porém, há um desafio novo no horizonte, o CMOS, sensor de imagem que promete se tornar o sensor de imagem de escolha em um grande segmento do mercado
Sensores de Imagem CCDCharge-Coupled Devices ou Dispositivos de Carga Acoplada (CCDs) capturam a luz em pequenos photosites em sua superfície e recebem seu nome devido ao modo como a carga elétrica é lida após a exposição. Para começar, as descargas elétricas da primeira fila são transferidas para um dispositivo de leitura. Aí o sinal é levado a um amplificador e daí para um conversor de análogo para digital. Uma vez a fila tenha sido lida, sua carga elétrica no dispositivo de leitura é apagada e todas as filas se movem de cima para baixo. A próxima fila então entra no dispositivo de leitura. As descargas em cada fila estão "acopladas" aquelas da fila de cima de modos que quando uma se move para baixo, a de cima desce para preencher o vazio. Deste modo, cada fila pode ser lida, uma de cada vez.
É tecnicamente possível, mas não econômico, usar o processo de fabricação do CCD para integrar outras funções da máquina fotográfica, como relógios, cronômetros lógicos e processamento de sinal, tudo no mesmo chip como os photosites. Estes normalmente são postos em chips separados assim máquinas fotográficas de CCD contêm vários chips, freqüentemente chegam a ter 8, e não menos que 3.
Sensores de Imagem CMOSSensores de imagem são fabricados em waffers fundidos. Lá são cauterizados os circuitos minúsculos e dispositivos são colados sobre chips de silício. O problema maior com CCDs é que não há bastante economia de escala em sua produção. Eles são criados em fundições que usam processos especializados e caros que só podem ser usados para fazer CCDs. Enquanto isso em toda parte, mais e maiores laboratórios estão usando um processo diferente chamado Semicondutor Complementar de Óxido de Metal (CMOS), fazendo milhões de chips para processadores de computador e memória. Este é sem dúvida o processo mais comum e de retorno financeiro mais alto do mundo. Os mais recentes processadores de CMOS, como o Pentium II, contêm quase 10 milhões de elementos ativos. Usando este mesmo processo e o mesmo equipamento para o fabricar sensores de imagem CMOS os custos diminuem porque os custos fixos da produção são distribuídos em um muito maior número de dispositivos. (CMOS se refere a como um sensor é fabricado e não a uma tecnologia de sensor específica.) Como resultado desta economia de escala, o custo de fabricar uma hóstia de CMOS é um terço do custo de fabricar uma hóstia semelhante que usa o processo especial de CCD.
Sensores de Pixel Passivos e AtivosHá dois tipos básicos de sensores de imagem CMOS—passivo e ativo.
Pixels passivos de CMOS baratos e de baixa energia estão sendo usados em máquinas fotográficas digitais feitas para amadores. Há um consenso de que enquanto estes dispositivos poderão dominar o mercado de máquina fotográficas amadoras, os sensores de pixel ativo serão dominantes em outros nichos.
Fatos sobre sensores de imagem CMOSAqui estão algumas coisas que você deverá gostar de saber sobre sensores de imagem CMOS:
COMPRESSÃOQuando você tira uma fotografia, o tamanho do arquivo da imagem é enorme comparado a muitos outros tipos de arquivos de computador. Por exemplo, uma imagem de baixa resolução de 640 x 480 tem 307.200 pixels. Se cada pixel usa 24 bits (3 bytes) para cor verdadeira, uma única imagem pode requerer mais de um megabyte de espaço para armazenamento. Com o aumento da resolução, sobe o tamanho do arquivo. A uma resolução de 1024 x 768, cada foto de 24-bit tem 2.5 megabytes. Para fazer o arquivo da imagem ficar menor e mais manejável, quase toda máquina fotográfica digital usa alguma forma de compressão. Imagens comprimidas não só permitem guardar mais imagens no dispositivo de armazenamento da máquina fotográfica, mas também lhe permite carregá-las e exibi-las mais rapidamente. Como Funciona a CompressãoDurante a compressão, dados que são duplicados ou que não tem nenhum valor são eliminados ou são salvados em uma forma reduzida, reduzindo muito o tamanho de um arquivo. Quando a imagem é então editada ou é exibida, o processo de compressão é invertido. Há duas formas de compressão—lossless (com pouca perda) e lossy (com
perda)—e a fotografia digital usa ambos as formas. Compressão LosslessCompressão de Lossless (também chamada de compressão reversível) descomprime uma imagem a um estado que rivaliza com o original. Embora a compressão lossless pareça ideal, ela não traz muita compressão. Geralmente os arquivos comprimidos têm ainda um terço do tamanho original, não sendo pequenos o bastante para fazer muita diferença em certas situações. Por esta razão a compressão lossless é usada principalmente onde detalhes são extremamente importantes como em raios-x e fotos de satélites. O processo de compressão lossless mais usado é o LZW (Lempel-Ziv-Welch). Ele é usado em imagens de arquivos GIF e TIFF e alcançam níveis de compressão de 50 a 90%
|
|
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
|
|
|
|