blog

Winamp windows Media Player Real Player QuickTime

rádio yorinori flash

Carregando...
Carregando...

sexta-feira, 30 de abril de 2010

Disquete

Disquete é um disco de mídia magnética removível, para armazenamento de dados. O termo equivalente em inglês é floppy-disk, significando disco flexível.




Pode ter o tamanho de 3,5 polegadas com capacidade de armazenamento de 720 KB (DD=Double Density) até 5,76 MB (EDS=Extra Density Super), embora o mais comum atualmente seja 1,44 MB (HD=High Density), ou 5,25 polegadas com armazenamento de 160 KB (Single Side = Face Simples) até 1,2 MB (HD).

Histórico dos formatos de disquete




Um disquete de 8 polegadas.Os (as) disquetes tiveram diferentes tamanhos e formatos desde que foram inventados, em 1971, com o último formato (3½-polegadas (inch) HDS) a ser definitivamente adotado.



Tipo de disco Ano Capacidade

8-inch 1971 80 kB

8-inch 1973 256 kB

8-inch 1974 800 kB

8-inch dual-sided 1975 1MB

5¼-inch 1976 160 kB

5¼-inch DD 1978 360 kB

5¼-inch QD 1980 720 KB

5¼-inch HD 1984 1.2 MB

3-inch 1984? 320 kB

3½-inch 1984 720 kB

3½-inch HD 1987 1.44 MB

3½-inch ED 1991 2.88 MB

3½-inch EDS 1993 5.76 MB



Outras características dos disquetes

Disquete de 5"1/4



Disquete de formato 5,25 polegadas.Tipo Usado em Setores por trilha trilhas por Face Capacidade Taxa de transferência de bits

Dupla Densidade P.C./XT 8 40 160/320 KB 250 KBit/s

Dupla Densidade P.C./XT 9 40 180/360 KB 250 KBit/s

Quadrupla Densidade AT 8 80 720 KB 300 KBit/s

Alta Densidade AT 15 80 1,2 MB 500 KBit/s



A capacidade dos disquetes 5"1/4, nos modelos mais antigos de leitora, é limitado a uma face. Neste caso, embora a mídia permita, apenas uma das faces é acessada de cada vez. Nos modelos mais novos, com duas cabeças de leitura/escrita, ambas as faces são acessadas.



Disquete de 3"1/2

Tipo Usado em Setores por trilha Trilhas por Face Capacidade Taxa de transferência de bits

Dupla Densidade P.C./XT 9 80 720 KB 250 Kbit/s

Alta Densidade AT 18 80 1,44 MB 500 Kbit/s

Alta Densidade Extra AT 36 80 2,88 MB 1 Mbit/s

Alta Densidade Extra Super AT 72 80 5,76 MB 2 Mbit/s



Por dentro do disquete



Legenda:

1 - Trava de proteção contra escrita. 2 - Base central. 3 - Cobertura móvel. 4 - Chassi (corpo) plástico. 5 - Disco de papel. 6 - Disco magnético. 7 - Setor do disco.Os disquetes possuem a mesma estrutura de um disco rígido sendo todos periféricos de entrada e saida, tendo como diferenças o fato dos disquetes poderem ser removíveis e o fato dos disquetes serem compostos de um único disco magnético.



Os disquetes são divididos em pistas. Um conjunto de pistas concêntricas repartidas em intervalos regulares definem a superfície magnética do disco. As pistas são numeradas de 0 a n, sendo n o número total. A pista 0 é a mais externa.



Cada cilindro é dividido em um número constante de partes de mesmo tamanho, denominado setor. O nome destes depende do formato do disquete e são numerados de 1 até n, sendo n o número de setores por pista.



Cada setor possui o tamanho de 512 bytes. O setor (ou bloco) é a menor porção do disco que o computador consegue ler.



O disco magnético geralmente é dividido em duas faces, denominadas 0 e 1. Alguns leitores mais atuais, visto que os discos possuem essas duas faces, são equipados com duas cabeças de leitura/escrita, uma para cada face do disco.



Para se calcular a capacidade do disquete, pode-se usar a fórmula: Número de faces × número de pistas × números de setores/pista × 512 bytes/setor.



Problemas

As unidades de leitura geralmente possuem um botão que, se pressionado ejeta o disquete. A possibilidade de ejetar o disquete mecanicamente pode acarretar erros de leitura, ou até mesmo a perda de todos os dados contidos no disquete caso a ejeção seja feita durante um processo de leitura. Uma exceção a isso é constituído pelas unidades de leitura dos computadores Macintosh, nos quais a ejeção do disco é comandada pelo sistema operacional e realizada através de um motor interno.



Um outro problema é referente à sua vida útil. Os disquetes possuem vida útil que varia de 5 a 6 anos (pouco, se for comparado ao CD, que dura 20 anos). Disquetes mais velhos e com muito uso, começam a desprender fragmentos do disco magnético interno, sendo que alguns desses fragmentos podem grudar nas cabeças de leitura, dificultando muito a leitura/escrita de outros disquetes. Para essa situação, é recomendável utilizar um "disquete" especial para limpeza, em que no lugar do disco magnético fica localizado um tecido para limpeza.



Desuso



Disquete estilizado.O disquete já foi considerado um dispositivo com grande capacidade de armazenamento, especialmente devido ao pequeno tamanho dos arquivos. Atualmente, devido ao tamanho cada vez maior dos arquivos e, devido à existência de mídias de armazenamento não-voláteis de maior capacidade, como Zip Disks, cartões de memória (memory sticks, cartões MMC, cartões SD, ...), Flash Drives USB (muitas vezes em formato de chaveiro), CD-R, CD-RW, DVD gravável e regravável; além de existir outras maneiras de guardar arquivos, como armazenamento distribuído e/ou Compartilhamento de arquivos em redes locais, e-mail e disco virtual, o disquete se tornou um utilitário obsoleto. Muitos fabricantes de computadores dão como certa a "morte" dos disquetes e que os computadores do futuro não terão mais drives de disquetes. O maior problema em relação aos disquetes é justamente o problema do disquete velho : o disquete possui uma "vida útil" de 5 anos. Após esse prazo, a sua camada magnética começa a se danificar e aí pode haver perda de dados. O pior dessa situação é que a camada magnética começa a realmente se descolar da camada plástica do disquete, sujando as cabeças de leitura/gravação. Para resolver esse problema, basta limparmos as cabeças de leitura e gravação da unidade de disquete com um disco de feltro especial. Em geral esse disco vem junto com um vidrinho contendo álcool isopropílico que é usado na limpeza.



Meio de Contaminação de Vírus

Os disquetes foram os primeiro transmissores de vírus de computador, no fim dos anos 80, o Vírus Ping-Pong, Vírus Stoned, Vírus Jerusalem e Vírus Sexta-Feira 13 eram disseminados através do disquete. Que contaminava o PC quando inserido na máquina, e após contaminar ele contaminava qualquer outro disquete sem vírus que fosse inserido no drive do PC. Até o surgimento na Internet, o disquete era o único meio de propagação de vírus que existia.



Na época o único meio de proteger um disquete contra vírus era colocar um selo no lacre quadrangular superior ou, no caso dos disquetes de 3"½, ativar a trava de proteção contra escrita, de forma a impedir que o PC gravasse qualquer coisa no disquete, fazendo dele um meio de leitura de dados somente, protegendo assim, de vírus.

quinta-feira, 29 de abril de 2010

Disco rígido

Disco rígido ou disco duro, no Brasil popularmente chamado também de HD (derivação de HDD do inglês hard disk drive) ou winchester (termo em desuso), "memória de massa" ou ainda de "memória secundária" é a parte do computador onde são armazenados os dados. O disco rígido é uma memória não-volátil, ou seja, as informações não são perdidas quando o computador é desligado, sendo considerado o principal meio de armazenamento de dados em massa. Por ser uma memória não-volátil, é um sistema necessário para se ter um meio de executar novamente programas e carregar arquivos contendo os dados inseridos anteriormente quando ligamos o computador. Nos sistemas operativos mais recentes, ele é também utilizado para expandir a memória RAM, através da gestão de memória virtual. Existem vários tipos de discos rígidos diferentes: IDE/ATA, Serial ATA, SCSI, Fibre channel, SAS, SSD.
História do disco rígido




Um antigo disco rígido IBM.O primeiro disco rígido foi construído pela IBM em 1956, e foi lançado em 16 de Setembro de 1957. Era formado por 50 discos magnéticos contendo 50 000 setores, sendo que cada um suportava 100 caracteres alfanuméricos, totalizando uma capacidade de 5 megabytes, incrível para a época. Este primeiro disco rígido foi chamado de 305 RAMAC (Random Access Method of Accounting and Control) e tinha dimensões de 152,4 centímetros de comprimento, 172,72 centimetros de largura e 73,66 centímetros de altura. Em 1973 a IBM lançou o modelo 3340 Winchester, com dois pratos de 30 megabytes e tempo de acesso de 30 milissegundos. Assim criou-se o termo 30/30 Winchester (uma referência à espingarda Winchester 30/30), termo muito usado antigamente para designar HDs de qualquer espécie. Ainda no início da década de 1980, os discos rígidos eram muito caros e modelos de 10 megabytes custavam quase 2 mildólares americanos, enquanto em 2009 compramos modelos de 1.5 terabyte por pouco mais de 100 dólares. Ainda no começo dos anos 80, a mesma IBM fez uso de uma versão pack de discos de 80 megabytes, usado nos sistemas IBM Virtual Machine. Os discos rigidos foram criados originalmente para serem usados em computadores em geral. Mas no século 21 as aplicações para esse tipo de disco foram expandidas e agora são usados em câmeras filmadoras, ou camcorders nos Estados Unidos; tocadores de música como Ipod, mp3 player; PDAs; videogames, e até em celulares. Para exemplos em videogames temos o Xbox360 e o Playstation 3, lançados em 2005 e 2006 respectivamente, com esse diferencial, embora a Microsoft já tivesse lançado seu primeiro Xbox (em 2001) com disco rígido convencional embutido. Já para celular os primeiros a terem esse tecnologia foram os da Nokia e da Samsung. E também devemos lembrar que atualmente o disco rigido não é só interno, existem também os externos, que possibilitam o transporte de grandes quantidades de dados entre computadores sem a necessidade de rede.



Como os dados são gravados e lidos

Os discos magnéticos de um disco rígido são recobertos por uma camada magnética extremamente fina. Na verdade, quanto mais fina for a camada de gravação, maior será sua sensibilidade, e conseqüentemente maior será a densidade de gravação permitida por ela. Poderemos, então, armazenar mais dados num disco do mesmo tamanho, criando HDs de maior capacidade. Os primeiros discos rígidos, assim como os discos usados no início da década de 80, utilizavam a mesma tecnologia de mídia magnética utilizada em disquetes, chamada coated media, que além de permitir uma baixa densidade de gravação, não é muito durável. Os discos atuais já utilizam mídia laminada (plated media), uma mídia mais densa, de qualidade muito superior, que permite a enorme capacidade de armazenamento dos discos modernos. A cabeça de leitura e gravação de um disco rígido funciona como um eletroímã semelhante aos que estudamos nas aulas de ciências e física do colegial, sendo composta de uma bobina de fios que envolve um núcleo de ferro. A diferença é que, num disco rígido, este eletroímã é extremamente pequeno e preciso, a ponto de ser capaz de gravar trilhas medindo menos de um centésimo de milímetro de largura. Quando estão sendo gravados dados no disco, a cabeça utiliza seu campo magnético para organizar as moléculas de óxido de ferro da superfície de gravação, fazendo com que os pólos positivos das moléculas fiquem alinhados com o pólo negativo da cabeça e, conseqüentemente, com que os pólos negativos das moléculas fiquem alinhados com o pólo positivo da cabeça. Usamos, neste caso, a velha lei "os opostos se atraem". Como a cabeça de leitura e gravação do HD é um eletroímã, sua polaridade pode ser alternada constantemente. Com o disco girando continuamente, variando a polaridade da cabeça de gravação, variamos também a direção dos pólos positivos e negativos das moléculas da superfície magnética. De acordo com a direção dos pólos, temos um bit 1 ou 0 (sistema binário).



Para gravar as sequências de bits 1 e 0 que formam os dados, a polaridade da cabeça magnética é mudada alguns milhões de vezes por segundo, sempre seguindo ciclos bem determinados. Cada bit é formado no disco por uma seqüência de várias moléculas. Quanto maior for a densidade do disco, menos moléculas serão usadas para armazenar cada bit, e teremos um sinal magnético mais fraco. Precisamos, então, de uma cabeça magnética mais precisa. Quando é preciso ler os dados gravados, a cabeça de leitura capta o campo magnético gerado pelas moléculas alinhadas. A variação entre os sinais magnéticos positivos e negativos gera uma pequena corrente elétrica que caminha através dos fios da bobina. Quando o sinal chega à placa lógica do HD, ele é interpretado como uma seqüência de bits 1 e 0. Desse jeito, o processo de armazenamento de dados em discos magnéticos parece ser simples, e realmente era nos primeiros discos rígidos (como o 305 RAMAC da IBM), que eram construídos de maneira praticamente artesanal. Apesar de nos discos modernos terem sido incorporados vários aperfeiçoamentos, o processo básico continua sendo o mesmo.


Exemplos de sistema de arquivos

Os sistemas de arquivos mais conhecidos são os utilizados pelo Microsoft Windows: NTFS e FAT32 (e FAT ou FAT16). O FAT32, às vezes referenciado apenas como FAT (erradamente, FAT é usado para FAT16), é uma evolução do ainda mais antigo FAT16 introduzida a partir do MS-DOS 4.0. No Windows 95 ORS/2 foi introduzido o FAT32 (uma versão “debugada” do Windows 95, com algumas melhorias, vendida pela Microsoft apenas em conjunto com computadores novos). A partir do Windows NT, foi introduzido um novo sistema de arquivos, o NTFS, que é mais avançado do que o FAT (em nível de segurança, sacrificando algum desempenho), sendo o recurso de permissões de arquivo (sistemas multi-usuário), a mais notável diferença, inexistente nos sistemas FAT e essencial no ambiente empresarial (e ainda a inclusão do metadata), além dos recursos de criptografia e compactação de arquivos.



Em resumo, versões antigas, mono-usuário, como Windows 95, 98 e ME, trabalham com FAT32 (mais antigamente, FAT16). Já versões novas, multi-usuário, como Windows XP e Windows 2000, trabalham primordialmente com o NTFS, embora o sistema FAT seja suportado e você possa criar uma partição FAT nessas versões. No mundo Linux, há uma grande variedade de sistemas de arquivos, sendo alguns dos mais comuns o Ext2, Ext3 e o ReiserFS. O FAT e o NTFS também são suportados tanto para leitura quanto para escrita. No Mundo BSD, o sistema de arquivos é denominado FFS (Fast File System), derivado do antigo UFS (Unix File System). Em 2009, encontramos um novo tipo de sistema de arquivo chamado NFS (Network File System), o qual possibilita que HDs Virtuais sejam utilizadas remotamente, ou seja, um servidor disponibiliza espaço através de suas HDs físicas para que outras pessoas utilizem-nas remotamente como se ela estivesse disponível localmente. Um grande exemplo desse sistema encontramos no Google ou no 4shared, com espaços disponíveis de até 5 GB.



Setor de boot

Quando o computador é ligado, o POST (Power-on Self Test), um pequeno programa gravado em um chip de memória ROM na placa-mãe, que tem a função de “dar a partida”, tentará inicializar o sistema operacional. Independentemente de qual sistema de arquivos se esteja usando, o primeiro setor do disco rígido será reservado para armazenar informações sobre a localização do sistema operacional, que permitem ao BIOS "achá-lo" e iniciar seu carregamento.



No setor de boot é registrado onde o sistema operacional está instalado, com qual sistema de arquivos o disco foi formatado e quais arquivos devem ser lidos para inicializar o computador. Um setor é a menor divisão física do disco, e possui na grande maioria das vezes 512 Bytes (nos CD-ROMs e derivados é de 2048 Bytes). Um cluster, também chamado de agrupamento, é a menor parte reconhecida pelo sistema operacional, e pode ser formado por vários setores. Um arquivo com um número de bytes maior que o tamanho do cluster, ao ser gravado no disco, é distribuído em vários clusters. Porém, um cluster não pode pertencer a mais de um arquivo. Um único setor de 512 Bytes pode parecer pouco, mas é suficiente para armazenar o registro de boot devido ao seu pequeno tamanho. O setor de boot também é conhecido como "trilha MBR", "trilha 0' etc. Como dito, no disco rígido existe um setor chamado Trilha 0, e nele está gravado o (MBR) (Master Boot Record), que significa "Registro de Inicialização Mestre", um estilo de formatação, onde são encontradas informações sobre como está dividido o disco (no sentido lógico)e sobre a ID de cada tabela de partição do disco, que dará o boot. O MBR é lido pelo BIOS, que interpreta a informação e em seguida ocorre o chamado "bootstrap", "levantar-se pelo cadarço", lê as informações de como funciona o sistema de arquivos e efetua o carregamento do sistema operacional. O MBR e a ID da tabela de partição ocupam apenas um setor de uma trilha, o restante dos setores desta trilha não são ocupados, permanecendo vazios, servindo como área de proteção do MBR. É nesta mesma área que alguns vírus (Vírus de Boot) se alojam.



Disquetes, Zip-disks e CD-ROMs não possuem MBR; no entanto, possuem tabela de partição, no caso do CD-ROMs e seu descendentes (DVD-ROM, HDDVD-ROM, BD-ROM...) possuem tabela própria, podendo ser CDFS (Compact Disc File System) ou UDF (Universal Disc Format) ou, para maior compatibilidade, os dois; já os cartões de memória Flash e Pen-Drives possuem tabela de partição e podem ter até mesmo MBR, dependendo de como formatados. O MBR situa-se no primeiro setor da primeira trilha do primeiro prato do HD (setor um, trilha zero, face zero, prato zero). O MBR é constituído pelo bootstrap e pela tabela de partição. O bootstrap é o responsável por analisar a tabela de partição em busca da partição ativa. Em seguida, ele carrega na memória o Setor de Boot da partição. Esta é a função do bootstrap.



A tabela de partição contém informações sobre as partições existentes no disco. São informações como o tamanho da partição, em qual trilha/setor/cilindro ela começa e termina, qual o sistema de arquivos da partição, se é a partição ativa; ao todo, são dez campos. Quatro campos para cada partição possível (por isso, só se pode ter 4 partições primárias, e é por isso também que foi-se criada a partição estendida...), e dez campos para identificar cada partição existente. Quando acaba o POST, a instrução INT 19 do BIOS lê o MBR e o carrega na memória, e é executado o bootstrap. O bootstrap vasculha a tabela de partição em busca da partição ativa, e em seguida carrega na memória o Setor de Boot dela. A função do Setor de Boot é a de carregar na memória os arquivos de inicialização do sistema operacional. O Setor de Boot fica situado no primeiro setor da partição ativa.



Capacidade do disco rígido

A capacidade de um disco rígido atualmente disponível no mercado para uso doméstico/comercial varia de 10 a 2000 GB, assim como aqueles disponíveis para empresas, de até 2 TB. O HD evoluiu muito. O mais antigo possuía 5 MB (aproximadamente 4 disquetes de 3 1/2 HD), sendo aumentada para 30 MB, em seguida para 500 MB (20 anos atrás), e 10 anos mais tarde, HDs de 1 a 3 GB. Em seguida lançou-se um HD de 10 GB e posteriormente um de 15 GB. Posteriormente, foi lançado no mercado um de 20 GB, até os atuais HDs de 60GB a 1TB. As empresas usam maiores ainda: variam de 40 GB até 2 TB, mas a Seagate informou que em 2010 irá lançar um HD de 200 TB (sendo 50 TB por polegada quadrada, contra 70 GB dos atuais HDs) {Fonte:http://www.inovadorsite. cjb. net}.



No entanto, as indústrias consideram 1 GB = 1000 * 1000 * 1000 bytes, pois no Sistema Internacional de Unidades(SI), que trabalha com potências de dez, o prefixo giga quer dizer * 10003 ou * 109 (bilhões), enquanto os sistemas operacionais consideram 1 GB = 1024 * 1024 * 1024 bytes, já que os computadores trabalham com potências de dois e 1024 é a potência de dois mais próxima de mil. Isto causa uma certa disparidade entre o tamanho informado na compra do HD e o tamanho considerado pelo Sistema Operacional, conforme mostrado na tabela abaixo. Além disso, outro fator que pode deixar a capacidade do disco menor do que o anunciado é a formatação de baixo nível (formatação física) com que o disco sai de fábrica.



Informado na Compra Considerado pelo Sistema

10 GB 9,31 GB

15 GB 13,97 GB

20 GB 18,63 GB

30 GB 27,94 GB

40 GB 37,25 GB

80 GB 74,53 GB

120 GB 111,76 GB

160 GB 149,01 GB

200 GB 186,26 GB

250 GB 232,83 GB

300 GB 279,40 GB

500 GB 465,66 GB

750 GB 698,49 GB

1 TB 931,32 GB

1.5 TB 1.396,98 GB

2 TB 1.862,64 GB

2.5 TB (2010)[3] 2.328,30 GB



Todos os valores acimas são aproximações



Toda a vez que um HD é formatado, uma pequena quantidade de espaço é marcada como utilizada.

quarta-feira, 28 de abril de 2010

Memória RAM


Diferentes tipos de RAM. A partir do alto: DIP, SIPP, SIMM 30 pin, SIMM 72 pin, DIMM (168-pin), DDR DIMM (184-pin)Memória de acesso aleatório (do inglês Random Access Memory, frequentemente abreviado para RAM) é um tipo de memória que permite a leitura e a escrita, utilizada como memória primária em sistemas eletrônicos digitais.



O termo acesso aleatório identifica a capacidade de acesso a qualquer posição em qualquer momento, por oposição ao acesso sequencial, imposto por alguns dispositivos de armazenamento, como fitas magnéticas.



O nome não é verdadeiramente apropriado, já que outros tipos de memória (como a ROM) também permitem o acesso aleatório a seu conteúdo. O nome mais apropriado seria Memória de Leitura e Escrita.



Apesar do conceito de memória de acesso aleatório ser bastante amplo, atualmente o termo é usado apenas para definir um dispositivo eletrônico que o implementa, basicamente um tipo específico de chip. Nesse caso, também fica implícito que é uma memória volátil, isto é, todo o seu conteúdo é perdido quando a alimentação da memória é desligada.



Algumas memórias RAM necessitam que os seus dados sejam frequentemente refrescados (atualizados), podendo então ser designadas por DRAM (Dynamic RAM) ou RAM Dinâmica. Por oposição, aquelas que não necessitam de refrescamento são normalmente designadas por SRAM (Static RAM) ou RAM Estática.



Do ponto de vista da sua forma física, uma RAM pode ser constituída por um circuito integrado DIP ou por um módulo SIMM, DIMM, SO-DIMM, etc. Para computadores pessoais elas são normalmente adquiridas em módulos de memória (popularmente conhecido como pente, pelo fato de que seus contatos se parecem com os dentes de um pente de cabelo), que são placas de circuito impresso que já contém várias memórias já montadas e configuradas de acordo com a arquitetura usada na máquina.



A capacidade de uma memória é medida em Bytes, kilobytes (1 KB = 1024 ou 210 Bytes), megabytes (1 MB = 1024 KB ou 220 Bytes) ou gigabytes (1 GB = 1024 MB ou 230 Bytes).



A velocidade de funcionamento de uma memória é medida em Hz ou MHz. Este valor está relacionado com a quantidade de blocos de dados que podem ser transferidos durante um segundo. Existem no entanto algumas memórias RAM que podem efetuar duas transferências de dados no mesmo ciclo de clock, duplicando a taxa de transferência de informação para a mesma frequência de trabalho. Além disso, a colocação das memórias em paralelo (propriedade da arquitetura de certos sistemas) permite multiplicar a velocidade aparente da memória.



A memória principal de um computador baseado na Arquitetura de Von-Neumann é constituída por RAM. É nesta memória que são carregados os programas em execução e os respectivos dados do utilizador. Uma vez que se trata de memória volátil, os seus dados são perdidos quando o computador é desligado. Para evitar perdas de dados, é necessário salvar a informação para suporte não volátil (por ex. disco rígido), ou memória secundária.



Há também quem diga que uma memória volátil pode ser "burlada" ou "congelada" com hidrogênio liquido, ou seja, mesmo a memória sendo desligada, ela não perderia seus dados.



Invenção

O Escritório de Patentes americano forneceu a patente 3,387,286, "Field Effect Transistor Memory", de 4 de julho de 1968, para Robert Langdon, da IBM, por uma célula DRAM de um transistor (1 bit).


DRAM

SRAM

SIMM

DIMM

SO-DIMM

SDR SDRAM

DDR SDRAM

DDR2

DDR3

Memória ROM

Memória cache

Memória flash

GDDR

Memória bolha

RAM-CMOS

terça-feira, 27 de abril de 2010

Microprocessador

O microprocessador, popularmente chamado de processador, é um circuito integrado que realiza as funções de cálculo e tomada de decisão de um computador. Todos os computadores e equipamentos eletrônicos baseiam-se nele para executar suas funções.






Arquitetura interna de um microprocessador dedicado para processamento de imagens de ressonância magnética, a fotografia foi aumentada 600 vezes, sob luz ultravioleta para se enxergar os detalhes

Vista inferior de um Athlon XP 1800+ núcleo Palomino, um microprocessador moderno.O microprocessador moderno é um circuito integrado formado por uma camada chamada de mesa epitaxial de silício, trabalhada de modo a formar um cristal de extrema pureza, laminada até uma espessura mínima com grande precisão, depois cuidadosamente mascarada por um processo fotográfico e dopada pela exposição a altas temperaturas em fornos que contêm misturas gasosas de impurezas. Este processo é repetido tantas vezes quanto necessário à formação da microarquitetura do componente.



Responsável pela execução das instruções num sistema, o microprocessador, escolhido entre os disponíveis no mercado, determina, em certa medida a capacidade de processamento do computador e também o conjunto primário de instruções que ele compreende. O sistema operativo é construído sobre este conjunto.



O próprio microprocessador subdivide-se em várias unidades, trabalhando em altas freqüências. A ULA(Unidade Lógica Aritmética), unidade responsável pelos cálculos aritméticos e lógicos e os registradores são parte integrante do microprocessador na família x86, por exemplo.



Embora seja a essência do computador, o microprocessador diferente do microcontrolador, está longe de ser um computador completo. Para que possa interagir com o utilizador precisa de: memória, dispositivos de entrada/saída, um clock, controladores e conversores de sinais, entre outros. Cada um desses circuitos de apoio interage de modo peculiar com os programas e, dessa forma, ajuda a moldar o funcionamento do computador.

História




Intel 8008, um dos primeiros microprocessadores comerciais.O primeiro microprocessador comercial foi inventado pela Intel em 1971 para atender uma empresa japonesa que precisava de um circuito integrado especial.[1] A Intel projectou o 4004 que era um circuito integrado programável que trabalhava com registradores de 4 bits, 46 instruções, clock de 740Khz e possuía cerca de 2300 transistores. Percebendo a utilidade desse invento a Intel prosseguiu com o desenvolvimento de novos microprocessadores: 8008 (o primeiro de 8 bits) e a seguir o 8080 e o microprocessador 8085. O 8080 foi um grande sucesso e tornou-se a base para os primeiros microcomputadores pessoais na década de 1970 graças ao sistema operacional CP/M. Da Intel saíram alguns funcionários que fundaram a Zilog, que viria a lançar o microprocessador Z80, com instruções compatíveis com o 8080 (embora muito mais poderoso que este) e também de grande sucesso. A Motorola possuía o 68000 e a MOS Technology o 6502. Todos esses microprocessadores de 8 bits foram usados em muitos computadores pessoais (Bob Sinclair, Apple, TRS, Commodore, etc). Em 1981 a IBM decidiu lançar-se no mercado de computadores pessoais e no seu IBM-PC utilizou um dos primeiros microprocessadores de 16 bits, o 8088 (derivado do seu irmão 8086 lançado em 1978) que viria a ser o avô dos computadores atuais. A Apple nos seus computadores Macintosh utilizava os processadores da Motorola, a família 68000 (de 32 bits). Outros fabricantes também tinham os seus microprocessadores de 16 bits, a Zilog tinha o Z8000, a Texas Instruments o TMS9900, a National Semiconductor tinha o 16032,mas nenhum fabricante teve tanto sucesso como a Intel, que sucessivamente foi lançando melhoramentos na sua linha 80X86, tendo surgido assim (por ordem cronológica) o 8086, 8088, 80186, 80188, 80286, 80386, 80486, Pentium, Pentium Pro, Pentium MMX, Pentium II, Pentium III, Pentium IV, Pentium M, Pentium D e Pentium Dual Core. Para o IBM-AT foi utilizado o 80286, depois um grande salto com o 80386 que podia trabalhar com memória virtual e multitarefa, o 80486 com coprocessador matemático embutido e finalmente a linha Pentium, com pipeline de processamento. Como grande concorrente da Intel, a AMD aparece inicialmente como fabricante de microprocessadores da linha x86 alternativa mas a partir de um certo momento deixou de correr atrás da Intel e partiu para o desenvolvimento de sua própria linha de microprocessadores: K6, Athlon, Duron, Turion, Sempron, etc. Paralelamente à disputa entre Intel e AMD, a IBM possuia a linha PowerPC utilizada principalmente pelos microcomputadores da Apple.



A evolução tecnológica envolvida é surpreendentemente grande, de microprocessadores que trabalhavam com clock de dezenas de kHz e que podiam processar alguns milhares de instruções por segundo, atingiu-se clocks na casa dos 4 GHz e poder de processamento de dezenas de bilhões de instruções por segundo. A complexidade também cresceu: de alguns milhares de transístores para centenas de milhões de transístores numa mesma pastilha.



O CPU tem como função principal unificar todo o sistema, controlar as funções realizadas por cada unidade funcional, e é também responsável pela execução de todos os programas do sistema, que deverão estar armazenados na memória principal.



Componentes

O processador é composto por alguns componentes, cada um tendo uma função específica no processamento dos programas.



Unidade lógica e aritmética


A Unidade lógica e aritmética (ULA) é a responsável por executar efetivamente as instruções dos programas, como instruções lógicas, matemáticas, desvio, etc.



Unidade de controle


A Unidade de controle (UC) é responsável pela tarefa de controle das ações a serem realizadas pelo computador, comandando todos os outros componentes.



Registradores


Os registradores são pequenas memórias velozes que armazenam comandos ou valores que são utilizados no controle e processamento de cada instrução. Os registradores mais importantes são:



Contador de Programa (PC) – Sinaliza para a próxima instrução a ser executada;

Registrador de Instrução (IR) – Registra a execução da instrução;

Memory management unit

Ver artigo principal: Memory management unit

A MMU (em inglês: Memory Management Unit) é um dispositivo de hardware que transforma endereços virtuais em endereços físicos e administra a memória principal do computador.



Unidade de ponto flutuante

Nos processadores atuais são implementadas unidades de cálculo de números reais. Tais unidades são mais complexas que ULAs e trabalham com operandos maiores, com tamanhos típicos variando entre 64 e 128 bits.



Frequência de operação

O relógio do sistema (Clock) é um circuito oscilador a cristal (efeito piezoelétrico) que tem a função de sincronizar e ditar a medida de tempo de transferência de dados no computador. Esta freqüência é medida em ciclos por segundo, ou Hertz. A capacidade de processamento do processador não está relacionada exclusivamente à frequência do relógio, mas também a outros fatores como: largura dos barramentos, quantidade de memória cache, arquitetura do processador, tecnologia de co-processamento, tecnologia de previsão de saltos (branch prediction), tecnologia de pipeline, conjunto de instruções, etc.



O aumento da frequência de operação nominal do processador é denominado overclocking.



Arquitetura

Existem duas principais arquiteturas usadas em processadores:



A arquitetura de Von Newmann. Esta arquitetura caracteriza-se por apresentar um barramento externo compartilhado entre dados e endereços. Embora apresente baixo custo, esta arquitetura apresenta desempenho limitado pelo gargalo do barramento.

A arquitetura de Harvard. Nesta arquitetura existem dois barramentos externos independentes (e normalmente também memórias independentes) para dados e endereços. Isto reduz de forma sensível o gargalo de barramento, que é uma das principais barreiras de desempenho, em detrimento do encarecimento do sistema como um todo.

Modelos de computação

Existem dois modelos de computação usados em processadores:



CISC (em inglês: Complex Instruction Set Computing, Computador com um Conjunto Complexo de Instruções), usada em processadores Intel e AMD; possui um grande conjunto de instruções (tipicamente centenas) que são armazenadas em uma pequena memória não-volátil interna ao processador. Cada posição desta memória contém as microinstruções, ou seja, os passos a serem realizados para a execução de cada instrução. Quanto mais complexa a instrução, mais microinstruções ela possuirá e mais tempo levará para ser executada. Ao conjunto de todas as microinstruções contidas no processador denominamos microcódigo. Esta técnica de computação baseada em microcódigo é denominada microprogramação.

RISC (em inglês: Reduced Instruction Set Computing, Computador com um Conjunto Reduzido de Instruções) usada em processadores PowerPC (da Apple, Motorola e IBM) e SPARC (SUN); possui um conjunto pequeno de instruções (tipicamente algumas dezenas) implementadas diretamente em hardware. Nesta técnica não é necessário realizar a leitura em uma memória e, por isso, a execução das instruções é muito rápida (normalmente um ciclo de clock por instrução). Por outro lado, as instruções são muito simples e para a realização de certas tarefas são necessárias mais instruções que no modelo CISC.

Exemplos de microprocessadores

Uma GPU.Microprocessadores — São utilizados nos computadores pessoais, onde são chamadas de Unidade Central de Processamento (CPU), workstations e mainframes. Podem ser programados para executar as mais variadas tarefas.

Processadores Digitais de Sinal (DSP do inglês Digital Signal Processor) — são microprocessadores especializados em processamento digital de sinal usados para processar sinais de áudio, vídeo, etc., quer em tempo real quer em off-line. Estão presentes, por exemplo, em aparelhos de CD, DVD e televisores digitais. Em geral, realizam sempre uma mesma tarefas simples.

Microcontroladores — Processadores relativamente flexíveis, de relativo baixo custo, que podem ser utilizados em projetos de pequeno tamanho. Podem trazer facilidades como conversores A/D embutidos, ou um conjunto de instruções próprias para comunicação digital através de algum protocolo específico.

GPU — (ou Unidade de Processamento Gráfico), é um microprocessador especializado em processar gráficos. São utilizadas em placas de vídeo para fazer computação gráfica.

Propósito geral e dedicado

Durante o processo de desenvolvimento do design de um processador, uma das características que se leva em conta é o uso que ele se destina. Processadores gráficos e controladoras por exemplo não tem o mesmo fim que um processador central. Processadores de propósito geral podem executar qualquer tipo de software, embora sua execução seja mais lenta que o mesmo sendo executado em um processador especializado. Processadores dedicados são fabricados para executarem tarefas específicas, como criptografia, processamento vetorial e gráfico, sendo nesse caso bem mais rápidos do que processadores de propósito geral em tarefas equivalentes. No caso do processamento gráfico, existem as GPUs, que são microprocessadores geralmente com memória dedicada e especialmente desenvolvidos para cálculos gráficos. Nem sempre os processadores seguem definidamente esses dois modelos, sendo o motivo disso que muitos processadores modernos incorporam processadores especializados (co-processador), para cálculos de criptografia, processamento de vetores, etc.



Processadores multinucleares



Até os dias de hoje usou-se microprocessadores para atividades domésticas ou de negócios com simples núcleo. Atualmente estão sendo utilizados microprocessadores de múltiplos núcleos para melhorar a capacidade de processamento. Espera-se que no futuro os Sistemas Operacionais domésticos sejam compilados para trabalhar com processadores de múltiplos núcleos corretamente, realizando assim inúmeras tarefas ao mesmo tempo (como já acontece com os supercomputadores).



Sistemas multiprocessados


Em muitos sistemas o uso de um só processador é insuficiente. A solução nesses casos é usar dois ou mais processadores em multi processamento, aumentando assim a quantidade de processadores disponíveis ao sistema operacional. Sistemas multiprocessados podem ser de basicamente dois tipos:



Multiprocessamento simétrico (SMP): os processadores compartilham a mesma memória, embora possam ter caches separadas. O sistema operacional deve estar preparado para trabalhar com coerência de caches e, principalmente, evitar condições de corrida na memória principal.

Acesso não uniforme à memória (NUMA): a cada processador é associado um banco de memória. Nesse caso, o sistema operacional trata cada banco separadamente, pois cada banco tem um custo de acesso diferente, dependendo de qual o processador a que está associado e onde está sendo executado o processo que tenta acessar a memória.

Capacidade de processamento

A capacidade de processamento de um microprocessador é de certa forma difícil de medir, uma vez que esse desempenho pode se referir a quantidade máxima teória de instruções que podem ser executadas por segundo, que tipos de instruções são essas, tendo também a influência de sua arquitetura e de sua comunicação externa, mas num contexto geral a capacidade máxima teórica de processamento é medida em Flops (instruções de ponto flutuante), podendo essa ser de precisão simples, dupla, quádrupla, dependendo do contexto, e em MIPS (milhões de instruções por segundo), sendo essas operações com números inteiros. Somente a capacidade máxima teórica de um microprocessador não define seu desempenho, somente dá uma noção da sua capacidade, uma vez que sua arquitetura, barramento com a memória entre outros também influenciam no seu desempenho final, sendo assim, sua capacidade de processamento é medida comparando a velocidade de execução de aplicativos reais, podendo assim, testar seu desempenho em atividades comuns.

domingo, 25 de abril de 2010

Twitter

Twitter (pronuncia-se "tuíter") é uma rede social e servidor para microblogging que permite aos usuários que enviem e recebam atualizações pessoais de outros contatos (em textos de até 140 caracteres, conhecidos como "tweets"), através do website do serviço, por SMS e por softwares específicos de gerenciamento.

As atualizações são exibidas no perfil de um usuário em tempo real e também enviadas a outros usuários seguidores que tenham assinado para recebê-las. As atualizações de um perfil ocorrem através por meio de site do Twitter, por RSS, por SMS ou programa especializado para gerenciamento. O serviço é gratuito pela internet, entretanto, usando o recurso de SMS pode ocorrer a cobrança pela operadora telefônica.

Desde sua criação em 2006 por Jack Dorsey, o Twitter ganhou extensa notabilidade e popularidade por todo mundo. Algumas vezes é descrito como o "SMS da Internet".[1]

Estimativas de usuários
A estimativa do número de usuários é baseada em pesquisas independentes já que a empresa não informa oficialmente número de contas ativas. Em novembro de 2008, Jeremiah Owyang estimou que o Twitter possuia entre 4 a 5 milhões de usuários.[2] Já em maio de 2009, outro estudo analisou mais de 11 milhões e meio de contas de usuários.[3]

Em Fevereiro de 2009 o blog "Compete.com" elegeu o Twitter em terceiro lugar como rede social mais usada (Facebook em primeiro lugar, seguido do MySpace).[4]

[editar] Serviços semelhantes
Devido ao sucesso do Twitter, um grande número de serviços semelhantes foram lançados. Alguns são disponibilizados em países específicos, outros unem outras funções, como a partilha de arquivos que era oferecido pelo Pownce.

Um estudo da Universidade de Harvard concluiu que apenas 10% dos usuários produzem 90% do conteúdo.[5]

Em janeiro de 2010 foi realizada a primeira conexão e acesso pessoal à Internet de origem espacial, utilizando o Twitter.[6] O astronauta Timothy Creamer, escreveu "Hello Twitterverse" no serviço de microblogging,[6] através do endereço do Twitter http://twitter.com/astro_tj.[7]

Segundo o grupo de pesquisa norte-americano Web Ecology, a língua portuguesa é a segunda mais utilizada pelo Twitter.[8] Enquanto o estudo da Semiocast mostra que a Língua portuguesa é a terceira mais utilizada, atrás do Inglês e do Japonês. [9] [10]

Índice [esconder]
1 Estimativas de usuários
2 Serviços semelhantes
3 Retweet
4 Usos e manifestações sociais
5 Publicidade
6 Perfil do usuário brasileiro
7 Twitter List
8 Trending Topics
9 Controvérsias
9.1 Críticas ao Twitter
9.2 Invasão de Hackers
9.3 Casos de suicídios
10 Ver também
11 Referências
12 Ligações externas


Retweet
O retweet é uma função do Twitter que consiste em replicar uma determinada mensagem de um usuário para a lista de seguidores, dando crédito a seu autor original.[11][12] Na página de início do site existe um botão chamado retwittear, que faz o envio automático da mensagem para todos seguidores da pessoa. Antigamente, os usuários realizavam isto de forma manual, acrescentando um RT ao lado do @nick de quem escreveu.

Usos e manifestações sociais
Em Março de 2009, o Twitter foi uma das principais ferramentas de divulgação do Pillow Fight Day - uma guerra pública de travesseiros acontecida em várias cidades do mundo. São Paulo, Brasília, Santos, Fortaleza, Araraquara, Belém, Belo Horizonte, Bragança Paulista, Campo Grande, Curitiba, Florianópolis, Goiânia, Guarulhos, Manaus, Natal, Porto Alegre, Rio de Janeiro, Recife, Ribeirão Preto, Salvador, Santa Maria, São João Del Rei, São Luís, Sorocaba, Uberlândia e Vitória foram algumas cidades brasileiras em que houve a manifestação.

Se destacou na mídia o uso do Twitter durante as manifestações políticas ocorridas na Moldávia em reação ao resultado das eleições legislativas no ínicio de 2009. A ferramenta também esteve presente no debate político e na movimentação da oposição durante as eleições presidenciais no Irã em 2009. Durante o Apagão elétrico de 2009, as primeiras informações das regiões atingidas pelo blecaute foi fornecida através dos usuários do Twitter, através de postagens via celular, e lida por emissoras de rádio que faziam plantão naquele momento.

Publicidade
O Twitter também tem sido constantemente utilizado por grandes empresas para a divulgação de suas marcas, através de constantes atualizações, sempre ligando o "consumidor" a uma página onde possa encontrar mais informações sobre o serviço ou produto oferecido. Além disso, o Twitter tem se mostrado um ótimo instrumento para o fortalecimento das marcas no ambiente virtual, pois agrega seguidores que recebem as atualizações enviadas pelas empresas, porém ainda é uma ferramenta que deve ser melhor explorada para esse fim.

No artigo publicado em 14 de abril de 2009, no The New York Times, a jornalista Claire Cain Miller afirmou que a utilidade mais produtiva do Twitter tem sido para aquelas empresas que desejam ouvir os clientes e oferecer reações imediatas às opiniões deles. A Dell, por exemplo, percebeu que os clientes estavam reclamando de que o apóstrofo e as teclas de retorno estavam próximas demais no laptop Dell Mini 9. O problema foi reparado. Na Starbucks, os clientes costumavam reclamar deixando notas em uma caixa de sugestões. Agora, eles podem também enviar a reclamações ou sugestões via Twitter.

No Brasil, o destaque da mídia para ações publicitárias no Twitter tem sido para a venda de um apartamento realizada pela construtora Tecnisa. O perfil da empresa no Twitter foi criado em 20 de Fevereiro de 2008, mas, somente em 13 de Julho de 2008, começou a ser utilizado para uma divulgação. Tratava-se do lançamento do Acquaplay, em Santos.

Em 23 de Fevereiro de 2009, Romeo Bussarello, diretor de marketing da empresa chegou a afirmar: "usamos para comunicar lançamentos e novidades (…) Tenho consciência de que não vou vender um apartamento via Twitter." Porém, cerca de 4 meses depois, a construtora concluiu a primeira venda por meio do Twitter. A promoção realizada na rede social oferecia R$2.000,00 em vale-compras, além de armários e cozinhas planejados, somente para as compras geradas por meio desta forma de contacto. A oferta levou o consumidor a efetivar a compra de uma unidade de três suítes no empreendimento Verana, localizado no Alto da Lapa, em São Paulo, ao custo de R$ 500 mil. "Provavelmente este é o produto mais caro vendido pelo Twitter no mundo. E, com certeza, é a primeira venda concretizada por uma empresa do segmento da construção civil, utilizando redes sociais. Esta conquista inédita fortalece nossa estratégia de divulgação on-line dos imóveis. Afinal, conseguimos um excelente resultado com um baixo investimento", afirmou Busarello.

O Google e a Microsoft entraram em um acordo com o Twitter para que os tweets postados diariamente pelos milhões de usuários da rede social, apareçam nos resultados dos buscadores, tanto do Google, quanto da Microsoft, no caso o Bing. O Google está pagando US$ 15 milhões e a Microsoft US$ 10 milhões e serão os primeiros a fazer experiências com os dados coletados.[13] O Yahoo também pode vir a fazer parte desse acordo.[14]

Perfil do usuário brasileiro
De acordo com uma pesquisa realizada pela agência Bullet, a maioria (61%) dos usuários do Twitter no Brasil é composta por homens na faixa de 21 a 30 anos, solteiros, localizados nos estados São Paulo e Rio de Janeiro. Na maior parte, são pessoas com ensino superior completo e renda mensal compreendida entre R$ 1001 e R$ 5000.

Ainda segundo a pesquisa, esse público gasta cerca de 50h semanais conectados à Internet. Cerca de 60% dele é considerado formadores de opinião: possuem um blog; conhecem a ferramenta através de amigos ou posts em outros blogs.

Sobre o uso da ferramenta por empresas, a pesquisa informa um cenário muito favorável. A maioria (51%) dos usuários consultados disseram achar interessantes os perfis corporativos, desde que sejam utilizados com relevância. Aproximadamente 50% dos usuários nunca participaram de ações promocionais. Ainda assim, consideram uma experiência interessante. Cerca de 30% já participaram de alguma ação publicitária e 70% seguem ou já seguiram algum perfil corporativo.

Na pesquisa, foram consultados 3268 brasileiros por meio do site da Bullet e o Migre.me, no período de 27 a 29 de abril de 2009.

Twitter List
Twitter List é um recurso disponível no Twitter que permite ao usuário criar listas compartilháveis de usuários. O que dinamiza a leitura dos tweets já que se torna possível ler o conteúdo postado por grupos de seguidores.

Trending Topics
Os Trending Topics ou TTs são uma lista em tempo real dos nomes mais postados no Twitter pelo mundo todo. Valem para essa lista as tagtemas (#) e nomes próprios. A lista não é aberta, isso significa que o usuário deve estar logado para ter acesso.

A iniciativa é semelhante ao Google Trends, mas por ter o nome diferenciado, a terminologia acabou sendo associada diretamente ao Twitter.

Os Trending Topics ganharam tanta força que são comentados frequentemente pelos usuários como TT e mobilizam correntes para colocar um tema na lista e ter exposição mundial.

Desde o dia 26 de janeiro o usuário tem a opção de escolher a região que os Trending Topics irão mostrar. As áreas são atualmente restritas a esses países:

Worldwide (mundo inteiro)
Brasil
Canadá
Irlanda
México
Reino Unido
Estados Unidos
Também está disponível a possibilidade de restringir por cidades. Atualmente disponíveis as seguintes cidades:

Atlanta
Baltimore
Boston
Chicago
Dallas-Ft. Worth
Houston
Londres
Los Angeles
Nova Iorque
Filadélfia
San Antonio
San Francisco
Seattle
São Paulo
Washington, D.C.
O recurso de Trending Topics usa por padrão a abrangência total (worldwide). Como os TTs são calculados a partir de todos os tweets do mundo, estão mais relacionados aos EUA e Inglaterra que são as maiores comunidades. Em alguns países onde o Twitter ainda não disponibizou serviços estatísticos existem websites não oficiais. No Brasil, por exemplo, o website Blablabra [15] permite a visualização de vários dados.

Controvérsias
Críticas ao Twitter
Algumas empresas mundiais estão proibindo o uso do Twitter, pois a limitação de 140 caracteres é supostamente prejudicial para um jornalismo e qualidade.[16] Alem disso, o escritor, roteirista, jornalista, dramaturgo e vencedor de um prêmio Nobel de Literatura, José Saramago fez uma dura crítica ao Twitter dizendo: "Os tais 140 caracteres reflectem algo que já conhecíamos: a tendência para o monossílabo como forma de comunicação. De degrau em degrau, vamos descendo até o grunhido. Entretanto, o propósito do Twitter não é literário, mas informativo."[17]

Invasão de Hackers
Em agosto de 2009, o Twitter foi alvo do primeiro ataque dos hackers. Quem tentava acessar ou logar no site, encontrou o site pichado pelos hackers, que ficou por duas horas até sair do ar.

Na madrugada do dia 18 de dezembro de 2009, o Twitter foi invadido por Hackers. Ao clicar no Twitter, usuário era redirecionado para página com aviso de grupo chamado "Exército Cibernético do Irã". O site saiu do ar por cerca de uma hora, informa o portal da rede de TV norte-americana CNN. Em seu blog oficial, o Twitter disse que "os registros DNS (sigla em inglês para Sistema de Nomes de Domínios, que é um mecanismo que traduz o nome dos sites nos números que identificam as páginas) ficaram temporariamente comprometidos, mas agora foram consertados". A rede social não deu mais detalhes sobre o assunto.[18]

Coincidência ou não o caso do Irã com twitter é antigo. O Governo do Irã foi envolvido do caso, pois em junho de 2009, através do twitter, ocorreram manifestantes contra a a reeleição de Mahmud Ahmadnejad, por conta das graves denúnicas de fraude eleitoral, provocando, inúmeras reações negativas internas e externas. O twitter foi bloqueado diversas vezes no país.

Em 25 de março de 2010, a Polícia anunciou a prisão no centro da França, o "Hacker-croll", um pirata virtual que roubou as senhas de vários famosos no Twitter, entre eles, o grupo musical britânico Duran Duran, o "presidente de uma grande empresa pública francesa" e o atual presidente dos Estados Unidos, Barack Obama. O jovem de 25 anos foi detido após uma investigação conjunta entre autoridades da França e dos Estados Unidos, diz o jornal Le Parisien. A prisão do jovem só foi falicitada, após criar blog no qual narrava o sucesso das invasões, não só no Twitter, mas também em outras redes sociais como o Facebook e em contas pessoais de e-mail.[19]

Casos de suicídios
Em agosto de 2009, a publicitária brasileira de descedência japonesa Marisa Toma, mais conhecida como Ematoma, de 33 anos foi encontrada morta dentro do apartamento onde morava na cidade de São Paulo. Segundo investigações, Marisa Toma cometeu suicídio, ao golpear faca no peito no apartamento na cidade de São Paulo. Antes de se matar, deixou recado suicida no twitter que recebe nome ematoma,[20] que já saiu do ar. Não deixou recado os motivos pelo suicídio, mas nas últimas semanas, ela estava deprimida. Era proprietária do site Objetos de Desejo.[21]

No dia 11 de fevereiro de 2010, o famoso estilista britânico, que assumiu a homosexualidade, Alexander McQueen, foi encontrado morto enforcado na residência em Londres. Segundo legistas, a morte ocorreu na véspera, no dia 10 de fevereiro. Uma semana antes, dia 2 de fevereiro, a mãe do estilista, JOyce McQueen, morreu e avisou no dia seguinte através do twitter: “Estou avisando todos os meus seguidores que minha mãe morreu ontem, e que se ela não tivesse dado a luz, vocês também não me teriam. Descanse em paz”, seguido de “Mas a vida deve seguir em frente !!!!!!!!!!!!!!!”.[22] Desde então, nunca conseguiu superar a perda da mãe e entrou em depressão. No dia 7 de fevereiro, postou no twitter: "noite de domingo, tem sido uma semana terrível, mas meus amigos têm sido ótimos, agora preciso de alguma forma me recompor." Desde então não saiu da residência e se matou três dias depois.[23] Após o anúncio da morte, o perfil do estilista do twitter foi retirado do ar no mesmo dia.

sábado, 24 de abril de 2010

Técnico em Informática

Técnico em Informática é o profissional que está apto a realizar configurações de sistemas, a instalar equipamentos e a verificar as causas de falhas na programação de computadores. Esse profissional pode trabalhar em empresas do ramo ou prestar atendimento por conta própria.

O Técnico em Informática deve ser um profissional atualizado, cooperativo, comunicativo, ético e confiante, que atue de forma responsável, participativa e empreendedora no desenvolvimento de atividades tecnológicas ligadas à informática. Deve também apresentar facilidade de adaptação e estar sempre aberto a mudanças, visando alavancar projetos e ações inovadoras para a solução de problemas apresentados nos diversos segmentos da área.

Existem diversos segmentos dentro da área, e o Técnico em Informática pode trabalhar com:

Manutenção de Computador
Criação de sites (Web Design)
Webmaster
Computação Gráfica
Monitor de Informática
Operador de Computador
Administrador de Redes
Programador
Formação do Profissional Técnico em Informática
O curso pode incluir mais de uma qualificação (generalista) ou ao contrário, optar por formar o especialista em uma área de atuação. O Técnico em Informática generalista é um profissional que pode ter mais de uma atuação ou função, como Operador de Microcomputador, Auxiliar de Manutenção ou Programador em alguma Linguagem de Programação. Isto é possível porque dentro do Curso há módulos específicos para cada uma destas ocupações. Ao contrário, o Técnico especialista tem a maior parte da carga horária do curso focada em uma sub-área. Podemos reconhecer pelo título do curso que geralmente se empresta: Técnico em Desenvolvimento de Sistemas, Técnico em Redes de Computadores, Técnico em Montagem e Manutenção de Equipamentos de Informática, etc.

Sendo a profissão de técnico em informática reconhecida, mas não regulamentada, qualquer escola legalmente constituída pode oferecer a formação do Técnico em Informática, e o Certificado legalmente expedido e registrado em livro próprio tem validade Nacional. Garantido pelo artigo 5º da Constituição inciso XIII: "é livre o exercício de qualquer trabalho, ofício ou profissão, atendidas as qualificações que a lei estabelecer", e a ausência de uma lei como determina a CRB/88 em seu artigo 5º, inciso XII c/c artigo 22, inciso XI, não impede o exercício da profissão. Assim, não há quem possa gerar o impedimento do exercício profissional, haja vista que, o que a Constituição exige é a qualificação, ou seja, desde que o cidadão esteja devidamente qualificado poderá exercer a atividade profissional, sem qualquer restrição.

O Certificado legalmente emitido ratifica a qualificação do técnico em informática. Este é o entendimento do STF quando afirma que “É inconstitucional atentar contra a liberdade consagrada na Constituição Federal, restringindo o exercício da profissão que não pressupõe condições de capacidade” (RTJ, 89:367).

Regulamentação da Profissão
Se por um lado, a regulamentação da profissão poderia garantir cursos de melhor qualidade, obrigatoriamente cadastrados no MEC, e profissionais registrados em um Conselho da profissão com intuito de normatizar a atividade profissional na área, pela fiscalização da atuação dos profissionais, pelo julgamento de possíveis desvios de conduta, e se necessário pela aplicação das punições cabíveis, eventualmente suspendendo ou até mesmo impedindo para sempre o exercício da atividade por maus profissionais, por outro lado, a restrição do exercício da profissão na área de informática a detentores de diplomas de alguns cursos não condiz com a realidade, nem no Brasil nem no exterior. Em nenhum país com economia avançada essa restrição existe: Estados Unidos, Inglaterra, França, Alemanha, Japão, Itália, Canadá, por exemplo, não restringem a atuação de profissionais da área. Nossos concorrentes diretos na busca por atração de oportunidades na área de computação e informática, em especial Índia, China, Irlanda e Rússia, também não colocam qualquer restrição à atuação na área.

Se a profissão fosse regulamentada na Suíça, Tim Berners-Lee não teria inventado e implementado a primeira versão da World Wide Web, já que ele tem um diploma de Física. Raymond Samuel Tomlinson, com diploma de engenharia elétrica, fosse a profissão regulamentada nos EUA, não teria construído o primeiro sistema de correio eletrônico. Bill Gates, primeiro programador e fundador da Microsoft, não terminou seu curso de graduação em Harvard e não poderia ter trabalhado na área e iniciado a maior empresa de software do mundo. Da mesma maneira, Steve Jobs, contemporâneo de Gates, não teria respaldo legal para projetar e desenvolver os primeiros microcomputadores e fundar a Apple, companhia responsável pela popularização dos computadores pessoais e que é responsável por introduzir inúmeras inovações na indústria de computadores pessoais, como o uso de janelas e mouse, e pela criação do iPod e iPhone.

A Sociedade Brasileira de Computação (SBC) é uma das maiores e mais ativas sociedades científicas do Brasil. Sem fins lucrativos, a SBC reúne pesquisadores, estudantes e profissionais que atuam em pesquisa científica e desenvolvimento tecnológico nas áreas de computação e informática. Não obstante sua natureza científica, a SBC, desde sua fundação, em 1979, tem se debruçado sobre o tema da regulamentação da profissão na área de Informática. A SBC considera que, no interesse da sociedade brasileira, o exercício de atividades econômicas, ofícios ou profissões relacionadas com a área de informática deva ser livre em todo o território nacional, independentemente de diploma de curso superior, comprovação de educação formal ou registro em conselhos de profissão. A SBC apóia um modelo de regulamentação da profissão em moldes mais condizentes com a sociedade moderna e com as especificidades da área, que garanta o real livre exercício das profissões de informática, e impeça que outros conselhos de profissões existentes tomem para si algumas dessas atribuições, como vem sendo tentado, em grande prejuízo para a sociedade. A SBC propõe ainda a criação de um Conselho de Profissão, de filiação não obrigatória, que seria responsável pela criação, manutenção e aplicação de um código de ética para a área.

DVD



DVD (abreviação de Digital Video Disc ou Digital Versatile Disc, em português, Disco Digital de Vídeo ou Disco Digital Versátil). Contém informações digitais, tendo uma maior capacidade de armazenamento que o CD, devido a uma tecnologia óptica superior, além de padrões melhorados de compressão de dados. O DVD foi criado no ano de 1996.

História
No início de 1990 dois tipos de discos-ópticos de alta capacidade estavam em desenvolvimento: um era o MultiMedia Compact Disc (MMCD), liderado pela Philips e Sony, e o outro era o Super Density Disc (SD), patrocinado pela Toshiba, Time-Warner, Matsushita Electric (Panasonic), Hitachi, Mitsubishi, Pioneer, Thomson e JVC. O presidente da IBM, Lou Gerstner, tinha a proposta de unir os dois sistemas, evitando a repetição dos problemas da década de 1980, com os videocassetes dos formatos VHS e Betamax.

Philips e Sony abandonaram o formato MMCD e concordaram o formato da Toshiba com duas modificações referentes a tecnologia implicada. A primeira foi a geometria que permitisse o "push-pull" (pular) das faixas (assim como no CD, você pula de uma música para outra, já no videocassete você não tem como fazer isso rapidamente), que era uma tecnologia conjunta da Philips-Sony. A segunda era adoção do sistema Philips EFMPlus. O EFMPlus, foi criado por Kees A. Schouhamer Immink, que também criou o EFM: é 6% menos eficiente que o sistema SD da Toshiba, o que resultou numa capacidade de 4,7GB ao invés dos originais 5GB do SD. A grande vantagem do EFMPlus é sua grande resiliência e resistência a intempéries tais como arranhões e impressões digitais. O resultado foi o DVD 1.5, anunciado ao público em 1995 e terminado em setembro de 1996. Em maio de 1997, o Consórcio DVD mudou para Fórum DVD, que é aberto a todas as companhias (não somente a Philips, Sony e Toshiba).

Os primeiros DVD Players (leitores de DVD) e discos estavam disponíveis em Novembro de 1997 no Japão, Março de 1998 nos Estados Unidos, 1999 na Europa e 2000 na Austrália. No Brasil a tecnologia começou a ganhar força em 2002 e 2003. O primeiro filme em DVD lançado nos Estados Unidos foi o Twister em 1996. O filme foi um teste para o Surround Sound 2.1. No Brasil, o primeiro DVD de filme foi Era uma vez na América, da FlashStar lançado em 1998. Em 1999 o preço dos DVD Players baixou para US$300 (dólares). A rede de supermercados Wal-Mart começou a vender DVD Players mesmo tendo pouca procura em comparação com os vídeos VHS, mas logo outras lojas seguiram o Wal-Mart e o DVD rapidamente se tornou popular nos Estados Unidos. Devido à desvalorização da moeda brasileira em relação aos dólares e à demora na decisão sobre a região a ser adotada no Brasil, bem como outros fatores, o DVD só se popularizou no Brasil em 2003, tomando quase 80% do mercado de vídeos. Um atraso de quase um ano, segundo fabricantes do setor.

Informações técnicas
Os DVD possuem por padrão a capacidade de armazenar 4,7 GB de dados, enquanto que um CD armazena em média de 700 MB(cerca de 14,6 % da capacidade de um DVD). Os chamados DVD de dual-layer (dupla camada) podem armazenar até 8,5 GB. Apesar da capacidade nominal do DVD comum gravável, é possível apenas gravar 4.484 MB de informações, e com o tamanho máximo de cada arquivo de 1 GB numa gravação normal. O tamanho máximo de arquivo varia conforme o tipo de gravação: UDF, ISO normal, DVD-video etc. Por exemplo, para gravar um arquivo com cerca de 2 GB, é necessário escolher a opção UDF mode. Apresenta resolução de 500 linhas (horizontais). A qualidade de imagem e som do DVD são bem superiores as das fitas de video VHS.[1].

Estrutura dos arquivos
Observando as extensões dos arquivos num sistema operacional podemos observar:

Arquivos *.IFO (de informação) são scripts sobre "como" rodar o DVD;
Arquivos *.BUP são backups dos *.IFO;
Arquivos *.PUO são de operações proibidas ao utilizador e geralmente são removidos quando ripamos (nomenclatura usada quando convertemos um DVD para arquivo de computador);
Arquivos *.VOB (de objeto visual) contém todo o filme, menu, extras, idiomas, e legendas, através de uma multiplexação.
Capacidade do DVD
Uma camada (Single Layer) Duas camadas (Dual/Double Layer)
Tamanho físico GB GiB GB GiB
12 cm, um lado 4,7 4,38 8,5 7,92
12 cm, dois lados 9,4 8,75 17 15,8
8 cm, um lado 1,4 1,3 2,6 2,42
8 cm, dois lados 2,8 2,61 5,2 4,84

Nota: GB aqui significa gigabyte e é igual a 109 (ou 1.000.000.000 bytes). Muitos computadores irão mostrar gibibyte (GiB) igual a 230 (ou 1.073.741.824 bytes). Exemplo: um disco com capacidade de 8,5 GB irá fornecer (8.5 x 1.000.000.000) / 1.073.741.824 ≈ 7,92 GiB.

Códigos das regiões
Dado a data de lançamento de um filme variar de país para país, para evitar que o público compre um filme antes que ele seja exibido no cinema do seu país e como medida de proteção desse mercado, os editores de DVD dividiram o mundo em seis zonas. Deste modo, por exemplo, um DVD editado na zona 1 não pode ser lido por um leitor de DVD da zona 2. Existe, no entanto, uma grande variedade de leitores multi-zona que permitem ler o DVD, independentemente da região a que pertencer.

Número: Região
0/All: Sem codificação, lido em todas as regiões.
1: EUA, Canadá e territórios norte-americanos
2: Europa Ocidental, Groenlândia, África do Sul, Lesoto, Suazilândia, Japão, Egipto e Médio Oriente
3: Sudeste Asiático, Coréia do Sul, Macau e Hong Kong, Indonésia, Filipinas, Taiwan
4: Brasil, Austrália, Nova Zelândia, México, América Central, América do Sul
5: Rússia, países da ex-União Soviética, Europa de Leste, subcontinente indiano, Mongólia, a maior parte dos países africanos
6: República Popular da China
7: Reservado para uso futuro
8: Utlização internacional, como em aviões, cruzeiros, etc.


Tipos de DVD
DVD não regraváveis permitem somente uma gravação, não sendo possível excluir nada depois, acrescentar dados é possível se o disco não for finalizado (Disk At Once), enquanto que os DVD regraváveis permitem apagar e regravar dados.

DVD Não Regravável
DVD-R: somente permite uma gravação e pode ser lido pela maioria de leitores de DVD;
DVD+R: somente permite uma gravação, pode ser lido pela maioria de leitores de DVD e é lido mais rapidamente para backup;
DVD+R DL (dual-layer): semelhante ao DVD+R, mas que permite a gravação em dupla camada, aumentando a sua capacidade de armazenamento.
Diferença entre DVD+R e DVD-R
DVD+R e DVD-R possuem a mesma função e a mesma capacidade. Na prática, a diferença da mídia DVD-R para a DVD+R é o desempenho: discos DVD+R são lidos mais rapidamente do que discos DVD-R. Esta diferença só é sentida se você usar o disco DVD para gravar arquivos de dados, isto é, usar como uma mídia de backup. Já que para assistir filmes, o desempenho é o mesmo[2]. DVD+R só pode ser lido e gravado em gravadores DVD+R, e DVD-R só em gravadores DVD-R. Existem no mercado gravadores que conseguem gravar os dois tipos de mídia, chamados gravadores DVD±R ou dvd multi-recorder, outra vantagem que existe é o DVD+R permitir gravar mais tempo de video, como 240 minutos e o DVD-R com 120 minutos.

DVD Regravável
DVD-RW: permite gravar e apagar cerca de mil vezes;
DVD+RW: é uma evolução do DVD-RW. Também permite gravar e apagar cerca de mil vezes, mas possui importantes aperfeiçoamentos, em especial uma compatibilidade muito maior com os DVD Players, a possibilidade de editar o conteúdo do DVD sem ter de apagar todo o conteúdo que já estava gravado e um sistema de controle de erros de gravação.
DVD+RW DL: possui duas camadas de gravação, o que dobra a sua capacidade de armazenamento.
DVD-RAM: permite gravar e apagar mais de cem mil vezes. A gravação e a leitura são feitos em uma série de círculos concêntricos, um formato que se aproxima mais do que ocorre nos discos rígidos (em todos os demais tipos de DVD, e também de CD, a gravação é feita em uma única linha contínua, uma espiral que parte do centro e termina na borda externa). Daí decorre o nome "gravação aleatória" (nos demais DVD, ela seria contínua). Permite editar o conteúdo do DVD sem ter de apagar todo o conteúdo que já estava gravado. Oferece a possibilidade de gravação e leitura simultâneas (time shift) sem o risco de apagar a gravação. Compatível com poucos leitores de DVD. Possui uma única camada de gravação. Capacidade: versão 1.0 - de 2,58 GB (um lado) a 5,16 GB (dois lados), e versão 2.0 - de 4,7 GB (um lado) e 9,4 GB (dois lados). Formato apoiado pela Hitachi, LG, Maxell, Matsushita (Panasonic), Samsung, Toshiba e JVC, através do RAM Promotion Group (RAMPRG). Em 2007, o custo do DVD-RAM era de aproximadamente quatro vezes o preço do DVD+RW, seu concorrente.
Diferença entre DVD+RW e DVD-RW
A diferença, além do que já foi dito, é que o DVD+RW suporta gravação aleatória (o que significa que é possível adicionar e remover arquivos sem a necessidade de apagar todo o disco para recomeçar), sendo mais parecido com um disco rígido removível, enquanto que o DVD-RW não (se for necessário mudar alguma coisa, será preciso limpar todo o disco e recomeçar). A desvantagem do DVD+RW é o seu custo maior.

Sucessores
Blu-ray e HD DVD
Foram lançados no mercado duas novas tecnologias para substituir o DVD, com maior capacidade de armazenamento. São os formatos Blu-ray e HD DVD. Estes formatos utilizam um disco diferente, que é gravado e reproduzido com um laser azul-violeta ao invés do tradicional vermelho. O laser azul possui um comprimento de onda menor, o que permite o traçado de uma espiral maior no disco, podendo render até 50 GB e 30 GB de capacidade no caso do Blu-ray e HD DVD, respectivamente. Os dois formatos têm suas vantagens e desvantagens: o Blu-ray tem maior capacidade de armazenamento, chegando a 25 GB com camada única ou 50 GB com dupla camada, mas seus discos, assim como os aparelhos para leitura, são mais caros para serem produzidos. O HD DVD por sua vez, é capaz de armazenar apenas 15 GB com camada única ou 30 GB com dupla camada, mas teria um custo menor de produção.

Apoiando o formato HD-DVD estavam Microsoft, Intel e Toshiba, entre outros. Do lado do Blu-ray estão Philips, Apple e Sony, entre outros. O espaço extra dessas novas tecnologias de DVD será utilizado para comportar filmes e jogos em alta definição, de acordo com esta geração de aparelhos televisores e videogames. Em 19 de Fevereiro de 2008, a Toshiba comunicou a decisão de não continuar com o desenvolvimento, fabricação e comercialização do HD DVD[4]. Sendo assim, o Blu-ray é o sucessor do DVD.

EVD e VMD
A República Popular da China lançará um padrão próprio de discos de alta resolução chamado EVD (Enhanced Versatile Disc ou Disco Versátil Reforçado, em português). Já o VMD foi criado por uma empresa inglesa, que criou um novo padrão apenas realizando otimizações no DVD onde se pode atingir 100 GB e utilizar o mesmo laser vermelho e que em custo sairia pelo mesmo preço dos DVD convencionais.

Leitor de DVD
O leitor de DVD é um acessório doméstico capaz de reproduzir mídias no formato DVD. Alguns mais modernos reproduzem também outros formatos como CD (de música mp3 e fotos), VCD, SVCD, mini-CD, DVD-RAM e discos de dados, com por exemplo, filmes no formato *.avi (que foram compactados em DivX ou XviD). Existem ainda os "DVD-KARAOKÊ" (mesmas funções que o DVD Player normal), porém estes possuem entradas para microfones. Existem DVD Players com entradas USB para assim poder inserir algum MP3 ou MP4.


Um exemplo de leitor de DVD.
Unidade de leitura de CD (cima) e de DVD (baixo).Também é possível visualizar DVD em computadores pessoais, usando uma unidade de leitura de DVD, e um software ou programa tocador de DVD, como por exemplo o Windows Media Player , WinDVD ou PowerDVD, para o sistema operacional Windows, e mplayer, vlc, xine ou totem para os sistemas GNU/Linux e derivados do BSD.

sexta-feira, 23 de abril de 2010

Telefone Celular




Telefone celular (português brasileiro) ou telemóvel (português europeu) é um aparelho de comunicação por ondas electromagnéticas que permite a transmissão bidireccional de voz e dados utilizáveis em uma área geográfica que se encontra dividida em células (de onde provém a nomenclatura celular), cada uma delas servida por um transmissor/receptor. A invenção do telefone celular ocorreu em 1947 pelo laboratório Bell, nos EUA.[1]

Há diferentes tecnologias para a difusão das ondas eletromagnéticas nos telefones móveis, baseadas na compressão das informações ou na sua distribuição: na primeira geração (1G) (a analógica, desenvolvida no início dos anos 1980), com os sistemas NMT e AMPS; na segunda geração (2G) (digital, desenvolvida no final dos anos 1980 e início dos anos 1990): GSM, CDMA e TDMA; na segunda geração e meia (2,5G) (uma evolução à 2G, com melhorias significativas em capacidade de transmissão de dados e na adoção da tecnologia de pacotes e não mais comutação de circuitos), presente nas tecnologias GPRS, EDGE, HSCSD, EVDO e 1xRTT; na terceira geração (3G) (digital, com mais recursos, em desenvolvimento desde o final dos anos 1990), como UMTS; na terceira geração e meia (3,5G), como HSDPA, HSPA e HSUPA. Já em desenvolvimento a 4G (quarta geração).

Aparelhos análogos baseados no rádio já eram utilizados pelos autoridades policiais de Chicago na década de trinta, entre outras tecnologias.

A designação

Motorola DynaTAC 8000X AMPS. Um telefone celular de 1983.Telefone celular, ou simplesmente "celular" (plural celulares), é a designação utilizada no Brasil. Este termo deriva da topologia de uma rede de telefonia móvel: cada célula é o raio de acção de cada uma das estações base (antenas de emissão/recepção) do sistema, e o fato de elas estarem contíguas faz com que a representação da rede se assemelhe a uma colmeia.

Em Portugal, estes equipamentos são designados por "telemóvel" (plural telemóveis), uma simplificação de "telefone móvel". Este termo apareceu quando o sistema de telefonia móvel apareceu em Portugal em finais dos anos 1980 pela mão dos CTT/TLP (operador único de telecomunicações, na altura), que baptizaram este serviço (assente na tecnologia analógica AMPS) de "Serviço Telemóvel". O termo ganhou popularidade quando a segunda geração apareceu em Portugal em 1992: isto porque os CTT/TLP decidiram autonomizar os serviços de telefonia móvel criando a TMN - Telecomunicações Móveis Nacionais S.A., que iria utilizar e o termo "telemóvel" para designar os equipamentos e não o serviço.

A designação 'telefone celular' permanece como designação técnica, embora não seja utilizada.

História
Ver artigo principal: História do telefone celular
[editar] Popularidade dos celulares

Porcentagem de utilização de celulares pelo mundo (dados de 2004)[editar] No Brasil
O primeiro celular lançado no Brasil foi pela TELERJ, na cidade do Rio de Janeiro em 1990, seguida da cidade de Salvador.

Segundo a União Internacional das Telecomunicações, o Brasil é sexto maior mercado do mundo em telefonia celular e atualmente, são 152 milhões de aparelhos em uso no Brasil

Veja na tabela abaixo o número de adesões de 2000 a 2009:

Ano De janeiro a fevereiro De janeiro a dezembro
2000 1.038.143 8.155.473
2001 804.764 5.557.598
2002 476.546 6.135.195
2003 767.977 11.492.302
2004 1.492.327 19.232.311
2005 1.807.453 20.604.759
2006 1.854.982 13.708.285
2007 1.268.088 21.061.482
2008 3.142.376 29.661.300
2009 1.723.583 -

Em Portugal
Em Portugal, a taxa de penetração dos telemóveis já ultrapassou os 100%, ou seja, existem mais equipamentos que habitantes portugueses. Devido a estes números, os operadores tentam fidelizar os seus clientes através de novos serviços, sobretudo de comunicação de dados, com destaque para o acesso móvel à Internet através de tecnologias de terceira geração (ex: UMTS).

Utilidade
O celular/telemóvel que quando lançado ainda na tecnologia analógica era somente usado para falar, já é usado para enviar SMS, tirar fotos, filmar, despertar, gravar lembretes, jogar e ouvir músicas, mas não para por aí, nos últimos anos, principalmente no Japão e na Europa, tem ganhado recursos surpreendente até então não disponível para aparelhos portáteis, como GPS, videoconferências e instalação de programas variados, que vão desde ler e-book a usar remotamente um computador qualquer, quando devidamente configurado.

Personalização

Uma estação radio base (ERB) de telefonia celularJuntamente com tecnologia digital, chegou além de qualidade e segurança, a possibilidade de personalizar os celulares/telemóveis. Inicialmente podia-se configurar o toque monofônico, os quais são formados apenas por bip de mesmo tom, configurados para ter o ritmo da música, e também as figuras monocromáticas que são quase desconhecidas. Com a nova geração de aparelhos, principalmente nos lançamentos do sistema GSM, veio então além de toques polifônicos e em formato MP3 juntamente com imagens coloridas.

As imagens coloridas podem ser de dois tipos distintos:

Formato GIF; trate-se de um formato que só suporta 256 cores, nos aparelhos pioneiros, normalmente era usado esse formato.
Formato JPG; formato amplamente difundiu graças as câmeras digitais este suporta até 16 milhões de cores e é usado em aparelhos mais avançados, e praticamente todos que possuem câmeras digitais integradas ao celular.
Para personalizar o seu celular procure o portal da operadora na internet ou pelo próprio aparelho via WAP, porem lembre-se que WAP é cobrado mesmo para escolher o toque ou a imagem. Há também sites que distribuem gratuitamente conteúdo para aparelhos diversos, o qual fica mais barato ao usuário final já que não são protegidos por direitos autorias.

Novos Modelos

Modelo Siemens S65 com câmera.|Exemplo de um Smartphone|thumb|150px]] Os celulares/telemóveis agregaram, ao redor do tempo, muitos recursos, tais como câmera, rádio FM e leitor MP3. Alguns telefones, inclusive, têm um computador de mão Palm ou PocketPC integrado - são os chamados smartphones (do inglês "smart", inteligente, "phone", telefone).

Sua principal característica é a possibilidade de instalar programas que utilizam os recursos disponíveis no aparelho. Alguns exemplos são dicionários, tradutores, jogos e clientes de e-mail. Os sistemas operativos mais utilizados são o Symbian e o Windows Mobile, tendo o Linux crescido também de forma exponencial.

Com as novas tecnologias de terceira geração (3G), que oferecem dados em alta velocidade, é possível realizar chamadas de vídeo-conferência em tempo real, com a ajuda de novos equipamentos com câmera frontal, próxima ao visor.

A maioria dos novos modelos possui alguma forma de conexão com outros telefones - IrDA (infravermelho) ou Bluetooth. Essas tecnologias servem, principalmente, para envio de dados entre telefones.

Nos dias de hoje o celular já não é mais um simples telefone de bolso. Câmeras que possuem 12.1Mpx já foram lançados na Europa, no Brasil encontramos de até 8.1Mpx, resoluções maiores que muitas câmeras digitais. A internet já pode ser acessa via Wi-Fi e banda larga 3G e 4G no Japão. Jogos com gráficos que se comparam ao videogame PSP com qualidade 3D. Telas que, em 2003, tinham 4 mil cores, agora possuem mais de 16 milhões. As polegadas também cresceram. Hoje os celulares tem telas com até 4 polegadas sensíveis ao toque. Em poucos anos o celular será a nossa "Central de Entretenimento".

Clonagem
A clonagem de celulares é um problema que aflige muitos dos usuários da telefonia móvel. Acontece quando um criminoso usa uma linha de um cliente de alguma operadora para fazer ou receber ligações. Além de perder sua privacidade, o usuário recebe uma conta telefônica bem mais alta do que o devido, devido ao uso clonado de seu número em algum outro aparelho. Também passa a receber ligações de pessoas estranhas. A clonagem é usada no Brasil por quadrilhas de crime organizado para se comunicar, burlando a vigilância da polícia.

Estão vulneráveis à clonagem os telefones que entram em áreas onde o sinal é analógico, e por isso, os telefones de operadoras GSM, tais como a TIM, a Oi ou os novos aparelhos da Claro e mais recentemente Vivo são considerados mais seguros. Estão expostos à clonagem os celulares CDMA, como os da Vivo, que operam em sistema analógico em boa parte do país. Também estão vulneráveis os aparelhos TDMA, da antiga BCP, que foi incorporada pela Claro.

Quem tem aparelhos CDMA ou TDMA pode reduzir os riscos da clonagem evitando ligar o telefone nas proximidades de aeroportos ou em locais em que o sinal para o seu aparelho não é digital. Também é possível configurar alguns modelos CDMA para usarem somente o sistema digital.

Com um scanner de freqüência ou um receptor de rádio de alta freqüência, o criminoso consegue identificar o número da linha e o número de série do aparelho, usando-os no clone. Os aeroportos são lugares visados para este tipo de atuação por criminosos por serem locais de grande movimentação de executivos. Nestas zonas as quadrilhas instalam suas vans com antenas clandestinas para captar os códigos emitidos pelos celulares dos viajantes. Um técnico em celulares inescrupuloso ou qualquer pessoa com conhecimentos de programação de celulares também tem acesso a esses números ao manipular o aparelho.

Saúde
Actualmente não há nenhum estudo que apresente provas concretas que indiquem que os telemóveis acarretam riscos para a saúde. Os aparelhos celulares, assim como outros dispositivos eletrônicos como rádio, televisão, alguns controles remotos, redes sem fio de computadores, etc utilizam ondas eletromagnéticas de rádio frequência (RF) para comunicação. Essas ondas eletromagnéticas são consideradas como radiações não ionizantes, ou seja, consideradas seguras nas potências utilizadas nos dispositivos celulares cujo funcionamente atende às recomendações da International Commission on Non-Ionizing Radiation Protection (ICNIRP) provisoriamente adotadas pela Organização Mundial de Saúde (OMS). Diversos estudos têm sido conduzidos para se determinar possíveis riscos de longo prazo à saúde humana pelo uso aparelhos celulares: a Organização Mundial da Saúde divulgou resultados preliminares de um estudo que sugere que o uso de aparelhos celulares pode estar relacionado a uma predisposição maior a diversos tipos de cânceres; em contrapartida um estudo realizado com base nos dados colhidos nos últimos 30 anos abrangendo praticamente todos os habitantes da Escandinávia descarta a ligação de cânceres cerebrais ao uso de celulares[6]. A parte da divergência entre os estudos sobre os riscos à saúde do uso de celulares muitos especialistas e entidades de saúde oficiais têm recomendado a utilização limitada destes dispositivos assim como ao recurso do sistema de mãos-livres. Existe, contudo, um grande consenso sobre os riscos de acidentes provocados pelo uso de celulares: o uso desses dispositivos ao se dirigir um veículo automotor ou mesmo ao se caminhar aumentam significativamente o risco de acidentes através da distração provocada ao se conversar através do celular

Placa mãe

Placa-mãe, também denominada mainboard ou motherboard, é uma placa de circuito impresso, que serve como base para a instalação dos demais componentes de um computador, como o processador, memória RAM, os circuitos de apoio, as placas controladoras, os slots do barramento e o chipset.
Tipos de placas-mãe
AT

Placa-mãe com slot ISA (destaque)
AT é a sigla para (Advanced Technology). Trata-se de um tipo de placa-mãe já antiga. Seu uso foi constante de 1983 até 1996. Um dos factores que contribuíram para que o padrão AT deixasse de ser usado (e o ATX fosse criado), é o espaço interno reduzido, que com a instalação dos vários cabos do computador (flat cable, alimentação), dificultavam a circulação de ar, acarretando, em alguns casos danos permanentes à máquina devido ao super aquecimento. Isso exigia grande habilidade do técnico montador para aproveitar o espaço disponível da melhor maneira. Além disso, o conector de alimentação da fonte AT, que é ligado à placa-mãe, é composto por dois plugs semelhantes (cada um com seis pinos), que devem ser encaixados lado a lado, sendo que os fios de cor preta de cada um devem ficar localizados no meio. Caso esses conectores sejam invertidos e a fonte de alimentação seja ligada, a placa-mãe será fatalmente queimada. Com o padrão AT, é necessário desligar o computador pelo sistema operacional, aguardar um aviso de que o computador já pode ser desligado e clicar no botão "Power" presente na parte frontal do gabinete. Somente assim o equipamento é desligado. Isso se deve a uma limitação das fontes AT, que não foram projetadas para fazer uso do recurso de desligamento automático. Os modelos AT geralmente são encontrados com slots ISA, EISA, VESA nos primeiro modelos e, ISA e PCI nos mais novos AT (chamando de baby AT quando a placa-mãe apresenta um tamanho mais reduzido que os dos primeiros modelos AT). Somente um conector "soldado" na própria placa-mãe, que no caso, é o do teclado que segue o padrão DIN e o mouse utiliza a conexão serial. Posição dos slots de memória RAM e soquete de CPU sempre em uma mesma região na placa-mãe, mesmo quando placas de fabricantes diferentes. Nas placas AT são comuns os slots de memória SIMM ou SDRAM, podendo vir com mais de um dos padrões na mesma placa-mãe.
AT e ATX (simultaneamente)
Modelo de transição entre o AT e o ATX, uma vez que as duas tecnologias são encontradas simultaneamente. Esta é uma estratégia criada pelos fabricantes para obterem maior flexibilidade comercial.
ATX

Conectores PS/2
ATX é a sigla para (Advanced Technology Extended). Pelo nome, é possível notar que trata-se do padrão AT aperfeiçoado. Um dos principais desenvolvedores do ATX foi a Intel. O objetivo do ATX foi de solucionar os problemas do padrão AT (citados anteriormente), o padrão apresenta uma série de melhorias em relação ao anterior. Atualmente a maioria dos computadores novos vêm baseados neste padrão. Entre as principais características do ATX, estão:
o maior espaço interno, proporcionando uma ventilação adequada,
conectores de teclado e mouse no formato mini-DIN PS/2 (conectores menores)
conectores serial e paralelo ligados diretamente na placa-mãe, sem a necessidade de cabos,
melhor posicionamento do processador, evitando que o mesmo impeça a instalação de placas de
expansão por falta de espaço.

Conector de energia ATX (24 furos)

Placa-mãe ATX com slot AGP (destaque)
Quanto à fonte de alimentação, encontramos melhoras significativas. A começar pelo conector de energia ligado à placa-mãe. Ao contrário do padrão AT, não é possível encaixar o plug de forma invertida. Cada orifício do conector possui um formato, que dificulta o encaixe errado. A posição dos slots de memória RAM e socket de CPU variam a posição conforme o fabricante. Nestas placas serão encontrados slots de memória SDRAM, Rambus, DDR, DDR2 ou DDR3, podendo vir com mais de um dos padrões na mesma placa-mãe. Geralmente os slots de expansão mais encontrados são os PCI, AGP, AMR/CNR e PCI-Express. As placas mais novas vêm com entrada na própria placa-mãe para padrões de disco rígido IDE, Serial ATA ou Serial ATA II. Gerenciamento de energia quando desligado o micro, suporta o uso do comando "shutdown", que permite o desligamento automático do micro sem o uso da chave de desligamento encontrada no gabinete. Se a placa mãe for alimentada por uma fonte com padrão ATX é possível ligar o computador utilizando um sinal externo como, por exemplo, uma chamada telefônica recebida pelo modem instalado.
BTX
BTX é um formato de placas-mãe criado pela intel e lançado em 2003 para substituir o formato ATX. O objetivo do BTX foi otimizar o desempenho do sistema e melhorar a ventilação interna. Atualmente, o desenvolvimento desse padrão está parado.
LPX
Formato de placas-mãe usado por alguns PCs "de marca" como por exemplo Compaq. Seu principal diferencial é não ter slots. Os slots estão localizados em uma placa a parte, também chamada "backplane", que é encaixada à placa-mãe através de um conector especial. Seu tamanho padrão é de 22 cm x 33 cm. Existe ainda um padrão menor, chamado Mini LPX, que mede 25,4 cm x 21,8 cm.
Esse padrão foi criado para permitir PCs mais "finos", já que as placas de expansão em vez de ficarem perpendiculares à placa-mãe, como é o normal, ficam paralelas.
Após o padrão de placas-mãe ATX ter sido lançado, uma versão do LPX baseada no ATX foi lançada, chamada NLX.
Visualmente falando é fácil diferenciar uma placa-mãe LPX de uma NLX. No padrão LPX o conector para a placa de expansão (backplane) está localizado no centro da placa-mãe e este é um conector parecido com um slot (conector "fêmea"). Já no padrão NLX o conector para a placa de expansão está localizado em uma das laterais da placa, e é um contato de borda contendo 340 pinos, similar ao usado por placas de expansão (ou seja, é um conector "macho").
ITX
É um padrão de placa-mãe criado em 2001 pela VIA Technologies.[1]
Destinada a computadores altamente integrados e compactados, com a filosofia de oferecer não o computador mais rápido do mercado, mas sim o mais barato, já que na maioria das vezes as pessoas usam um computador para poder navegar na Internet e editar textos.
A intenção da placa-mãe ITX é ter tudo on-board, ou seja, vídeo, áudio, modem e rede integrados na placa-mãe.
Outra diferença dessa placa-mãe está em sua fonte de alimentação. Como possui menos periféricos, reduzindo assim o consumo de energia, sua fonte de alimentação pode ser fisicamente menor, possibilitando montar um computador mais compacto.
Funcionamento
A placa-mãe realiza a interconexão das peças componentes do microcomputador. Assim, processador, memória, placa de vídeo, HD, teclado, mouse, etc. estão ligados diretamente à placa-mãe. Ela possui diversos componentes eletrônicos (circuitos integrados, capacitores, resistores, etc) e entradas especiais (slots) para que seja possível conectar os vários dispositivos.
Componentes

Arquitetura de uma placa-mãe típica.
Vamos destacar os mais importantes componentes de uma placa mãe:
Processador (conectado ao soquete)
Memória RAM
Bios (memória ROM)
Bateria
Chipset (norte e sul)
Conectores
Slots de expansão (PCI, ISA, AGP...)
Conector IDE
Conector SATA
Conector Mouse(br)/Rato(pt)
Conector Teclado
Conector Impressora (porta paralela)
Conector USB
Processador

Processador AMD-AthlonXP 1700+
O processador fica encaixado no soquete devendo observar que uma placa-mãe não aceita qualquer tipo de processador, pois é desenvolvida para soquetes específicos. Cada tipo de processador tem características que o diferenciam de outros modelos, a quantidade de pinos, por exemplo, ou o barramento da ponte norte. Assim sendo, a placa-mãe deve ser desenvolvida para aceitar determinados processadores.
Memória RAM

DDR400 de 1GB da Kingston

SDRAM
As placas-mãe mais antigas trabalhavam com tecnologia conhecida com SDR SDRAM e a DDR, atualmente o padrão mais usado é o DDR2, mas em breve se tornarão obsoletas, dando lugar as memórias DDR3.
Com relação à capacidade de instalação de memória RAM nas placas-mãe mais antigas chegavam a 32 MiB ou 64 MiB, entretanto hoje não é dificil achar micros com módulos de memória com 1 GiB ou 2 GiB, podendo chegar em algumas placas para servidor a 128 GiB (embora essas placas sejam muito raras, a possibilidade existe).
BIOS
Ver artigo principal: BIOS

Flash-ROM BIOS da American Megatrends 1992
BIOS (Basic Input Output System) é um tipo de chip (Flash-ROM) que contém um pequeno software responsável por controlar o uso dos dispositivos e mantém informações de data e hora. O BIOS trabalha junto com o POST (Power On Self Test), um software que testa os componentes do micro em busca de eventuais erros. Podemos alterar as configurações de hardware através do Setup, uma interface também presente na Flash-ROM.
Bateria

Bateria de Lítio CR2032 3V
A bateria interna do tipo Lítio(bateria de lítio) CR2032 tem a função de manter as informações da Flash-ROM (EEPROM) armazenadas enquanto o computador está desligado (somente em placas-mãe antigas, nas atuais sua principal função é manter o relógio interno funcionando).
Chipset

Southbridge da placa-mãe ASUS P4P800-E

Northbridge da placa-mãe ASUS P4P800-E
Chipset é um chip (ou conjunto de chips) responsável pelo controle de diversos dispositivos de entrada e saída como o barramento de comunicação do processador, o acesso à memória, o acesso ao HD, periféricos on-board e off-board, comunicação do processador com a memória RAM e entre outros componentes da placa-mãe. Geralmente, é dividido em southbridge e northbridge.
O northbridge faz a comunicação do processador com as memórias, através do barramento de comunicação externa do processador, e com os barramentos de alta velocidade AGP e PCI Express. Como ele faz o trabalho mais pesado, geralmente requer um dissipador de calor devido ao seu aquecimento elevado.
O southbridge geralmente é responsável pelo controle de dispositivos de entrada ou saída (I/O) como as interfaces IDE que ligam os HDs, os drives de CD-ROM, drives de DVD-ROM ao processador. Controlam também as interfaces Serial ATA. Geralmente cuidam também do controle de dispositivos on-board como o som.
Slots de expansão

placa de rede 100Mbit tipo PCI da NIC

Foto do adaptador gráfico tipo PCI Express Gigabyte com um chpiset NVIDIA (Geforce 6200TC)
Algumas tecnologias foram desenvolvidas para dar maior flexibilidade aos computadores pessoais uma vez que cada cliente pretende utiliza-lo para um fim específico.
O barramento PCI ou (Peripheral Component Interconnect) é uma tecnologia para conectar diferentes periféricos na Placa-mãe. Veja maiores detalhes no artigo Peripheral Component Interconnect.
As placas-mãe mais antigas dispunham de outras tecnologias leia os artigos para saber mais: barramento ISA, barramento EISA, barramento VESA.
O barramento AGP ou (Accelerated Graphics Port) é uma tecnologia de barramento usada principalmente por placas de vídeo. As placas AGP excedem um pouco em tamanho as placas PCI. A tecnologia AGP já está sendo substituída pelo barramento PCI Express. A tecnologia PCI Express conta com um recurso que permite o uso de uma ou mais conexões seriais. Veja mais no artigo PCI Express.
Controladores
On-board: como o próprio nome diz, o componente on-board vem diretamente conectado aos circuitos da placa mãe, funcionando em sincronia e usando capacidade do processador e memória RAM quando se trata de vídeo, som, modem e rede. Tem como maior objetivo diminuir o preço das placas ou componentes mas, em caso de defeito o dispositivo não será recuperável, no caso de modem AMR, basta trocar a "placa" do modem AMR com defeito por outra funcionando, pois, este é colocado em um slot AMR na placa-mãe. São exemplos de circuitos on-board: vídeo, modem, som e rede.
Off-board: são os componentes ou circuitos que funcionam independentemente da placa mãe e por isso, são separados, tendo sua própria forma de trabalhar e não usando o processador, geralmente, quando vídeo, som, modem ou rede, o dipositivo é "ligado" a placa-mãe usando os slots de expansão para isso, têm um preço mais elevado que os dispositivos on-board, sendo quase que totalmente o contrário em todos os aspectos do tipo on-board, ou seja, praticamente todo o processamento é realizado pelo próprio chipset encontrado na placa do dispositivo.
Componentes
A placa-mãe pode variar conforme o modelo e fabricante, mas há componentes que se mantêm:
Slots
Conectores
Portas
Bios
Chipset