Criar um Site Grátis Fantástico
LAVICOJ



Total de visitas: 21029
INFORMÁTICA


Informática

• Informação Automática

Ciência que trata do processamento
ou manipulação automática da
informação através de equipamentos eletrônicos. Surgiu movida principalmente por dois fatores:

 Surgimento de equipamentos elétricos e eletrônicos, que podiam ser usados para a manipulação de informações de forma rápida e confiável;

 Aumento do volume de informação em todas as áreas, e necessidade de métodos que permitissem o acesso de maneira eficiente às estas informações.

Computador

Conjunto de componentes eletrônicos, montados de acordo com uma arquitetura,
sendo esta máquina rápida para a execução automática de cálculos e/ou manipulação de dados.

O computador é extremamente rápido e flexível (???), mas não tem o conhecimento para executar as tarefas.

Ao conjunto de passos e procedimentos ordenados de maneira correta, para que seja executado uma determinada tarefa chama-se programa.

Computador - Vantagens


 Grande rapidez em leitura de dados, cálculos aritméticos e impressão de dados;
 Consistência de solução: realiza a mesma operação milhões de vezes com o mesmo resultado;
 Grande capacidade de armazenamento de informações e agilidade para recuperar uma informação específica.

Processamento de Dados

• Transformar informações que temos em mãos ou são facilmente obtidas (dados de entrada) em informações úteis (dados de saída);
• Transformar informações a fim de obter outras informações, com alguma utilidade prática;

Essa definição envolve três elementos essenciais:

• Informações iniciais (ponto de partida)
• Transformações (processamento)
• Resultados finais (objetivo)

Todo processamento ocorre com base em elementos conhecidos de um problema a ser solucionado.

• Dado: elemento conhecido que serve de base para a resolução de um problema. Não tem significado
• Informação: Conjunto organizado e estruturado de dados que tem um significado.

A representação do processamento de dados é a seguinte:

Entrada------->Processamento-------->Saída

Há vários tipos de processamento de dados:

• Manual
• Automático
• Eletrônico

Histórico

Através da cronologia da história da informática, apresentada a seguir, pode se analisar a importância e a contribuição, dos pequenos avanços tecnológicos e os grandes avanços alcaçados nos últimos 40anos.

4000-1200 A.C. - Habitantes da primeira civilização conhecida na Suméria mantêm registros de transações comerciais em tabletes de barro.
3000 A.C. - O ábaco é inventado na Babilônia. Aproximadamente em 1300 o ábaco de arame, mais familiar, substitui as barras de calcular chinesas.
250-230 A.C. - A Peneira de Eratosthenes é usada para determinar números primos.
1612-1614 - John Napier usa o ponto de fração decimal impresso, inventa logaritmos, e seu uso numeraram varas, ou Napiers Bones, por calcular.
1622 - William Oughtred inventa a regra de deslizamento circular baseado nos logaritmos de Napier.
1623 - William (Wilhelm) Schickard projeta um "relógio de calcular" com uma engrenagem dirigida, um leve mecanismo para ajudar na multiplicação de números de vários dígitos.
1642-1643 - Blaise Pascal cria uma engrenagem dirigida de somar, uma máquina chamada de "Pascalene," a primeira máquina de somar mecânica.
1666 - Na Inglaterra, Samuel Morland produz uma calculadora mecânica que pode somar e subtrair.
1674 - Gottfried Leibniz constrói a "Calculadora de Pisar", uma calculadora que usa uma engrenagem cilíndrica para pisar.
1774 - Philipp-Matthaus Hahn constrói e vende um pequeno número de máquinas de calcular com precisão de 12 dígitos.
1786 - J.H. Mueller cria uma "máquina de diferença" mas não consegue recursos (dinheiro) para construí-la.
1801 - Uma sucessão unida de controles de cartões perfurados controlam os padrões de tecelagem de Joseph-Marie.
1811 - Luddites destrõem a maquinaria que ameaçava eliminar trabalhos.
1820 - A calculadora Thomas Arithmometer, baseado no princípio de Leibniz do tambor de pisar, é demonstrada na Academia Francesa de Ciência. Esta se torna a primeira calculadora produzida em massa e é vendida por muitos anos.
1822 - Charles Babbage começa a projetar e construir a Máquina de Diferença.
1829 - William Austin Burt patenteia uma desajeitada máquina de escrever executável, a primeira máquina de escritura na América.
1832 - Babbage e Joseph Clement produzem uma porção da Máquinas de Diferença.
1834-35 - Babbage troca o enfoque de seus trabalhos para projetar a Máquina Analítica.
1838 - Em janeiro, Samuel Morse e Alfred Vail demonstram elementos do sistema de telégrafo.
1842-43 - Augusta Ada, Condessa de Lovelace, traduz o folheto de Luigi Menabrea na Máquina Analítica e adiciona seu próprio comentário.
1844 - Samuel Morse envia uma mensagem de telégrafo de Washington para Baltimore.
1847-49 - Babbage completa 21 desenhos para a segunda versão da Máquina de Diferença, mas não completa sua construção.
1854 - George Boole publica "Uma Investigação das Leis de Pensamento", descrevendo um sistema para argumentação simbólica e lógica que se tornará a base para o desenho de computadores.
1858 - Um cabo de telégrafo mede o Oceano Atlântico pela primeira vez e provê serviço por alguns dias.
1861 - Uma linha de telégrafo transcontinental conecta o Atlântico até a costa do Pacífico.
1876 - Alexander Graham Bell inventa e patenteia o telefone.
1876-1878 - O barão de Kelvin constrói para um analisador harmônico para previsão de marés do mar.
1882 - William S. Burroughs, partindo do trabalho de um balconista do seu banco, inventa uma máquina de somar.
1889 - O Sistema Elétrico de Tabular de Herman Hollerith vence uma competição e, em meados de outono é selecionado para uso no censo de 1890.
1893 - A primeira calculadora de quatro funções é inventada.
1895 - Guglielmo Marconi transmite um sinal de rádio.
1896 - Hollerith cria uma empresa de nome Tabulating Machine Company.
1901 - O KeyPunch surge e uma mudança muito pequena ocorre durante o próximo meio século.
1904 - John A. Fleming patenteia o tubo de diodo à vácuo e fixa o início de uma fase de melhorias na comunicação de rádio.
1906 - Lee de Forest soma uma terceira válvula para controlar o atual fluxo para o diodo de Fleming e cria o tubo de diodo à vácuo de três eletrodos.
1907 - A música de gramofone constitui o primeiro rádio regular de Nova Iorque.
1908 - O cientista britânico Campbell Swinton descreve um método esquadrinhado eletrônico e pressagia uso do tubo de raios catódicos para televisão.
1911 - O físico holandês Kamerlingh Onnes, da Universidade de Leiden, descobre a super condutividade.
1911 - A Tabulating Machine Company de Hollerith e duas outras companhias se fundem para formar
C-T-R-Calculating, Tabulating and Recording Cia.
1912 - O Instituto de Engenheiros de Rádio, que é a fusão de várias organizações, é estabelecido para formar o IEEE.
1915 - O uso de microchips é pressagiado, quando o físico Manson Benedicks descobre que o cristal de germânio pode ser usado para converter corrente alternada para corrente contínua.
1919 - Eccles e Jordan, físicos dos EUA, inventam o circuito eletrônico flip-flop voltado para sistemas eletrônicos de alta velocidade.
1920 - 1921 - A palavra "robô" (derivou do checo formule para trabalho compulsório) é primeiramente usado por Karel Câpek no seu jogo RUR (os Robôs Universais de Rossum).
1924 - T.J. Watson renomeia a CTR para IBM e populariza o slogan "Pensar".
1927 - A face de Herbert Hoover é vista em tela durante a primeira demonstração da televisão no EUA. A transmissão de voz usa arames de telefone.
1928 - O relógio de quartzo cristalino obtém uma precisão de tempo sem precedentes.
1929 - Sinais de televisão de cor prosperamente são transmitidos.
1930 - O Analisador Diferencial é inventado por Vannevar Bush e seus colegas da MIT. Este resolve várias equações diferenciais.
1931 - Reynold B. Johnson, professor de escola secundária em Michigan, descobre uma forma para marcar as respostas de múltiplos testes numa folha com lápis condutivo. A IBM, mais tarde, compra essa tecnologia.
1934 - Na Alemanha, Konrad Zuse busca construir uma máquina de calcular melhor que as máquinas atualmente disponíveis.
1935 - A IBM não só introduz a máquina de multiplicar 601 movida a cartões perfurados, mas também cria uma máquina de escrever elétrica.
1936 - Konrad Zuse cria um programa com um composto de combinações de bits que pode ser armazenado, e ele arquiva uma aplicação patente na Alemanha para a execução automática de cálculos, inclusive uma "memória de combinação".
1937 - Claude Shannon publica os princípios para uma máquina de somar elétrica com a base dois.
1937 - Howard Aiken submete à IBM uma proposta para uma máquina de calcular digital capaz de executar as quatro operações fundamentais da aritmética e operar em uma seqüência predeterminada.
1937 - George Stibitz desenvolve um circuito binário baseado na álgebra de Boole.
1937 - No livro de Alan Turing "Números Computáveis" está presente o conceito da máquina de Turing.
1937 - John Vincent Atanasoff passa o inverno inventando os princípios para um computador eletrônico digital.

1938 - William Hewlett e David Packard formam Hewlett-Packard em uma garagem em Palo Alto, Califórnia.
1938 - Zuse completa o computador eletromecânico binário Z1 e refina o desenho do Z2.
1939 - Trabalhando de outubro a novembro, John Vincent Atanasoff, com ajuda do estudante diplomado Clifford E. Berry, constrói o protótipo do computador eletrônico-digital que usa aritmética binária.
1940 - Konrad Zuse completa o Z2, que usa relays de telefone ao invés de circuitos lógicos mecânicos.
1941 - Zuse completa o Z3, o primeiro programa eletromecânico funcional controlado completamente em forma de computador digital.
1943 - Em 31 de maio de 1943 iniciam-se a construção do ENIAC na Escola Moore de Engenharia Elétrica na Filadélfia.
1943 - Em dezembro, Colosso, um computador de tubo à vácuo britânico, fica operacional a Bletchley Park pelos esforços combinados de Alan Turing, Tommy Flowers, e M.H.A. Newman. É considerado o primeiro dispositivo de calcular de forma eletrônica.
1944 - A Harvard Mark (a.k.a. a IBM Sucessão Automática Calculadora Controlada [ASCC]), é produzida por Howard Aiken, e lançada em 7 de agosto de 1944 na Universidade de Harvard.
1945 - J. Presper Eckert e John Mauchly assinam um contrato para construir o EDVAC (Variável Discreta Eletrônica de Computador Automático).
1945 - Na primavera desse ano, o ENIAC está se pronto e funcionando.
1945 - John von Neumann apresenta o conceito de um programa que armazena em 30 de junho um relatório de desenho no EDVAC.
1945 - O Z4 de Zuse sobrevivem a Segunda Guerra Mundial e ajudam o desenvolvimento de computadores científicos pós-guerra na Alemanha.
1945 - Trabalhando em um protótipo do Mark II, no verão Grace Murray Hopper acha o primeiro bug de computador, uma traça que tinha causado uma falha nos relays.
1945 - Em julho, Vannevar Bush publica "Como Nós Pensamos" no Atlântic Monthly.
1946 - O ENIAC, projetado por J. Presper Eckert e John Mauchly, é lançado na Universidade de Pennsylvania em 14 de fevereiro.
1946 - Arthur Burks, Herman Goldstine e John von Neumann escrevem "Discussão Preliminar do Desenho Lógico de um Instrumento de Computação Eletrônico.
1946 - O Instituto americano de Engenheiros Elétricos estabelecem um Subcomitê de Amplos Dispositivos de Calcular, a origem da Sociedade de Computadores IEEE de hoje.
1946 - Alan Turing publica um relatório no seu desígnio para ACE (Automatic Computing Engine), caracterizando extração aleatória de informação.
1947 - Em julho, Howard Aiken e seu time completam o Harvard Mark II.
1947 - Em 23 de dezembro, a administração da Bell Labs é informada que John Bardeen e Walter Brattain, junto com William Shockley, desenvolveram o primeiro transistor.
1947-48 - A memória de tambor magnética é introduzida como um dispositivo de armazenamento de dados para computadores.
1948 - Claude Shannon publica "Uma Teoria Matemática de Comunicação," formulando a compreensão moderna do processo de comunicação.
1948 - 21 de junho, o Manchester Mark I, ou "o bebê" máquina, se torna o primeiro programa operacional de armazenamento para computador digital. Usou tubo à vácuo, válvula, circuitos.
1948 - Richard Hamming inventa um modo para achar erros em blocos de dados e corrigi-los. O código de Hamming é subseqüentemente usado em computadores e sistemas de telefonia.
1948 - O SSEC (Sucessão Seletiva de Calculadora Eletrônica), usando eletrônica e relays, é inventado em 24 de janeiro.
1949 - O computador de Whirlwind, construído debaixo da liderança de Jay Forrester da MIT, é o primeiro computador de tempo real. É colocado em serviço durante o terceiro quarto do ano. Ele contém 5,000 tubos à vácuo.
1949 - EDSAC (Eletronic Delayed Storage Automatic Computer), um computador de armazenar programas, é construído por Maurice Wilkes na Universidade de Cambridge, Inglaterra. Ele executa seu primeiro cálculo em 6 de maio.
1949 - Um pequeno Código de Ordem é desenvolvido por John Mauchly e se torna o primeiro programa de alto-nível.
1950 - O Piloto de ACE é completado no Laboratório Físico Nacional da Inglaterra e seu primeiro programa é executado em 10 de maio.
Fonte retirada da Internet (https://www.bestway.com.br/~rigoleto/historia.html)
1642/1644 - O francês Blaise Pascal desenvolve uma calculadora mecânica (adição e subtração);

1728 - O francês Falcon constrói um tear que podia ser programado (princípio do cartão perfurado);

1805 - Baseando-se na mesma idéia, o francês Jacquard utilizou cartolina e construiu primeiro tear totalmente automático;

1830 – O matemático inglês Charles Babagge, (pai do computador), projetou a primeira calculadora automática, usando o sistema de Jacquard (cartões). A construção da mesma não foi concluída, pois durante a construção sempre foram surgindo inovações.
• Relés

Nos meados da década de 80 do século XIX, Hermann Hollerith inventou uma máquina para acumular e classificar dados, através da leitura de cartões, esta máquina foi desenvolvida para atender a Agência Estatística dos Estados Unidos para agilizar o processamento dos dados do censo de 1890.

Com esta máquina o censo foi concluído em 2 anos e meio, o que para a época era um grande avanço, visto que o censo de 1880 levou 8 anos para ser concluído, sendo que a máquina de Hollerith usava eletricidade para efetuar a leitura dos cartões e o processamento.

Com o sucesso da máquina também em outros países, Hollerith fundou a Tabuling Machine Company que mais tarde integrou a Internacional Business Machines Corporation - IBM.

O computador realmente surgiu na II guerra, onde a marinha dos E.U.A. desenvolvem o MARK I, baseado na calculadora de Babagge, e feito de relês eletromecânicos, e ocupava um volume de 120 m3, sendo que este conseguia multiplicar um número de 10 dígitos em 3 segundos em média. Foram construídas outras máquinas do modelo MARK, até o IV.

Em 1946 o exército dos E.U.A. desenvolvem o ENIAC (Eletronic Numerical Integrator and Calculater). Ela usava válvulas em vez de relês - tornou 1000 vezes mais rápidos que o MARK.
Tinha grande velocidade e pouca memória e a programação era feita através de fiação. Este computador era usado para cálculos de balística, o mesmo foi usado durante 10 anos.
• 18.000 válvulas
• 5.000 somas por segundo
• Guardava 20 dezenas de números digitais
• Ajudou o exército americano na 2ª guerra mundial
• Calculava o ângulo ou trajetória de uma bomba em 20 segundos
• 30 toneladas

Como consultor do projeto ENIAC, John Von Neumann, verificou o grande trabalho para reprogramar o ENIAC, assim formulou o conceito de programa armazenado. Não só os dados seriam armazenados na memória do computador, mas também o programa, com isso Von Neumann propôs que se codificassem as instruções de forma que pudesse ser armazenado na memória.

Utilizando os conceitos de cartões propostos por Von Neumann os construtores do ENIAC desenvolvem o UNIVAC I (Universal Automatic Calculater), sendo o primeiro computador a ser fabricado em série. Este já tinha a aparência dos grandes computadores atuais, com sistema de fitas magnéticas muito sofisticados.
• Clock de 2,25 MHz
• 100.000 cálculos por segundo

Em 1953 a IBM lança seu primeiro computador comercial, o IBM 701, a partir deste foram construídos uma série de outros, até o modelo 709, sendo todos a válvulas, o 709 lançado em 1958 já era um computador ultrapassado, pois nesta época já se usavam circuitos transistorizados.

Em 1959 é lançado o 7090, igual ao 709, mas usando circuitos transistorizados, após este outros modelos foram lançados, sendo que na década de 60 a IBM lança a família de computadores IBM/360, que se tornou padrão na história da computação, sendo que até hoje os computadores de grande porte da IBM são baseados na arquitetura do IBM/360, que revolucionou o processamento de dados no mundo inteiro.

Na década de 1970 acontece a segunda revolução, que é o surgimento do microcomputador que devido ao baixo custo permitiu um acesso bem mais amplo na área na informática, popularizando o uso dos computadores em diversas áreas.

Geração dos computadores

1ª Geração: (1946-1960)

 Tecnologia de válvulas;
 Utilizavam 20.000 válvulas;
 Quebravam após algum tempo;
 Utilizavam linguagem de máquina e
 Consumiam muita energia
 Ex: MARK I, ENIAC, EDVAC I, UNIVAC I, IBM 650

2ª Geração: (1960-1965)

 Tecnologia de transistor;
 Não precisavam de tempo para aquecer;
 Consumiam menos energia;
 Mais confiáveis e mais rápidos
 Ex: IBM 1401, IBM 7094

Chega ao Brasil o 1º computador (1961) - UNIVAC 1105 (válvulas) - IBGE

Geração dos computadores

3ª Geração: (1966-1970)

 Tecnologia de circuito integradoCI: transistores e outros componentes eletrônicos miniaturizados e montados em um único chip
 Muito menores
 Mais confiáveis
 Baixo consumo de energia
 Ex: IBM 360

4ª Geração: (A partir de 1970)

 Após 1970, as evoluções tecnológicas se deram na miniaturização dos componentes e os avanços ficaram relacionados com a ESCALA DE INTEGRAÇÃO dos CI.

 Exemplos de escalas de integração de CI
SSI: Small Scale of Integration
MSI: Medium Scale of Integration
LSI: Large Scale of Integration
VLSI: Very Large Scale of Integration
ULSI: Ultra Large Scale of Integration

Resumo da geração dos computadores


1951/1959 - Computadores de primeira geração:

 Circuitos eletrônicos e válvulas
 Uso restrito
 Precisava ser reprogramado a cada tarefa
 Grande consumo de energia
 Problemas devido à muito aquecimento

As válvulas foram utilizadas em computadores eletrônicos, como por exemplo no ENIAC, já citado anteriormente. Normalmente quebrava após algumas horas de uso e tinha o processamento bastante lento. Nesta geração os computadores calculavam com uma velocidade de milésimos de segundo e eram programados em linguagem de máquina.

1959/1965 - Computadores de segunda geração:

 Início do uso comercial
 Tamanho gigantesco
 Capacidade de processamento muito pequena
 Uso de transistores em substituição às válvulas

A válvula foi substituída pelo transistor. Seu tamanho era 100 vezes menor que o da válvula, não precisava de tempo para aquecimento, consumia menos energia, era mais rápido e confiável. Os computadores desta geração já calculavam em microssegundos (milionésimos) e eram programados em linguagem montadora.


1965/1975 - Computadores de terceira geração:

 Surgem os circuitos integrados
 Diminuição do tamanho
 Maior capacidade de processamento
 Início da utilização dos computadores pessoais

Os transistores foram substituídos pela tecnologia de circuitos integrados. Além deles, outros componentes eletrônicos foram miniaturizados e montados num único CHIP, que já calculavam em nanossegundos (bilionésimos).

Os computadores com Circuito Integrado são muito mais confiáveis, menores, possuem baixíssimo consumo de energia e menor custo. Nesta geração surge a linguagem de alto nível, orientada para os procedimentos.

1975/19?? – Aparecem os aplicativos de quarta geração:

 Surgem os softwares integrados
 Processadores de Texto
 Planilhas Eletrônicas
 Gerenciadores de Banco de Dados
 Gráficos
 Gerenciadores de Comunicação

De 75 à 77, ocorreram avanços significativos (microprocessadores - microcomputadores e supercomputadores). Em 77 houve uma explosão no mercado, sendo fabricados em escala comercial.

O processo de miniaturização (LSI - Large Scale of Integration, VLSI - Very Large Scale of Integration e ULSI - Ultra Large Scale of Integration). Nesta geração começa a utilização das linguagens de altíssimo nível, orientadas para um problema.

19?? - As principais características da quinta geração:

 Supercomputadores
 Automação de escritórios
 Automação comercial e industrial
 CAD/CAM e CAE
 Robótica
 Imagem virtual e Multimídia

Era on-line (comunicação através da Internet)O primeiro supercomputador surgiu no final de 75. As aplicações para eles são muito especiais e incluem laboratórios e centro de pesquisa aeroespacial como a NASA, empresas de altíssima tecnologia, produção de efeitos e imagens computadorizadas de alta qualidade, entre outros. Eles são os mais poderosos, mais rápidos e de maior custo.


Um pouco sobre internet

Nasceu em 1969, nos Estados Unidos. Interligava laboratórios de pesquisa e se chamava ARPAnet (ARPA: Advanced Research Projects Agency).

O Departamento de Defesa norte-americano no auge da Guerra Fria queriam uma rede que continuasse de pé em caso de um bombardeio.
Internet é uma rede em que todos os pontos se equivalem e não há um comando central. Se B deixa de funcionar, A e C continuam a se comunicar.
O nome Internet surgiu mais tarde, quando a tecnologia ARPAnet passou a ser usada para conectar universidades e laboratórios.

A Internet é um conjunto de mais de 40 mil redes no mundo inteiro. O que essas redes têm em comum é o protocolo TCP/IP (Transmission Control Protocol/Internet Protocol), que permite que elas se comuniquem umas com as outras.
Esse protocolo é a língua comum dos computadores que integram a Internet.
Então, a Internet pode ser definida como uma rede de redes baseadas no protocolo TCP/IP; uma comunidade de pessoas que usam e desenvolvem essas redes e uma coleção de recursos que podem ser alcançados através destas redes.

Durante cerca de duas décadas ficou restrita ao ambiente acadêmico e científico. Em 87 pela primeira vez foi liberado seu uso comercial nos EUA.

Em 92 começaram a aparecer nos EUA várias empresas provedoras de acesso à Internet. Centenas de milhares de pessoas começaram a pôr informações na Internet, que se tornou uma mania mundial.

No Brasil foi liberada a exploração comercial da Internet em 95. Em novembro de 1997 o Comitê Gestor da Internet avaliou o número de usuários no país em um milhão.

Funcionamento do computador


Armazenamento de informações

 Bit é a menor informação, representa um dígito binário;
 BYTE é o conjunto de 8 bits, que representa um caracter;
 KiloBytes ou Kbytes (KB):

Como todo mundo já percebeu, todo dia aparece um novo microchip com a capacidade de processar o dobro de dados que o chip da véspera tinha (o que faz com que aquele micro zerinho que nós compramos já esteja ultrapassado no momento em que é retirado da caixa). Por isso, a medidas também têm que ir aumentando. O primeiro salto foi o kilobyte. A palavra kilo vem do grego khilioi, que significa mil, logo um kilobyte tem mil bytes, certo? Infelizmente, a informática é simples, mas nem tanto. Um kilobyte tem 1024 bytes. Porque a base de tudo é o número 2, e a capacidade de processamento evolui em múltiplos, sempre dobrando em relação à medida anterior: 4K, 8K, 16K, 32K, 64K, 128K, 256K, 512K. O pulo seguinte, para 1024, dá o valor mais próximo de mil. Portanto, esse kilo de bytes aí já vem com um chorinho... Mas, para quem se liga em matemática, a explicação é que o sistema usa como base o logaritmo 2: o número 1024 corresponde a 2 elevado à décima potência.
 MegaBytes ou Mbytes (MB):

Tamanho de memória correspondente a 1 048 576 bytes, ou 2 elevado à potência 20. O termo mega teve origem no termo grego megas, grande. Daí derivou, por exemplo, megalomania, a chamada mania de grandeza.
 GigaBytes ou Gbytes (GB) são 1.073.741.824 bytes (bilhões de caracteres);
 TeraBytes ou Tbytes (TB) são 1024 Gbytes, Petabytes, Exabytes, Zettabytes, etc...

Obs: Bem que um byte poderia ter dez bits, já que os sistemas de base decimal são os mais usados no mundo, mas não são porque as combinações possíveis de oito dígitos são mais que suficientes para expressar qualquer número, letra ou símbolo (nossas placas de automóveis têm sete caracteres pelo mesmo motivo). Hoje estamos muito acostumados à prevalência métrica de base 10, mas muitas matemáticas foram construídas tendo como base o 60 - uma herança que recebemos os babilônios, há 40 séculos - e não o 10. O triunfo do 10, fruto da prosaica vitória de nossas mãos e pés de dez dedos, não impediu, no entanto, que a base 60 ainda seja amplamente usada - no contar das horas e dos graus, por exemplo - e que conviva com o atual reinado da base decimal. Quem sabe se, num futuro movida à computação, o oito não passará a ser o único padrão.

Curiosidade

Alguns afirmam erroneamente que num computador de 32 bits um byte tem 32 bits. ERRADO ! Um byte sempre terá 8 bits. Em conseqüência, um computador de 32 bits tem a capacidade de processar 4 bytes ao mesmo tempo. A isso chamamos de palavra. 4 bytes é o tamanho da palavra desse computador.

Hardware

Todas as partes físicas da máquina (vídeo, unidade de disco, os fios, os circuitos integrados, etc.). Comparando com a televisão temos como hardware o aparelho de televisão, os programas que assistimos seria o software. O hardware de um computador se divide basicamente em três partes:

Memória: Armazenar informações (programas e
dados). O tamanho da memória é muito limitado.
O armazenamento destas informações se dá
através de memórias auxiliares (disco, fitas ou
disquetes). Existem dois tipos de memória: RAM e ROM.

Memória RAM: A memória RAM é mais um dos componentes essenciais dos computadores PCs. O processador utiliza a memória RAM para armazenar programas e dados que estão em uso, ficando impossibilitado de trabalhar sem pelo menos uma quantidade mínima dela. A sigla “RAM” significa “Ramdom Access Memory“ ou “Memória de Acesso Aleatório”. Este nome é mais do que adequado, pois a principal característica da memória RAM é a capacidade de fornecer qualquer dado anteriormente gravado, com um tempo de resposta e uma velocidade de transferência centenas de vezes superior à dos dispositivos de memória de massa, como o disco rígido. Mais uma característica marcante da memória RAM é o fato dela ser volátil, precisando ser constantemente reenergizada para conservar os dados gravados. Como numa calculadora, perdemos todos os dados nela armazenados quando desligamos o computador. Se por exemplo você estiver escrevendo uma carta no Word, e, de repente houver um pico de tensão e o computador reinicializar, sem lhe dar tempo para salvar a carta no disco rígido, você perderá todo seu trabalho. Antigamente, os módulos de memória RAM custavam muito caro.
Memória ROM: ROM é a sigla para Read Only Memory ou memória somente de leitura. Já pelo nome, é possível perceber que esse tipo de memória só permite leitura, ou seja, suas informações são gravadas pelo fabricante uma única vez e após isso não podem ser alteradas ou apagadas, somente acessadas. Em outras palavras, são memórias cujo conteúdo é gravado permanentemente.

C.P.U.: O ‘cerébro’ do computador, em torno do qual se organizam os demais elementos do sistema. É encarregada da execução dos programas e estão acondicionadas a ela a Unidade Lógica e Aritmética (operação dos dados encontrados no interior da CPU), Unidade de Controle (é utilizada para coordenar todas as unidades da máquina) e Registradores (armazenadores de informações).

Periféricos: Unidades ligadas ao computador, que fazem
a comunicação entre CPU e o mundo exterior. São divididos
em Entradas (Teclado, Mouse etc), Saídas (Vídeo, Impressora
etc.) e Memória Auxiliar (Drive, Winchester etc).

Hardware – Gravando e Lendo Bits

Superfície do disco: filme magnético (contém partículas de ferro espalhadas de forma aleatória;
A eletricidade pulsa em uma bobina de ferro na cabeça de L/G; Gravação: a bobina induz um campo organizado as partículas (em um sentido 0, no outro 1);

Leitura: o magnetismo das partículas polarizadas na gravação induz corrente na bobina (em um ou outro sentido)

Hardware – Disco Rígido

 Velocidade: acima de 7200 rpm
 Capacidade: Vários Gb
 Em geral 8 discos graváveis dos
dois lados
 Acesso aos dados de maneira organizada
 Trilhas, setores, clusters
 Organizam o acesso das cabeças de leitura/gravação

 Cluster: unidade mínima de leitura/gravação
 Um cluster consiste de vários setores (logicamente) contíguos
 Um arquivo ocupa no mínimo um cluster
 Um arquivo pode ocupar vários clusters de forma não seqüêncial (cada cluster indica o próximo)
 Diretório:
 Localizado em uma trilha fixa (normalmente 0)
 Possui lista de arquivos e cluster inicial

Hardware – Unidade de Fita

 Cópia física do disco inteiro
 Custo/capacidade (1Gb)
 Tipos: QIC, DAT, DLT (4 cabeças; duas
gravam e duas lêem fazendo conferência
dos dados que estão sendo gravados)

Hardware – Unidade Ótica

A sensibilidade das cabeças de R/W de um disco magnetico são limitadas

Um laser consegue atingir área muito menores

Funcionamento

 Usa-se a mesma cabeça magnética mas ela não consegue polarizar sozinha o material usado nestes discos
 O laser aquece uma região diminuta que então fica sensível ao magnetismo e é organizada
 A leitura é feita por um laser de menor intensidade
 O feixe emitido é refletivo pelas partículas organizadas anteriormente e é captado por um sensor

Hardware – Unidade Ótica

Gravação

Leitura

Otimizando o Tempo

Memória Cache: A memória cache surgiu quando se percebeu que as memórias não eram mais capazes de acompanhar o processador em velocidade, fazendo com que muitas vezes ele tivesse que ficar “esperando” os dados serem liberados pela memória RAM para poder concluir suas tarefas, perdendo muito em desempenho.

 O S.O. lê mais clusters que o necessário porque provavelmente serão os próximos a serem requisitados
 Tipo ultra-rápido de memória que serve para armazenar os dados mais freqüentemente usados pelo processador, evitando na maioria das vezes que ele tenha que recorrer à comparativamente lenta memória RAM. Sem ela, o desempenho do sistema ficará limitado à velocidade da memória, podendo cair em até 95%!.

Desfragmentação: Como funciona: imagine que você tenha vários arquivo de tamanhos diferentes gravados no HD e que seriam representados por + e - ,e imagine que estes arquivos estejam representados da seguinte forma

fotocarrofotopraiaprogramagameprogramaeditor
documentolista1documentolista2

Agora imagine que tenha que deletar o arquivo
fotopraia que tem 9 caracteres

fotocarro programagameprogramaeditor
documentolista1documentolista2

Ficou um espaço aberto bem no meio, agora imagine que tenha um arquivo chamado documentoimportante que tem 17 caracteres

fotocarrodocumentoprogramagameprogramaeditor
documentolista1documentolista2importante


 Re-organiza os arquivos em clusters posicionados de maneira a otimizar as operações de R/W (nem sempre contíguo)

Compactação/Compressão

Apesar de existirem vários métodos de compressão disponíveis, existem apenas duas categorias: compressão com perdas e compressão sem perdas. A compressão sem perdas é conhecida também como compactação.

Como o próprio nome diz, na compressão com perdas uma parte da informação é perdida durante o processo. Um exemplo típico é o da transformação dos arquivos de áudio para o padrão MP3. É claro que a perda nestes casos não altera significativamente a qualidade do som. Normalmente o grau de compressão desta categoria é muito maior do que o obtido na compactação.

Já na compactação, ou compressão sem perdas, nenhum bit do arquivo original será perdido após o processo. Assim, se compactamos um arquivo e o descompactamos em seguida, o arquivo original é restaurado sem nenhum tipo de perda. Quando utilizamos o programa Winzip, por exemplo, estamos usando uma técnica de compactação.

Tipos e Categorias

Os computadores podem ser classificados pelo porte (grande - mainframes, médio - minicomputadores e pequeno –microcomputadores). Os microcomputadores podem ser divididos em duas categorias: os de mesa (desktops) e os portáteis (notebooks e handhelds).

Conceitualmente todos eles realizam funções internas idênticas, mas em escalas diferentes.Os Mainframes se destacam por terem alto poder de processamento e muita capacidade de memória e armazenamento, e controlam atividades com grande volume de dados, sendo de custo bastante elevado. Operam em MIPS (milhões de instruções por segundo).

A classificação pode ser feita de diversas maneiras:

 capacidade de processamento;
 velocidade de processamento e volume de transações;
 capacidade de armazenamento das informações;
 sofisticação do software disponível e compatibilidade;
 tamanho da memória e tipo de CPU.

Os microcomputadores de mesa, são os mais utilizados no mercado de um modo geral e são divididos em duas plataformas: PC e Macintosh/Apple.

Software

Máquina usa linguagem binária, internamente, cada caracter de texto é representado como um conjunto de 8 bits (byte)

 Uma Instrução – uma ordem que um processador sabe executar
 Um Programa – uma seqüência específica de instruções
 Cada instrução - descrita por uma seqüência específica de 0s e 1s, arranjados de acordo com o que o processador entende ser uma da ordens que ele reconhece, e que define a tarefas para serem realizadas pelo mesmo

Instruções podem ser de:

 Movimentação de dados – entre processador e memória, processador e periférico, etc
 Lógicas – manipulações bit a bit de dados, tais como E, OU, OU-Exclusivo, NOT, etc.
 Aritméticas – manipulação de números como soma, subtração, multiplicação, etc
 Controle do fluxo de execução de instruções – testes, saltos condicionais/ incondicionais, etc

Tudo que se refere a programas do computador (S.O., editores, planilhas, bancos de dados, utilitários, sistemas em geral, jogos, etc). São divididos em três tipos:

 Sistema Operacional: Controla o hardware e software do computador, operando os recursos da máquina.
 Linguagens de Programação: Conjunto de palavras (comandos) e regras que permitem a construção de programas.
 Aplicativos e Utilitários: Programas elaborados em uma determinada linguagem de programação. Não exigem nenhum conhecimento técnico para operá-lo.

Software – Sistema Operacional
Sistema Operacional (como é conhecido no Brasil), é um conjunto de ferramentas necessárias para que um computador possa ser utilizado de forma adequada. Consiste na camada intermediária entre o aplicativo e o hardware da máquina.
Este conjunto é constituído por um núcleo, e um conjunto de software básicos, que executam operações simples, mas que juntos fazem uma grande diferença.
Se não existissem sistemas desse tipo, todo software desenvolvido deveria saber se comunicar com os dispositivos do computador de que precisasse.
Quando temos um Sistema Operacional, é ele quem precisa saber lidar com os dispositivos, sabendo falar com a placa de som, a internet, as disquetes... Assim, um software que seja feito para funcionar neste sistema não precisará de informações específicas do equipamento. Ao invés disso, ele chamará uma função do núcleo e o Sistema Operacional é que fará a comunicação, repassando os resultados.
Cada Sistema Operacional pode ter uma linguagem de máquina própria e distinta. Por isso é comum que softwares feitos para um Sistema Operacional não funcionem em outro.
Principais funções desempenhadas

 Gerência de arquivos
 Gerência de processos
 Gerência de memória
 Gerência de periféricos

Software – Linguagem de Programação
Uma linguagem de programação é um método padronizado para expressar instruções para um computador. É um conjunto de regras sintáticas e semânticas usadas para definir um programa de computador. Uma linguagem permite que um programador especifique precisamente sobre quais dados um computador vai atuar, como estes dados serão armazenados ou transmitidos e quais ações devem ser tomadas sob várias circunstâncias.
O conjunto de palavras, compostos de acordo com essas regras, constituem o código fonte de um software. Esse código fonte é depois traduzido para código de máquina, que é executado pelo processador.
Uma das principais metas das linguagens de programação é permitir que programadores tenham uma maior produtividade, permitindo expressar suas intenções mais facilmente do que quando comparado com a linguagem que um computador entende nativamente (código de máquina). Assim, linguagens de programação são projetadas para adotar uma sintaxe de nível mais alto, que pode ser mais facilmente entendida por programadores humanos. Linguagens de programação são ferramentas importantes para que programadores e engenheiros de software possam escrever programas mais organizados e com maior rapidez.
Definida a partir de:

 alfabeto - conjunto de símbolos para combiná-los para formar o conjunto de palavras válidas na linguagem (ex: ASCII-E)
 regras – regras sintáticas e semânticas usadas na escrita de um programa de computador.
 sentenças – a partir do conjunto de palavras, e de um conjunto de regras para combiná-las chega-se a um conjunto de frases válidas na linguagem (ex: if i=0 then j=k;)

Linguagem de programação – Tradutores / Compiladores
Uma linguagem de programação pode ser convertida em código de máquina por compilação ou interpretação.
Se o método utilizado traduz todo o texto do programa (também chamado de código), para só depois executar (ou rodar, como se diz no jargão da computação) o programa, então diz-se que o programa foi compilado e que o mecanismo utilizado para a tradução é um compilador (que por sua vez nada mais é do que um programa). A versão compilada do programa tipicamente é armazenada em forma de programa objeto, de forma que esse programa pode ser executado um número indefinido de vezes sem que seja necessária nova compilação, o que compensa o tempo gasto na compilação. Isso acontece com linguagens como Pascal e C (linguagem de programação de alto nível).

Características:
 Velocidade de execução do programa compilado;
 Executa várias vezes sem precisar ser compilado novamente;
 Qualquer alteração demanda nova compilação;
 Tempo de compilação extenso.

Se o texto do programa é traduzido à medida em que vai sendo executado, como em Javascript, Python ou Perl, num processo de tradução de trechos seguidos de sua execução imediata, então diz-se que o programa foi interpretado e que o mecanismo utilizado para a tradução é um interpretador. Programas interpretados são geralmente mais lentos do que os compilados, mas são também geralmente mais flexíveis, já que podem interagir com o ambiente mais facilmente (freqüentemente linguagens interpretadas são também de script).

Características:
 escrever-testar-corrigir-escrever-testar-distribuir ao invés do escrever-compilar-testar-corrigir-compilar-testar-distribuir;
 Lento na sua execução;
 Mas flexível e dinâmico.
Embora haja essa distinção entre linguagens interpretadas e compiladas, as coisas nem sempre são tão simples. Há linguagens compiladas para um código de máquina de uma máquina virtual (sendo esta máquina virtual apenas mais um software, que emula a máquina virtual sendo executado em uma máquina real), como o Java e o Parrot. E também há outras formas de interpretar em que os códigos-fontes, ao invés de serem interpretados linha-a-linha, têm blocos "compilados" para a memória, de acordo com as necessidades, o que aumenta a performance dos programas quando os mesmos módulos são chamados várias vezes.

Software – Utilitários

Programas que ampliam os recursos do sistema, administram o ambiente, oferecendo ferramentas ao usuário para organizar os discos, verificar a memória, corrigir falhas, etc.

Exemplos: formatadores de discos, compactadores de arquivos e hierarquias de arquivos, desfragmentadores de discos, protetores contras vírus, programas de backup (salvamento de informações em meios de armazenamento secundário)


Software – Aplicativos

Programas voltados para apoio a solução de problemas de usuário ou grupo de usuários. (Ex.: Editores de texto, Planilhas eletrônicas, Ferramentas de correio eletrônico e Geradores de desenhos, etc.)

 Aplicações genéricos: editores de texto, editoração eletrônica, planilhas eletrônicas (Word, TeX/LaTeX, Excel, etc);

 Aplicações gráficas: criação de desenhos e apresentações (CorelDraw, PowerPoint, Paint, Visio, etc);

 Aplicações pessoais: programas destinados facilitar o gerenciamento de informações pessoais (agenda, calendário,etc);

 Aplicações educacionais: cooperam com o educador para desenvolver conhecimentos e habilidades dos alunos;

 Aplicações de entretenimento: servem para o lazer do usuário (jogos, visualizadores de vídeos, reprodutores arquivos de áudio)

 Browsers: servem para navegação na Internet (Nestcape, Mozilla, Internet Explorer, etc.)

Arquivos

Campo - Conjunto de caracteres que representam uma informação. Exemplo: nome do cliente, código do cliente.

Registro - Conjunto de campos relacionados entre si, tratados como uma unidade. Todos os registros de um mesmo arquivo têm os mesmos campos. Exemplo: registro de dados cadastrais de um cliente.

Arquivo - Conjunto de registros. Pode ou não ser seqüencial. Exemplo: arquivo de dados cadastrais de clientes.


Bancos de Dados

É um sistema computadorizado de arquivamento de
registros que facilita as tarefas de administração de
dados (inter-relacionamento de dados e centralização
da atualização), incluído as funções de (i) definição de
dados, (ii) manipulação de dados (inserção, exclusão,
alteração, consulta) e (iii) apresentação e formatação
de dados.


Chave, índice e ordenação

Chave - Campo que identifica registro no arquivo. Torna-o único no arquivo.

Índice - Estrutura de acesso que reduz o tempo de localização de um registro. É mais compacta e pode ter frações maiores na memória principal.

Permite determinação do endereço de modo mais ágil do que a busca direta sobre o arquivo.

Ordenação - Ordem em que os registros são armazenados e/ou processados. Sempre que possível, a ordem em que os registros são processados deve coincidir com a que são armazenados, uma vez que a leitura dos registros na seqüência de armazenamento é mais rápida.

Dado, informação e representação

Histórico

Acredita-se que a necessidade de criação de números veio com a necessidade de contar. Seja o número de animais, alimentos, ou coisas do tipo. Como a evolução nos legou algumas características, como os cinco dedos em cada mão e cinco dedos em cada pé, seria muito natural que os primeiros sistemas de numeração fizessem uso das bases 10 (decimal) e 20 (vigesimal).

Base de um Sistema de Numeração

Binária (Base 2);
Octal (Base 8);
Decimal (Base 10);
Hexadecimal (Base 16)

101002 = 248 = 2010 = 1416

Teorema da Representação por Base

Seja k qualquer inteiro maior que 1 (lembre que a palavra inteiro é usada apenas para números representados na base decimal). Então, para cada inteiro positivo n, existe uma representação:

n = a0ks + a1ks-1 + ... + as

onde a0>0 e cada ai é um inteiro não negativo maior que k.

Esta representação de n é unica e é chamada de representação de n na base k.

1. 1210 = 1.101 + 2.100 = 1210
2. 1710 = 1.161 + 1.160 = 1116
3. 1210 = 1.23 + 1.22 + 0.21 + 0.20 = 11002
4. 1210 = 1.81 + 4.80
Representação

(309)10 = 3.102 + 0.101 + 9.100
(309,57)10 = 3.102 + 0.101 + 9.100 + 5.10-1 + 7.10-2
(574)10= 5x102 + 7x101 + 4x100
(348)10 = 3x102 + 4x101 + 8x100
(432,5)10= 4x102 + 3x101 + 2x100 + 5x10-1


Representação na Base 10 (decimal)

(309)10 = 3.102 + 0.101 + 9.100
(309,57)10= 3.102 + 0.101 + 9.100 + 5.10-1 + 7.10-2


Sistema Decimal

(574)10= 5x102 + 7x101 + 4x100
(348)10 = 3x102 + 4x101 + 8x100
(432,5)10= 4x102 + 3x101 + 2x100 + 5x10-1


Sistema Binário

(10011)2= (1.24 +0.23 + 0.22 + 1.21 + 1.20)10


Vantagens do Sistema Binário em Relação ao Sistema Decimal

Simplicidade de representação física, bastam 2 estados distintos
Simplicidade na definição de operações aritméticas fundamentais

Desvantagens do Sistema Binário

Necessidade de registros longos para armazenamento de números.

Ex.: (597)10 = (1001010101)2


Sistema Hexadecimal

(1A0)16= 1x16 2 + Ax16 1 + 0x16 0
= (1x16 2 + 10x16 1 + 0x16 0)10
= (256 + 160 + 0) 10 = (416)10

(1A0, C)16= 1x16 2 + Ax16 1 + 0x16 0 + Cx16 -1
= (1x16 2 + 10x16 1 + 0x16 0 + 12x16 -1 )10
= (256 + 160 + 0 + 12/6) 10 = (416,75)10

Vantagem do Sistema Hexadecimal

Número reduzido de símbolos para representar grandes quantidades, por isso é um sistema de numeração interessante para visualização e armazenamento de dados. Os registros binários internos de uma máquina digital são convertidos de forma direta para Hexadecimal quando são necessárias visualizações externas, requisitadas pelo usuário.


Ex.: (1101 0110)2 = (D6)16 = (214)10
oito bits 2 símbolos hexadecimais

Obs.: Até a década de 70 as máquinas digitais se utilizavam do sistema de numeração octal, de base 8, para visualizar os registros binários internos.

Conversão da Base 10 para a Base b
Nestes casos as conversões são obtidas escrevendo o respectivo número na sua forma fatorada, representada na base decimal.

(a1a2a3,a4a5)b = (a1 . b2 + a2 . b1 + a3 . b0 + a4 . b-1 + a5 . b-2)10

(101,1)2 = 1 . 22 + 0 . 21 + 1 . 20 + 1 . 2-1 = (5,5)10
(1A,B)16 = 1 . 161 + A . 160 + B . 16-1 = (26,6875)10



Conversão da Base b para a Base 10 (decimal)

(17,5)10 = ((i),(ii))bProcedimento de conversão:

i) Parte inteira: divide-se sucessivamente pela base b, e constrói-se o novo número escrevendo o último quociente e os restos obtidos nas divisões.
Ex.: (19)10 = ( )2

19 | 2
1 9 | 2
1 4 | 2
0 2 | 2
0 1


(19)10 = (10011)2 = 1.24 + 0.23 + 0.22 + 1.21 + 1.20

Conversão da Base b para a Base 10 (decimal)
(527)10 = ( )16
527 | 16
15 32 | 16
0 2

(527)10 = (20F)16 = 2.162 + 0.161 + F.160

CONTINUA...
Criar uma Loja online Grátis  -  Criar um Site Grátis Fantástico  -  Criar uma Loja Virtual Grátis  -  Criar um Site Grátis Profissional