DIA DA INFORMÁTICA
A história da computação começou recentemente para a humanidade, se considerarmos
a evolução da espécie. O computador é uma máquina capaz de efetuar cálculos
com um grupo de números, armazenar e exibir o que foi computado e, ainda,
adaptar-se para efetuar outros cálculos com um novo grupo de números.
O primeiro "modelo" foi o ábaco, um ancestral do computador, usado
desde 2000 a.C.; ainda é encontrado no Japão e em outros países. O ábaco consta
de um tabuleiro retangular de madeira, com fileiras de arames nos quais deslizam
pequenas bolas, ou argolas, usadas em operações aritméticas, feitas manualmente,
movimentando-se as bolas em grupos.
Blaise Pascal, matemático, físico e filósofo francês, inventou a primeira
máquina calculadora em 1641, aos 18 anos de idade, talvez para ajudar o pai,
que era fiscal de impostos. Pascal chamou a invenção de "pascalina".
Outro "pai" do computador é o matemático inglês Charles Babbage,
que nasceu numa rica família inglesa, em 1792. Em 1834, criou uma máquina
de calcular analítica que tinha muitas das características dos computadores
modernos. Os "programas" eram controlados por cartões perfurados,
e os resultados saíam impressos automaticamente.
Havia também um "contador" aritmético e dispositivos de memória
separados. Grande parte da arquitetura lógica e da estrutura dos computadores
atuais provêm dos projetos de Babbage, que é lembrado como um dos fundadores
da computação moderna.
Em 1936, as idéias de Babbage foram comprovadas, quando um jovem matemático
inglês, Alan Turing, publicou um artigo chamado "On computable numbers"
[Sobre números computadorizados].
Embora Turing seja quase desconhecido, sabe-se que ele liderou uma
equipe de pesquisa na Inglaterra e desenvolveu a mais secreta invenção da
Segunda Guerra Mundial: o Colossus, primeiro computador
eletromecânico do mundo, que podia decifrar os códigos alemães durante a guerra.
Depois da guerra, Turing colaborou no projeto do primeiro computador eletrônico
dos Estados Unidos, o Eletronic Numerical Integrator and Calculator (Eniac),
desenvolvido na Universidade da Pensilvânia, em 1946. Turing era desconhecido
porque trabalhava para o serviço secreto inglês.
O desenvolvimento do computador continuou, mas só com a invenção do transistor
de silício, em 1947, tornou-se possível aumentar a velocidade das operações
na computação. Os transistores substituíram as válvulas, por serem mais rápidos,
mais exatos e não gerarem calor.
Em meados da década de 1960, os cientistas observaram que um circuito eletrônico
funcionaria de modo igualmente satisfatório se tivesse o tamanho bem reduzido.
Os laboratórios começaram experimentando a gravar o circuito num único chip
de silício. Antes do fim da década de 1960 nasceu o "circuito integrado".
O desenvolvimento de um circuito em um único chip levou, naturalmente, à
construção de múltiplos circuitos em um só chip. O resultado da colocação
de vários chips juntos é o conhecido microprocessador.
Apesar da pouca semelhança entre a tecnologia do microchip atual e os diversos
projetos de Babbage e Turing, pode-se afirmar que a estrutura prática criada
por Babbage ainda é utilizada nos microprocessadores atuais. A teoria matemática
de Turing, que possibilitou tudo isso, ainda não foi superada.
O computador é, pois, uma máquina que armazena sinais elétricos que representam
números. Alguns destes são instruções que dizem ao computador o que fazer
com os outros números.
A máquina segue essas instruções com exatidão, sem se cansar e sem cometer
erros (embora reproduza fielmente os erros do programador); processa milhares
de operações por segundo, cujo resultado são mais números, por sua vez "traduzidos"
nas informações desejadas e numa forma compreensível.
A atividade dos programadores (seres humanos) torna o computador um instrumento
útil, explorando sua destreza para realizar tarefas e transformando problemas
em soluções.
Os computadores digitais do início do século XXI podem ser comprados em supermercados
e se tornaram máquinas populares capazes de realizar um grande número de tarefas,
dependendo de como são programados pelos usuários.
Apesar de a informática facilitar a vida do ser humano, ele não pode deixar
que as máquinas substituam completamente o seu trabalho, porque o progresso
tem de estar a seu serviço e não contra ele.
Fonte: www.paulinas.org.br
Nenhum comentário:
Postar um comentário