quinta-feira, 14 de agosto de 2008

15 de Agosto - Dia da Informática


A história da computação começou recentemente para a humanidade, se considerarmos a evolução da espécie. O computador é uma máquina capaz de efetuar cálculos com um grupo de números, "lembrar" o que foi computado e, ainda, pode ser adaptado para efetuar outros cálculos com um novo grupo de números.
O primeiro "modelo" foi o ábaco, um ancestral do computador, usado desde 2000 a.C., e que ainda é encontrado no Japão e em outros países. O ábaco é uma "engenhoca" de madeira retangular com fileiras de arames nos quais correm pequenas bolas, usadas em operações aritméticas, todas feitas manualmente, bola por bola. Blaise Pascal, matemático, físico e filósofo francês inventou a primeira calculadora mecânica em 1642, aos 18 anos de idade, talvez para ajudar o pai que era fiscal de impostos. Pascal chamou a invenção de pascalina.
Outro "pai" do computador é o matemático Charles Babbage, que nasceu numa rica família inglesa, em 1791. Em 1834, ele planejou uma máquina analítica que tinha muita das características dos computadores
modernos. Os "programas" eram controlados por cartões perfurados e os resultados impressos automaticamente. Possuía também um "contador" aritmético e dispositivos de memória separados. Grande parte da arquitetura lógica e da estrutura dos computadores atuais provém dos projetos de Charles Babbage, que é lembrado como um dos fundadores da computação moderna.
Só por volta de 1936, as idéias de Babbage foram comprovadas, quando um jovem matemático de Cambridge, Alan Turing, publicou um artigo chamado On computable numbers. O nome de Turing é quase desconhecido para o público, porém ele liderou uma equipe de pesquisa na Inglaterra e desenvolveu a mais secreta invenção da Segunda Guerra Mundial, o Colossus, primeiro computador eletromecânico do mundo, que podia decifrar os códigos alemães durante a guerra.
Depois da guerra, Turing colaborou no projeto do primeiro computador dos Estados Unidos, o ENIAC, desenvolvido na Universidade da Pensilvânia, em 1946. Uma das razões pelas quais Turing era desconhecido era porque ele trabalhava para o serviço secreto inglês.
O desenvolvimento do computador continuou, mas só com a invenção do transistor de silício, em 1947, tornou-se possível aumentar a velocidade das operações na computação. Os transistores substituíram as válvulas, sendo mais rápidos, mais exatos e não gerando calor. Em meados dos anos 60, os cientistas observaram que um circuito eletrônico funcionaria de modo igualmente satisfatório se tivesse o tamanho bem reduzido.
Os laboratórios começaram experimentando a colocação de um circuito num único chip de silício, gravando o circuito no chip, assim, antes do fim dos anos 60, nasceu o "circuito integrado". O desenvolvimento de um circuito em um único chip levou, naturalmente, à construção de múltiplos circuitos em um só chip, e o resultado inevitável da colocação de vários chips juntos é o conhecido microprocessador.
Apesar da pouca semelhança entre a tecnologia do microchip atual e os diversos projetos de Babbage e Turing, podemos dizer que a "arquitetura" prática criada por Charles Babbage ainda é utilizada nos microprocessadores atuais, e a teoria matemática de Turing, que possibilitou tudo isso, ainda não foi superada. É correto dizer que o computador é uma máquina que armazena sinais elétricos que representam números.
Alguns desses números são instruções que dizem ao computador o que fazer com os outros números. A máquina seguirá essas instruções com exatidão, sem se cansar e sem cometer erros (embora reproduza fielmente os erros do programador), a uma média de vários milhares de operações por segundo. Resultado dessa incansável manipulação: mais números, por sua vez "traduzidos", nas informações que desejamos e numa forma que podemos compreender.
A atividade dos programadores (seres humanos) torna o computador um instrumento útil, explorando sua destreza para realizar tarefas, transformando problemas em soluções.
Os computadores digitais do início do século XXI, que podem ser comprados em supermercados e se tornou uma máquina popular capaz de realizar um grande número de tarefas, dependendo de como são programados pelos usuários. Apesar da informática facilitar nossa vida, não podemos deixar que as máquinas substituam, completamente, o trabalho humano. O progresso tem que estar a serviço do homem e não contra ele.

fonte:
http://www.trabalhonota10.com/datas-comemorativas/08-agosto/15-dia-da-informatica.html

2 comentários:

Coiote disse...

"Apesar da informática facilitar nossa vida, não podemos deixar que as máquinas substituam, completamente, o trabalho humano. O progresso tem que estar a serviço do homem e não contra ele."

Infelizmente, isto não é realidade, junto com a Revolução Industrial, veio o aumento da discrepância sócio-econômica.

Ótimo post!

Bjs!!!

Victor S. Gomez disse...

Tenho orgulho de ter fundado a primeira escola de informática popular e a primeira biblioteca comunitária de Seropédica em 2000, que estão funcionando até hoje. Abraços