A história do computador
Computador, como definido pelo Dicionário Brasileiro Globo, é "Aquele que faz contas". Na verdade, hoje em dia, as operações que podem ser realizadas por um computador vão bem além das contas "triviais" que marcaram o seu início, e que motivaram a sua construção.
Historicamente, o primeiro artefato humano utilizado para realizar contas foi o ábaco. A sua origem remonta a Ásia Menor, 500 anos atrás. Existiram várias formas de ábacos, idealizados pelas várias culturas em que foram usados/criados. No entanto, o seu uso sofreu franca diminuição, sobretudo na Europa, a partir da consolidação do uso do papel e da caneta.
Seguindo a linha histórica, e lidando com "engenhocas" mais sofisticadas, é criada por Pascal, em 1642, a primeira máquina de calcular de que se tem notícia. Ela funcionava através de engrenagens mecânicas, e conseguia realizar somente a soma. No entanto, 52 anos depois, Leibniz aprimora o invento de Pascal, de tal forma que a nova "calculadora" mecânica já era capaz de realizar a multiplicação, além da soma.
Apesar disso, é somente a partir de 1820 que as máquinas de calcular mecânicas começam a ser amplamente utilizadas. Já nesta época, Charles de Colmar inventa uma nova calculadora, que consegue realizar todas as quatro operações aritméticas básicas: soma, subtração, divisão e multiplicação. E este era o estágio em que se estava até a I Guerra Mundial, na era da computação mecânica.
Mas o início real do desenvolvimento dos computadores como os conhecemos hoje se deve a Charles Babbage, matemático inglês que, em 1812, percebe uma " harmonia natural entre máquinas e matemática". Não se deve perder de vista que Babbage vivia no contexto da Revolução Industrial inglesa, que estava mudando radicalmente a forma de ver, pensar e agir da sociedade européia da época. Segundo observou Babbage, as operações matemáticas repetitivas poderiam ser desenvolvidas com mais agilidade e confiabilidade pelas máquinas do que pelos homens. Estimulado por isso, ele idealizou uma máquina à vapor, que seria capaz de realizar cálculos matemáticos mais complexos do que as quatro operações aritméticas básicas. Esta máquina, maior do que uma locomotiva, nunca foi construída na prática, mas as idéias do seu idealizador foram fundamentais para os progressivos avanços na computação mecânica.
Em 1889, Herman Hollerith, inventor americano, e fundador da empresa que deu origem à IBM, estava às voltas com um problema norte-americano: estava sendo realizado um censo demográfico no país, mas se temia pela quantidade de tempo necessário para apurar todos os resultados desejados. Para piorar o caso, no censo realizado 10 anos antes, foram necessários sete anos para se chegar aos reultados buscados. Por conta disso, acreditava-se que, para este novo censo, seriam necessários 10 anos de análise.
No entanto, com a máquina inventada por Hollerith, o resultado do censo foi apurado em apenas seis semanas. Além da agilidade que conferiu ao processo, a máquina deste americano trazia consigo a idéia de cartões perfurados para amazenar dados. Ou seja, os cartões perfurados seriam naquela época algo parecido ao que são agora os disquetes (guardadas as devidas proporções).
Mas um problema que estes computadores mecânicos apresentavam, é que as suas engrenagens eram muito numerosas e complexas. Por conta disso, em 1903, é proposto um computador 100% eletrônico, e que utilizava a álgebra booleana. A álgebra booleana é a famosa álgebra binária, do verdadeiro ou falso, do 0 ou 1, e é a base de todos os sistemas computacionais de hoje em dia.
Mas foi a partir da II Guerra Mundial que o desenvolvimento dos computadores eletrônicos ganhou mais força, quando os governos perceberam o potencial estratégico que estas máquinas ofereciam. Assim, os alemães desenvolveram o Z3, computador capaz de projetar aviões e mísseis. Pelo lado britânico, foi desenvolvido o Colossus, utilizado para a decodificação das mensagens alemães.
Com o fim da guerra, e o início da Guerra Fria, a corrida pelo desenvolvimento de novos e mais poderosos computadores só aumentou. Um marco neste desenvolvimento foi a construção do ENIAC. Ele era tão grande, que consumia energia equivalente a um bairro inteiro da cidade da Filadéfia. A importância do ENIAC é que ele, diferentemente de todos os computadores que foram desenvolvidos anteriormente, não era destinado a uma operação específica (projetar aviões/mísseis, ou decodificar códigos), mas poderia ser usado de maneira geral, parecido com o que fazem os computadores hoje.
ENIAC:
Em meados dos anos 40, John von Neumann, juntamente com a equipe da Universidade da Pensilvânia, propõe a arquitetura de computadores, que marcaria (e alavancaria) o desenvolvimento destas máquinas até os dias de hoje. Esta arquitetura era formada por uma unidade que centralizaria o processamento da máquina (a CPU), e por uma outra que armazenaria os programas (as funções a serem realizadas), que era a unidade de memória.
Com o tempo, os componentes do computador foram mudados das dispendiosas válvulas, para os mais baratos, econômicos e "miniaturizáveis" transistores. Com isso, os computadores puderam diminuir de tamanho, e consumir menos energia. Isto os tornava mais acessível, fisica e economicamente, para outras pessoas e instituições.
Além disso, para fazer com que a máquina executasse as funções que se desejava, era necessário que isto "fosse informado a elas". Da mesma forma como uma pessoa se comunica com outra através de alguma linguagem (oral, escrita ou gestual) que ambas dominam, era necessário que o programador "se comunicasse com a máquina" através de uma linguagem que os dois "entendessem". Nos primeiros computadores, esta linguagem era demasiadamente complicada para os seres humanos. No entanto, com o tempo, as liguagens foram se tornando mais claras para os homens , o que motivava a utilização do computador por mais gente.
O último marco nesta evolução, para chegarmos aos computadores como conhecemos hoje, foi a invenção dos sistemas operacionais, dos quais o Windows é um exemplo. Estes sistemas permitem que vários programas estejam rodando ao mesmo tempo, conferindo grande flexibilidade ao uso do computador.
Por conta disso tudo, os computadores começaram a se tornar mais baratos, mais "amigáveis" e mais "úteis" às pessoas comuns. Por isso, sobretudo a partir da década de 80, os computadores começaram a se popularizar, e hoje são realidade para milhões de pessoas no mundo inteiro.
Mas se os computadores, como aconteceu, foram se tornando mais poderosos e utilizados, também cresceu enormemente a quantidade de dados espalhados pelo mundo, e a necessidade/possibilidade de pessoas se comunicarem com outras virtualmente (à distância). Esta é a base, então, do surgimento e da consolidação do uso das redes de computadores, e da internet, no mundo de hoje.
.
Computador, como definido pelo Dicionário Brasileiro Globo, é "Aquele que faz contas". Na verdade, hoje em dia, as operações que podem ser realizadas por um computador vão bem além das contas "triviais" que marcaram o seu início, e que motivaram a sua construção.
Historicamente, o primeiro artefato humano utilizado para realizar contas foi o ábaco. A sua origem remonta a Ásia Menor, 500 anos atrás. Existiram várias formas de ábacos, idealizados pelas várias culturas em que foram usados/criados. No entanto, o seu uso sofreu franca diminuição, sobretudo na Europa, a partir da consolidação do uso do papel e da caneta.
Seguindo a linha histórica, e lidando com "engenhocas" mais sofisticadas, é criada por Pascal, em 1642, a primeira máquina de calcular de que se tem notícia. Ela funcionava através de engrenagens mecânicas, e conseguia realizar somente a soma. No entanto, 52 anos depois, Leibniz aprimora o invento de Pascal, de tal forma que a nova "calculadora" mecânica já era capaz de realizar a multiplicação, além da soma.
Apesar disso, é somente a partir de 1820 que as máquinas de calcular mecânicas começam a ser amplamente utilizadas. Já nesta época, Charles de Colmar inventa uma nova calculadora, que consegue realizar todas as quatro operações aritméticas básicas: soma, subtração, divisão e multiplicação. E este era o estágio em que se estava até a I Guerra Mundial, na era da computação mecânica.
Mas o início real do desenvolvimento dos computadores como os conhecemos hoje se deve a Charles Babbage, matemático inglês que, em 1812, percebe uma " harmonia natural entre máquinas e matemática". Não se deve perder de vista que Babbage vivia no contexto da Revolução Industrial inglesa, que estava mudando radicalmente a forma de ver, pensar e agir da sociedade européia da época. Segundo observou Babbage, as operações matemáticas repetitivas poderiam ser desenvolvidas com mais agilidade e confiabilidade pelas máquinas do que pelos homens. Estimulado por isso, ele idealizou uma máquina à vapor, que seria capaz de realizar cálculos matemáticos mais complexos do que as quatro operações aritméticas básicas. Esta máquina, maior do que uma locomotiva, nunca foi construída na prática, mas as idéias do seu idealizador foram fundamentais para os progressivos avanços na computação mecânica.
Em 1889, Herman Hollerith, inventor americano, e fundador da empresa que deu origem à IBM, estava às voltas com um problema norte-americano: estava sendo realizado um censo demográfico no país, mas se temia pela quantidade de tempo necessário para apurar todos os resultados desejados. Para piorar o caso, no censo realizado 10 anos antes, foram necessários sete anos para se chegar aos reultados buscados. Por conta disso, acreditava-se que, para este novo censo, seriam necessários 10 anos de análise.
No entanto, com a máquina inventada por Hollerith, o resultado do censo foi apurado em apenas seis semanas. Além da agilidade que conferiu ao processo, a máquina deste americano trazia consigo a idéia de cartões perfurados para amazenar dados. Ou seja, os cartões perfurados seriam naquela época algo parecido ao que são agora os disquetes (guardadas as devidas proporções).
Mas um problema que estes computadores mecânicos apresentavam, é que as suas engrenagens eram muito numerosas e complexas. Por conta disso, em 1903, é proposto um computador 100% eletrônico, e que utilizava a álgebra booleana. A álgebra booleana é a famosa álgebra binária, do verdadeiro ou falso, do 0 ou 1, e é a base de todos os sistemas computacionais de hoje em dia.
Mas foi a partir da II Guerra Mundial que o desenvolvimento dos computadores eletrônicos ganhou mais força, quando os governos perceberam o potencial estratégico que estas máquinas ofereciam. Assim, os alemães desenvolveram o Z3, computador capaz de projetar aviões e mísseis. Pelo lado britânico, foi desenvolvido o Colossus, utilizado para a decodificação das mensagens alemães.
Com o fim da guerra, e o início da Guerra Fria, a corrida pelo desenvolvimento de novos e mais poderosos computadores só aumentou. Um marco neste desenvolvimento foi a construção do ENIAC. Ele era tão grande, que consumia energia equivalente a um bairro inteiro da cidade da Filadéfia. A importância do ENIAC é que ele, diferentemente de todos os computadores que foram desenvolvidos anteriormente, não era destinado a uma operação específica (projetar aviões/mísseis, ou decodificar códigos), mas poderia ser usado de maneira geral, parecido com o que fazem os computadores hoje.
ENIAC:
Em meados dos anos 40, John von Neumann, juntamente com a equipe da Universidade da Pensilvânia, propõe a arquitetura de computadores, que marcaria (e alavancaria) o desenvolvimento destas máquinas até os dias de hoje. Esta arquitetura era formada por uma unidade que centralizaria o processamento da máquina (a CPU), e por uma outra que armazenaria os programas (as funções a serem realizadas), que era a unidade de memória.
Com o tempo, os componentes do computador foram mudados das dispendiosas válvulas, para os mais baratos, econômicos e "miniaturizáveis" transistores. Com isso, os computadores puderam diminuir de tamanho, e consumir menos energia. Isto os tornava mais acessível, fisica e economicamente, para outras pessoas e instituições.
Além disso, para fazer com que a máquina executasse as funções que se desejava, era necessário que isto "fosse informado a elas". Da mesma forma como uma pessoa se comunica com outra através de alguma linguagem (oral, escrita ou gestual) que ambas dominam, era necessário que o programador "se comunicasse com a máquina" através de uma linguagem que os dois "entendessem". Nos primeiros computadores, esta linguagem era demasiadamente complicada para os seres humanos. No entanto, com o tempo, as liguagens foram se tornando mais claras para os homens , o que motivava a utilização do computador por mais gente.
O último marco nesta evolução, para chegarmos aos computadores como conhecemos hoje, foi a invenção dos sistemas operacionais, dos quais o Windows é um exemplo. Estes sistemas permitem que vários programas estejam rodando ao mesmo tempo, conferindo grande flexibilidade ao uso do computador.
Por conta disso tudo, os computadores começaram a se tornar mais baratos, mais "amigáveis" e mais "úteis" às pessoas comuns. Por isso, sobretudo a partir da década de 80, os computadores começaram a se popularizar, e hoje são realidade para milhões de pessoas no mundo inteiro.
Mas se os computadores, como aconteceu, foram se tornando mais poderosos e utilizados, também cresceu enormemente a quantidade de dados espalhados pelo mundo, e a necessidade/possibilidade de pessoas se comunicarem com outras virtualmente (à distância). Esta é a base, então, do surgimento e da consolidação do uso das redes de computadores, e da internet, no mundo de hoje.
.