Informática: Entenda Sua Abrangência ao Longo do Último Século

Tempo de leitura: 30 minutos

A informática é um ramo da tecnologia da informação. Um termo usado para descrever o conjunto das ciências relacionadas ao armazenamento, transmissão e processamento de informações em meios digitais.

O campo da informática tem grande amplitude. Engloba muitas subespecialidades, incluindo assim disciplinas de informática, sistemas de informação, tecnologia da informação e estatísticas.

Ainda estão incluídas neste grupo; teoria da informação, processo de cálculo, analise numérica e os métodos teóricos da representação dos conhecimentos e da modelagem dos problemas.

Mas a informática também pode ser entendida como a ciência que estuda o conjunto de informações e conhecimentos por meios digitais.

A informática envolve a prática de processamento de informações e engenharia de sistemas de informação e como campo acadêmico é uma forma de ciência da informação aplicada.

O campo considera a interação entre humanos e informações ao lado da construção de interfaces, organizações, tecnologias e sistemas.

Desde o advento dos computadores, pessoas e organizações processam cada vez mais as informações digitalmente. Isso levou ao estudo da informática com os aspectos; computacionais, matemáticos, biológicos, cognitivos e sociais, incluindo o estudo do impacto social das tecnologias da informação.

O tema deste artigo é a informática e sua abrangência continue lendo e saiba mais sobre:

Dispositivos de Armazenamento de dados

Linguagens de Programação

O Primeiro Videogame

Sketchpad e a Computação gráfica

Placa de Vídeo

Sistemas Operacionais

Interface do Usuário

Modelos de Desenvolvimento de Software

Internet

Impressoras

Scanners

Multifuncionais

Dispositivos de Armazenamento de dados

O armazenamento de dados é um agrupamento de arquivos considerados importantes, gravados em um local considerado seguro. Proporcionando assim, eficiência em pesquisas, operações empresariais, arquivamento de banco de dados e gerenciamento e informações referentes ao controle de acesso e monitoramento de alarmes de determinado local.

A primeira Random Access Memory ou RAM para computadores foi criada por pesquisadores da universidade de Manchester no final da década de 1940.

Frederic Williams, Tom Kilburn e Geoff Toothill desenvolveram a small scale experimental machine ou SSEM; mais conhecida como a Baby de Manchester ou Manchester Mark I. O Baby foi construído para testar a nova tecnologia de memória desenvolvida por Williams e Kilburn.

O primeiro sistema era composto por dezessete instruções escrito por Kilburn em 21 de junho de 1948.

Para que os dados não se percam, precisam ser gravados num dispositivo de armazenamento chamado memória auxiliar; esta armazena as informações que estão na memória principal (RAM). Os principais tipos de tipos de armazenamento de dados são:

Armazenamento Magnético

Trata-se do formato mais comum e duradouro de tecnologia de armazenamento. Este tipo de dispositivo utiliza uma cabeça magnética para ler e gravar dados de um meio magnetizado. Exemplos de armazenamento magnético são:

Armazenamento em Disco Rígido

Os primeiros computadores da era da informática utilizavam fitas magnéticas para armazenar informações, mas com uma pequena quantidade de dados geravam grandes rolos de fita. A era do armazenamento em disco magnético iniciou com o computador RAMAC 305, desenvolvido pela IBM em 1956.

Foi o primeiro computador do mundo baseado na nova tecnologia do disco rígido. A unidade de disco RAMAC era composta por 50 pratos de metal, revestidos magneticamente. Eles eram capazes de armazenar cerca de 5 milhões de caracteres de dados ou 5 megabytes.

Ao contrário das fitas magnéticas ou cartões perfurados o RAMAC permitiu acesso aleatório em tempo real a grandes quantidades de dados.

Disquete

Disquetes em informética
By George Chernilevsky (Own work) [Public domain], via Wikimedia Commons
O floppy disk ou disquete é uma forma de armazenamento de dados em discos magnéticos desenvolvidos no inicio de 1970. Os discos são lidos por meio de um hardware chamado de unidade de disquete.

Originalmente os disquetes mediam 8 polegadas ou 200 milímetros. Posteriormente foram projetados para tamanhos de 5¼ polegadas ou 133 milímetros e de 3½ polegadas ou 90 milímetros.

Além dos disquetes e do próprio disco rígido do computador; as fitas de áudio utilizam o mesmo tipo de armazenamento magnético de dados.

Armazenamento Óptico

Neste formato a leitura das informações é feita por meio de um feixe laser de alta precisão projetada na superfície da mídia. Esta é gravada com sulcos microscópicos, capazes de desviar o laser em diferentes direções, de modo a apresentar as informações gravadas. Exemplos de armazenamento óptico são:

Disco Compacto

O disco compacto ficou popularmente conhecido por CD, sigla para a designação Inglesa compact disc. É um disco ótico digital para armazenamento de dados que foi desenvolvido pela Philips e pela Sony, lançado em 1982.

O formato foi originalmente desenvolvido para armazenar e reproduzir somente gravações de som, mas foi posteriormente adaptado para armazenamento de dados.

Diversos formatos derivaram deles incluindo gravação de áudio e armazenamento de dados (CD-R), mídia regravável (CD-RW), vídeo compact disc (VCD), super vídeo compact disc (SVCD), CD de fotografia, Picture CD CD-i e Enhanced Music CD.

Além destes, os DVDs pertencem ao mesmo tipo de armazenamento de dados.

Armazenamento Magneto-Óptico

Apagáveis e reutilizáveis, são portáteis que possuem alta longevidade e capacidade de armazenamento, além de permitir acesso linear. Como os dados armazenados são difíceis de apagar, é uma mídia mais segura. Pode ser encontrada nos formatos rewritable (regraváveis) e Write Once Read Many (WORM), com gravação única e leitura infinita.

Armazenamento Eletrônico

Também chamado de memória em estado sólido. O armazenamento eletrônico é composto apenas por circuitos que não precisam se movimentar para ler ou gravar informações. Esses dispositivos têm a vantagem de permitir um acesso muito mais rápido as informações. Porém, seu custo é um pouco mais elevado do que os dispositivos magnéticos. Exemplos de armazenamento eletrônico são:

Unidade de Estado Sólido

SSD em informática
Santeri Viinamäki [CC BY 4.0 (http://creativecommons.org/licenses/by/4.0)], via Wikimedia Commons
SSD (sigla do inglês para solid-state drive) ou unidade de estado sólido. É um tipo de dispositivo, sem partes móveis para armazenamento não volátil de dados digitais.

São tipicamente construídos em torno de um circuito integrado semicondutor, responsável pelo armazenamento diferindo dos sistemas magnéticos ou óticos. Estes dispositivos utilizam memória flash, tecnologia semelhante as utilizadas em cartões de memória e pen drives.

Cartão de Memória

Cartão de memória ou cartão de memória flash é um dispositivo de armazenamento de dados com memória flash. São utilizados em consoles de videogames, câmeras digitais, telefones celulares, palmes/PDAs, MP3 players, computadores e outros aparelhos eletrônicos.

Podem ser regravados várias vezes, não necessitam de eletricidade para manter os dados armazenados. São portáteis e suportam condições de uso e armazenamento mais rigorosos que outros dispositivos baseados em peças móveis.

As placas de PC (PCMCIA) foram os primeiros formatos de cartões de memória comerciais (cartões tipo I) a serem lançados; mas agora são usados principalmente em aplicações industriais e para conectar dispositivos de E/S, como modems.

Pen Drive

Uma unidade flash USB também conhecida como pen drive é um dispositivo de armazenamento de dados que inclui memória flash com interface USB integrada. A maioria pesa menos de 30 g.

A partir de março de 2016, os flash drives com 8 a 256 GB são vendidos com frequência; menos frequentes são os de 512 GB e 1TB. Capacidades de armazenamento de até 2 TB são planejadas, com melhorias constante em tamanho e preço por capacidade esperada.

Foram inventados na  M-Systems, uma empresa israelense em uma patente americana; apresentada em 5 de abril de 1999 por Amir Ban, Dov Moran e Oron Ogdon, todos funcionários da M-Systems na época.

Entretanto Pua Khein-Seing da Malásia é considerado por muitos o pai o pai do pen drive. Ele fundou a Phision Electronics em Taiwan com outros quatro parceiros. Acredita se que tenha produzido a primeira unidade flash USB com tecnologia System on chip.

Logo, disputas judiciais quanto à controvérsia sobre as patentes ocorreram. No entanto, a Trek Technology e a IBM começaram a vender comercialmente as primeiras unidades de pen drive em 2000.

Linguagens de Programação

Linguagens de programação em informática
By en:User:Quadell (Own work) [GPL (http://www.gnu.org/licenses/gpl.html)], via Wikimedia Commons
Uma linguagem de programação é um método padronizado para comunicar informações para um computador. Um conjunto de regras sintáticas e semânticas usada para definir um programa de computador.

Permite que um programador especifique precisamente sobre quais dados um computador vai atuar, como estes dados serão armazenados ou transmitidos e quais ações devem ser tomadas sob várias circunstâncias.

O conjunto de palavras (lexemas classificados como tokens), compostos de acordo com essas regras, constituem o código fonte de um software. Esse código fonte é depois traduzido para o código de máquina, que é executado pelo processador.

Aprendendo a Programar

O modelo 650 da IBM lançado em 1954 foi seu primeiro computador produzido em larga escala. Teve em média 450 unidades vendidas em apenas um ano.

Com um cilindro de armazenamento de dados magnético trabalhando a 12.500 rpm, permitiu um acesso mais rápido as informações armazenadas do que os outros computadores com memória baseada em tambor. Foi muito popular nas universidades onde os alunos aprenderam pela primeira vez a programação.

Os estudantes lidavam com linguagem de máquina de paradigma sequencial. Cada instrução realizada tinha dez caracteres, sendo “xx yyyy zzzz”. Nela “XX” representava o código de operação a ser realizada, “yyyy” o endereço de memória e “zzzz” o endereço da própria instrução que seria executada.

FORTRAN a Linguagem Científica da Informática

Uma equipe da IBM liderada por John Backus desenvolveu o FORTRAN em 1957. Uma linguagem de computação científica de alto nível que usa declarações em inglês.

Alguns desenvolvedores estavam céticos de que FORTRAN poderia ser tão eficiente quanto a codificação manual. Mas esse pensamento desapareceu quando a linguagem provou que poderia gerar um código eficiente.

Depois de alguns anos, FORTRAN tornou se a linguagem mais utilizada até os dias atuais. Suas primeiras versões trabalham com a programação imperativa e na versão de 2003 foi implementado o paradigma de orientação de objetos.

O primeiro computador que recebeu a linguagem foi o modelo IBM 704 Mainfarme, criado especialmente para cálculos de grande escala. Sua velocidade chegava em media a 4 mil cálculos matemáticos por segundo, isso para os dias atuais é algo relativamente pequeno.

A linguagem FORTRAN preza pela velocidade de execução do código. Com essa vantagem o seu uso é intensificado para sistemas que computam um número alto de operações como, por exemplo; as áreas de física, engenharia, economia e astronomia.

A Linguagem Basic

Os cientistas John G. Kimeny e Thomas E. Kurtz, desenvolveram a linguagem de alto nível BASYC (código de instrução simbólica para iniciantes) em 1964. Foi projetada como uma linguagem para o ensino de programação.

A estrutura da linguagem era simples e interpretada linha por linha, sendo mais fácil de encontrar erros.

Seu pequeno tamanho e simplicidade fizeram do BASIC uma linguagem popular para os primeiros microcomputadores pessoais.

Suas formas recentes adotam muitos dos dados e estruturas de controle de outras línguas contemporâneas, o que o torna mais poderoso.

Linguagens Java e C#

Para desenvolver os softwares eram necessárias as linguagens de programação. O Java é uma destas linguagens que se destacou diante das suas concorrentes por ser compatível com padrões de projetos e orientação a objetos, além de ser multiplataforma.

Isto permitiu os desenvolvedores de software escrever o código somente uma vez para funcionar em qualquer sistema compatível com a linguagem.

Os cientistas James Gosling, Mike Sheridan e Patrick Naughton iniciaram o projeto Java em 1991, com o objetivo de ser utilizado em televisões interativas. Porém a tecnologia era avançada para as indústrias de televisão a cabo daquela época.

A empresa Sun Microsystems lançou oficialmente primeira versão do Java em 1995. Atualmente o Java é de propriedade da empresa Oracle corporation desde 2010.

A versão Oracle é distribuída em dois pacotes diferentes: o Java Runtime Environment (JRE) para usuários finais e o Java Development Kit (JDK) para desenvolvedores de software; incluindo ferramentas de desenvolvimento como o compilador Java, Javadoc, Jar e um depurador.

A linguagem multiparadigma C# ou C Sharp foi criada pela Microsoft dentro da iniciativa NET em 1999. Liderado pelo engenheiro Anders Hejlsberg também conhecido por desenvolver a linguagem Turbo Pascal e ser o principal membro do desenvolvimento da ferramenta Delphi em suas primeiras versões.

A linguagem C# utiliza o NET Framework, uma estrutura com diversas bibliotecas para Windows e a IDE Visual Studio. É a principal linguagem concorrente do Java, sendo parecidas semanticamente, onde o criador do Java chamou o C# de cópia do Java.

O Primeiro Videogame

Em 1962, Steve Russell liderou uma equipe de programadores no MIT, que criou o primeiro videogame para computador o SpaceWar.

Russell escreveu seu jogo em um PDP-1 um microcomputador interativo da DEC (Digital Equipment Corporation), que usava um monitor de tubo de raios catódicos e estrada para teclado.

O SpaceWar de Russell mostrou que o divertimento poderia ser uma força motriz no avanço da tecnologia. Ele influenciou empresas como a Atari e outras na criação de um poderoso meio de entretenimento que se tornaria uma indústria multimilionária.

Sketchpad e a Computação gráfica

O sketchpad foi um sistema de computador desenvolvido por Ivan Sutherland em 1963, em sua tese de doutorado, pelo qual recebeu o Prêmio Turing em 1988 e Prêmio Kyoto em 2012. O sistema funcionou no computador Lincoln TX-2 de 1958 no MIT.

O bloco de desenhos virtuais é considerado o pai de modernos sistemas de design como CAD e CAM. Um grande avanço no desenvolvimento da computação gráfica.

Primeiro sistema a utilizar uma GUI (Interface Gráfica do Usuário), usando uma exibição de pontos X-Y e a caneta de luz recentemente inventada para desenhar as formas geométricas na tela do monitor.

A maneira inteligente como o sistema organizou seus dados foi pioneiro no uso de objetos e instâncias na computação; apontando essa lógica para o paradigma de programação orientada a objetos.

A ideia principal era ter desenhos mestres que se poderia instanciar em muitas duplicatas. Se o usuário alterou o desenho mestre todas as instâncias também mudariam. Outro grande invento no Sketchpad foi no sistema que permitiu ao usuário manipular facilmente o comprimento de uma linha ou ângulo entre duas linhas.

Placa de Vídeo

Placa de vídeo em informática
By Asim18 at English Wikipedia (Transferred from en.wikipedia to Commons by Mu301.) [Public domain], via Wikimedia Commons
A placa de vídeo também chamada de placa gráfica é o componente de um computador que envia sinais deste para o ecrã, de forma que possam ser apresentadas imagens ao utilizador.

Em computadores mais baratos, as placas de vídeo estão incorporadas na placa mãe, comumente chamadas de onboard. Não possuem memória dedicada e por isso utilizam a memória RAM do sistema, normalmente denominada memória compartilhada.

Como a memória RAM de sistema é geralmente mais lenta do que as utilizadas pelos fabricantes de placas de vídeo e ainda dividem o barramento com o processador e outros periféricos para acessá-la, este método torna o sistema mais lento. Isso é notado especialmente quando se usam recursos tridimensionais ou de alta definição.

Já em computadores mais sofisticados, possui o adaptador de vídeo chamado offboard tem uma GPU própria, a GPU ou acelerador gráfico. Trata se de um processador capaz de gerar imagens e efeitos visuais tridimensionais e acelerar os bidimensionais; aliviando o trabalho do processador e gerando um resultado final melhor e mais rápido.

A primeira placa de vídeo surgiu com o lançamento do primeiro IBM PC, lançado em 12 de agosto de 1981. A espetacular IBM MDA – Monochrome Display Adapter ou adaptador de vídeo monocromático – trabalhava apenas em modo texto, conseguindo exibir 25 linhas e 80 colunas de caracteres na tela. Em alta resolução é claro.

Sistemas Operacionais

Um sistema operacional é um programa ou um conjunto de programas cuja função é gerenciar os recursos do sistema. Logo ele define qual programa recebe atenção do processador, gerenciar memória, criar um sistema de arquivos, etc. Fornecendo assim uma interface entre o computador e o usuário.

Na segunda geração os computadores eram tão grandes que ocupavam salas imensas ou mesmo andares inteiros. Basicamente construídos com válvulas e painéis, os sistemas operacionais não existiam. Os programadores que também eram os operadores, controlavam o computador por meio de chaves, fios e luzes de aviso.

Na geração seguinte, foram criados os sistemas em lote, que permitiram melhor uso dos recursos computacionais. A base do sistema operacional era um programa monitor, usado para enfileirar tarefas.

O usuário foi afastado do computador; cada programa era escrito em cartões perfurados, que por sua vez eram carregados juntamente com o respectivo compilador (normalmente Fortran ou Cobol) por um operador, que por sua vez usava uma linguagem de controle chamada job control language.

Na inicio da computação os primeiros sistemas operacionais eram únicos, pois cada mainframe vendido necessitava de um sistema operacional especifico. Esse problema era resultado de arquiteturas diferentes e da linguagem que cada máquina utilizava.

Após essa fase, iniciou-se a pesquisa de sistemas operacionais que automatizassem a troca de tarefas, pois os sistemas eram monousuários e tinham cartões perfurados como entrada. Eliminando, assim, o trabalho de pessoas que eram contratadas apenas para trocar os cartões perfurados.

Um dos primeiros sistemas operacionais de propósito geral foi o CTSS, desenvolvido no MIT.

A Criação do UNIX

A plataforma UNIX foi criada em 1970, pelos pesquisadores Ken Thompson, Denis Ritchie e seus colegas no Bell Labs. Tinha o objetivo de projetar um sistema operacional portátil, multitarefa e multiusuário para os programadores desenvolverem outros sistemas.

Originalmente o sistema UNIX foi escrito em assembly, uma linguagem de baixo nível. Em 1972 foi reescrito na linguagem c, uma linguagem de alto nível criada pelo próprio Ritchie, oferecendo um sistema mais leve e compatível para outros hardwares.

Na década de 1980, transformou-se em um sistema operacional universal, sendo distribuído por universidades e órgãos governamentais. Além disso, a plataforma UNIX e a arquitetura cliente servidor foram elementos importantes para a criação da internet e a remoldagem do conceito rede de computadores.

DOS e OS/2

Em 1980, William Bill Gates e seu colega de faculdade Paul Allen, fundadores da Microsoft compraram o sistema QDOS (Quick and Dirty Operating System) de Tim Paterson, batizaram no de DOS (Disk Operating System) e venderam licenças a IBM. O DOS vendeu muitas cópias como o sistema operacional padrão para os computadores pessoais desenvolvidos pela IBM.

IBM e Microsoft fariam ainda uma parceria para o desenvolvimento de um sistema operacional multitarefa chamado OS/2. Após o fim da breve parceria a IBM seguiu sozinha no desenvolvimento do OS/2.

GNU/Linux

Linux em informática
By The KDE team. (http://kde.org/announcements/4.3/index.php) [GPL (http://www.gnu.org/licenses/gpl.html)], via Wikimedia Commons
O projeto GNU iniciou-se em 1984, com o objetivo de desenvolver um sistema baseado em UNIX, acompanhando um conjunto de programas open-source, como bibliotecas, ferramentas para desenvolvedores e jogos.

Em 1991, um estudante de ciência da computação Linux Torvalds anunciou a primeira versão do Kermel Linux, sendo adotado pelo projeto GNU, em decorrência de seu kermel “GNU Hurd Kermel” ainda não estar completo.

Smartphones Android e iOS

A empresa Android inc. foi fundada em 2003, em Palo Alto, na Califórnia, pelos engenheiros Andy Rubin, Rich Miner e seus colegas. Descrito como um projeto em potencial no desenvolvimento de dispositivos inteligentes. Em 2005 a Google adquiriu a Android inc. junto com seus criadores.

Rubin liderava a equipe do desenvolvimento da plataforma de dispositivos móveis baseando-se no Kernel do Linux. O Google comercializou o Android para fabricantes de celulares, oferecendo um sistema flexível e atualizado. Os celulares tinham teclado físico e não tela sensível ao toque.

Com a chegada do iPhone da Apple em 2007, o Android teve que voltar a seus estágios de projeto para se adaptar as telas touch screen. Atualmente o Android é o sistema operacional para smartphones mais utilizado no mundo.

O sistema iOS desenvolvido pela Apple é exclusivo para seus produtos, como iPhone iPad e iPad Touch; sendo o segundo sistema operacional para smartphones mais utilizado no mundo.

A intenção inicial era encolher o MAC ou melhorar o iPod, sendo assim criado o sistema operacional para o iPhone.

Interface do Usuário

A interface do usuário (UI), no campo do design industrial, no campo da interação entre o homem e o computador é o espaço onde ocorrem interações entre humanos e máquinas.

O objetivo dessa interação é permitir a operação e o controle efetivos da máquina do lado humano; enquanto a máquina simultaneamente fornece informações que auxiliam o processo de tomada de decisão dos operadores.

As considerações de design aplicável ao criar interfaces com o usuário estão relacionadas ou envolvem disciplinas como ergonomia e psicologia.

A Primeira Interface do Usuário

A linguagem Smalltalk também influenciou no histórico da interface do usuário. Os projetos de destaques da Xerox em 1973 foram o desenvolvimento experimental de um microcomputador pessoal chamado alto e o desenvolvimento de um ambiente de trabalho com Smalltalk.

O alto usava o dispositivo mouse, ethernet (Rede Interna) e UI. Enquanto o ambiente do Smalltalk providenciava ícones e gráficos interativos com o mouse, algo totalmente inovador para a época.

O WYSIWYG (What You See Is What You Get – O que você vê é o que você obtém) é um sistema de interface de usuário. Nele o conteúdo com texto e imagens pode ser modificado em um editor e o resultado final impresso será semelhante ao que o usuário esta editando.

O primeiro sistema WYSIWYG chamado Bravo foi desenvolvido por Charles Simonyi.

Modelos de Desenvolvimento de Software

Atualmente para desenvolver um software é necessário possuir conhecimento sobre as técnicas da engenharia de software. No entanto, em meados dos anos 1970 e 1980 a área ainda não era popularizada entre a maioria dos desenvolvedores.

Algumas empresas da época que trabalhavam com grandes sistemas, criaram métodos para um desenvolvimento controlado e organizado. Para isso, utilizaram técnicas de outras engenharias, como gerenciamento de projetos, aplicações de testes e documentação.

O primeiro processo de software criado foi o modelo cascata de abordagem sequencial; originalmente conceituado em 1956 por Herbert Benigton para o projeto SAGE, porém o modelo não era conhecido por cascata.

O termo cascata apareceu em um artigo de Bell e Thayer em 1976, sendo aplicado na prática somente em 1985 pelo departamento de defesa dos Estados Unidos. Afirmaram que o padrão de processo teria seis fases: Requisitos, Projeto, Implementação, Testes, Implantação e Manutenção. Esse modelo processo de software não é mais utilizado atualmente.

A ferramenta CASE surgiu em 1986 e foi um avanço para o sistema de software. O engenheiro possui uma visão ampliada da arquitetura do sistema, sendo possível realizar modificações antes de ser codificado preservando a qualidade do sistema.

É o modelo de processo de software conhecido como modelo espiral. Ele é do tipo evolucionário e incremental que segue os mesmos processos genéricos do cascata. Entretanto a diferença é que o ciclo do modelo cascata acaba na entrega do software e do modelo espiral pode ser adaptado para atender ao longo da vida do software.

Internet

Internet em Informática
Dr. Avishai Teicher Pikiwiki Israel [CC BY 2.5 (http://creativecommons.org/licenses/by/2.5)], via Wikimedia Commons
Hoje a internet é um sistema global de redes de computadores interligadas que utilizam um conjunto próprio de protocolos (Internet Protocol Suite ou TCP/IP) com o propósito de servir progressivamente usuários do mundo inteiro.

No entanto, a pesquisa sobre a comutação de pacotes começou na década de 1960 e redes de comutação de pacotes como Mark i, no NPL Reino Unido, ARPHANET, CYCLADES, Merit Network, Tymnet e Telenet foram desenvolvidas em final dos anos 1960 e inicio dos anos 1970, usando uma variedade de protocolos.

ARPANET

A Advanced Research Projects Agency Network ou ARPANET é uma antiga rede de comutação de pacotes. A primeira a usar o conjunto de protocolos TCP/IP como padrão, tornando-se a base tecnológica para a rede descentralizada ou internet.

Foi criada pela ARPA do departamento de defesa dos Estados Unidos em 1968 e desativada em 1990. O objetivo inicial desta rede era a troca de informações entre cinco universidades americanas, onde cada computador era interligado na rede.

Com a evolução da ARPANET foi possível desenvolver serviços de rede como o e-mail, o protocolo FTP para tráfego de arquivos e o NVP, um antigo protocolo de voz que possuía algumas falhas de comunicação.

A Word Wide Web

A rede mundial de computadores foi criada pelo cientista britânico Tim Berners-Lee, em uma época em que compartilhar a informação era um problema.

Quando Berners-Lee trabalhava na CERN em 1989, ele apresentou um documento com sua visão da web chamado “Gerenciamento da Informação: Uma Proposta”. A proposta inicial não foi aceita de imediato, porém ele conseguiu tempo para desenvolver as primeiras tecnologias da web.

Em 1990 Berners-Lee desenvolveu três tecnologias fundamentais para a web, a linguagem de marcação HTML, a URL e o protocolo HTTP. O primeiro servidor web do mundo foi criado em um computador Next que também foi utilizado para desenvolver o primeiro navegador de internet.

Com a popularidade da web, novos navegadores linguagem de programação e pequenas páginas para a web foram desenvolvidos. O navegador Mosaic foi o responsável por disseminar a internet nos computadores pessoais, suportando sistemas operacionais Windows, Mac Os, UNIX e Amiga Os.

Posteriormente a Microsoft comprou os direitos de Mosaic, renomeando o como internet Explorer para Windows. Em 1994 foi criado o Netscape, também inspirado no sucesso do Mosaic, porém ele começou a desaparecer com a utilização em massa do Internet Explorer.

As páginas web eram montadas com a linguagem HTML, mas com a necessidade de novos recursos para a web, no final de 1994 o desenvolvedor Rasmus Lerdorf criou a linguagem de script PHP.

A Presença do Google na Informática

O Google teve inicio em 1996 como um projeto de pesquisa para doutorado de Lary Page e Sergey Brin, se tornando um dos motores de buscas mais importante da internet.

Os motores de busca da época classificavam os resultados contando quantas vezes às palavras chaves da pesquisa aparecia na página. O Google começou a trabalhar com analises de relação entre os sites encontrados na pesquisa, oferecendo uma grande quantidade de informações.

A empresa Google foi fundada em quatro de setembro de 1998. Construída na garagem de Susan Wojciski, que também trabalhou no Google como líder de alguns produtos da empresa incluindo Adwords, adsense e Google Analytics. É SEO do You Tube desde 2014.

O primeiro empregado da Google foi Graig Silverstein, que estudou doutorado junto com Larry e Sergey.

Além de ser um motor de busca na internet, o Google investiu em diversas ferramentas na web, como o You Tube, Google Plus, Google Maps, a G-Suite com Gmail e Google Drive, o navegador Google Chrome e o smartphone Nexus com Android.

Impressoras

Impresora em informática
By André Karwath aka Aka (Own work) [CC BY-SA 2.5 (https://creativecommons.org/licenses/by-sa/2.5)], via Wikimedia Commons
A primeira impressora da história da informática foi desenvolvida em 1938 por Chester Carlson, um americano que inventou o processo de reprodução de imagens e textos por meio de máquinas fotocopiadoras.

A primeira impressora de alta velocidade surgiu em 1953. A mesma que foi utilizada no UNIVAC, primeiro computador comercial, fabricado e comercializado nos Estados Unidos.

De fato, as primeiras impressoras tinham um sistema que proporcionava a impressão dos caracteres por meio do impacto; realidade que resultava em impressões de baixa qualidade.

Claro que as impressoras evoluíram conforme o avanço da própria computação. Da mesma forma que surgiram computadores destinados a diferentes usos, também foram criadas impressoras destinadas a fins específicos.

Scanners

Um digitalizador ou scanner (em inglês) é um periférico de entrada, responsável por digitalizar imagens fotos e textos, impressos para o computador; um processo inverso ao da impressora.

O belinógrafo de Édouard Belin, de 1913, escaneava usando uma fotocélula e transmitindo por linhas telefônicas comuns, serviu de base para o serviço AT & T wirephoto.

Foi usado por agências de notícias dos anos 1920 a meados dos anos 90 e consistia em um tambor giratório com um único fotodetector a uma velocidade padrão de 60 ou 120 rpm (modelos posteriores até 240 rpm).

Eles enviavam um sinal AM analógico linear através de linhas telefônicas padrão de voz para os receptores, que imprimem de forma síncrona a intensidade proporcional em papel especial.

Os scanners modernos são considerados os sucessores dos primeiros dispositivos de entrada de fax.

Multifuncionais

Um multifuncional incorpora a funcionalidade de múltiplos dispositivos em um, de modo a ter uma pegada menor em um ambiente doméstico; de pequena empresa ou para fornecer gerenciamento, distribuição e produção centralizada de documentos em um ambiente de grande escritório.

Um multifuncional típico pode atuar como uma combinação de alguns ou de todos os dispositivos a seguir; e-mail, fax, fotocopiadora, impressora e scanner.

Conclusão

A informática começou a fazer parte de nossas vidas no início do século passado e desde então está cada vez mais presente em nosso cotidiano. A tecnologia está unida a informática facilitando nossas vidas tanto corporativas quanto pessoais.

Imagens Pixabay e Wikimedia Commons.

Referências:

  1. Ana Paula Messina, Tec Dicas, A História da Informática, disponível neste link.
  2. Wikipédia, informática, disponível neste link.
  3. Wikipédia informatics disponível em: <https://en.wikipedia.org/wiki/Informatics>.
  4. Wikipédia, Compact Disc disponível em: <https://pt.wikipedia.org/wiki/Compact_Disc>.
  5. Wikipédia, Compact Disc disponível em: <https://en.wikipedia.org/wiki/Compact_disc>.
  6. Wikipédia, Unidade de Estado Sólido disponível em: <https://pt.wikipedia.org/wiki/Unidade_de_Estado_Sólido>.
  7. Wikipédia, Cartão de Memória, disponível em: <https://pt.wikipedia.org/wiki/Cartão_de_memória>.
  8. Wikipédia, USB Flash Drive disponível em: <https://en.wikipedia.org/wiki/USB_flash_drive>.
  9. História de Tudo, História da Impressora, disponível em: <http://www.historiadetudo.com/impressora>.
  10. Wikipédia, Digitalizador, disponível em: <https://pt.wikipedia.org/wiki/Digitalizador>.
  11. Wikipédia, Image Scanner, disponível em: <https://en.wikipedia.org/wiki/Image_scanner>.
  12. Wikipédia, Multi-funtion Printer, disponível em: <https://en.wikipedia.org/wiki/Multi-function_printer>.
  13. Fundação Bradesco, Microinformática, Dispositivos de Armazenamento, disponível em: <http://www.fundacaobradesco.org.br/vv-apostilas/mic_pag12.htm>.
  14. Olivia, Graber Alarmes, Quais São os Tipos de Armazenamento de Dados disponível em: <http://www.graberalarmes.com.br/blog/quais-sao-os-tipos-de-armazenamento-de-dados/>.
  15. Wikipédia, Linguagem de Programação, disponível em: <https://pt.wikipedia.org/wiki/Linguagem_de_programação>.
  16. Wikipédia, Placa de Vídeo, disponível em: <https://pt.wikipedia.org/wiki/Placa_de_vídeo>.
  17. Andressa Xavier, Tec Mundo, A Evolução da Placas de Vídeo, disponível em: <https://www.tecmundo.com.br/historia/2314-a-evolucao-das-placas-de-video.htm>.
  18. Wikipédia, IBM PC, disponível em: <https://pt.wikipedia.org/wiki/IBM_PC>.
  19. Wikipédia, Sistema Operativo, disponível em: <https://pt.wikipedia.org/wiki/Sistema_operativo>.
  20. Wikipédia, User Interface, disponível em : <https://en.wikipedia.org/wiki/User_interface>.
  21. Wikipédia, Internet, disponível em: <https://pt.wikipedia.org/wiki/Internet>.