Considerando que o período geralmente aceito como aquele que pode ser rotulado de “pós-moderno” corresponde às últimas quatro décadas, logo se verá que, não por acaso, coincide com a expansão de novas tecnologias desenvolvidas para processar e transmitir informações. Uma breve digressão histórica para contextualizar esse período de evolução tecnológica parece ser, portanto, um passo necessário.
A título ilustrativo, tome-se o ano de 1968 como referência. No Brasil, era realizado, pelo médico Euclydes Zerbini, o primeiro transplante de coração, o que acontecia exatamente um mês antes da conhecida “Passeata dos Cem Mil”, que se constituiu em uma grande manifestação contra a ditadura militar, um ato de resistência ao regime, realizado no Rio de Janeiro. No final daquele ano, o presidente Costa e Silva decretaria o Ato Institucional n° 5, dando início ao período mais fechado e violento da ditadura iniciada em 1964. A USP deixava de receber, na condição de professor, Manuel Castells, então exilado no Chile após participação nos agitados movimentos estudantis em Paris naquele ano, uma vez que Fernando Henrique Cardoso, que o convidara ao magistério na capital paulista, se tornaria um exilado em razão da intervenção militar na universidade paulista.
Nos Estados Unidos, o presidente Lyndon Johnson, em razão da pressão de movimentos sociais e de olho nas eleições daquele ano, que acabaria por perder para Richard Nixon, assina a Lei de Direitos Civis, apenas uma semana após o assassinato, em Memphis, do líder negro Martin Luther King. A guerra fria, que estava então em seu auge, tinha na tecnologia o seu campo de batalha mais acirrado, ao lado das guerras periféricas e dos jogos geoestratégicos de poder. Havia apenas sete anos desde que a então União Soviética enviara pela primeira vez um homem ao espaço e a chegada americana à lua não demoraria.
Os Estados nacionais já investiam pesadamente em pesquisa e desenvolvimento, tendo seus departamentos militares enormes orçamentos para garantir a dianteira tecnológica, onda cada avanço representava uma batalha vencida na geopolítica mundial. Afinal, a última Grande Guerra havia sido ganha justamente por se ter alcançado uma tecnologia revolucionária: a manipulação do átomo para fins bélicos, até hoje motivo de discórdia e preocupação pelo potencial de destruição da raça humana.
E como estava a evolução da tecnologia de informação e comunicação naquela época? Sintomaticamente, Robert Lloyd, executivo da então recém criada IBM (à época produzindo apenas grandes computadores – os mainframes), ao ser questionado sobre o contemporâneo surgimento do “microprocessador”, respondeu: "Mas... para o serve isso?" , pois ao mesmo não fazia sentido produzir equipamentos para uso pessoal. Tal contexto significava que, não obstante a base tecnológica da era informacional já estar parcialmente disponível na década de 60 do século XX, sua utilização como instrumento “revolucionário” era ainda bastante nebulosa e pouco disseminada.
Entretanto, foi naquele ano de 1968 que, em uma histórica apresentação na cidade de São Francisco, na Califórnia, Douglas Carl Engelbart, um dos pioneiros da computação digital, foi ovacionado na primeira demonstração pública de um computador com mouse, hipermídia, hipertexto, trabalho cooperativo, vídeo conferência, interface gráfica, processador de texto e correspondência eletrônica (e-mail) , ilustrando o que viria a se tornar um padrão dominante. Na verdade, Engelbart fora responsável por desenvolver pesquisas que estabeleceram significativas evoluções na interface computador-humano, concentrando esforços nos ambientes gráficos interativos, estabelecendo, assim, vários métodos de interação com o monitor, a exemplo do mouse, patenteado desde 1964. Foi seu grupo, aliás, que desenvolveu o sistema online chamado NLS, a base tecnológica da supramencionada apresentação .
Aquela apresentação teve grande importância para a difusão de outra tecnologia: foi um dos passos iniciais para a ampla utilização da ARPANet, a rede precursora da Internet, criada e mantida, a partir de 1969, pelo Departamento de Defesa dos Estados Unidos. Aquele evento liderado por Engelbart, que ficou conhecido como “a mãe de todas as demonstrações” , constitui-se como o símbolo do ponto inicial de convergência das tecnologias de processamento e de comunicação de informações, que viriam a mudar o mundo nas décadas seguintes.
Foi também naquele ano de 1968 que Ted Hoff, trabalhando para a então novata Intel, inventou o microprocessador (porém lançado no mercado somente em 1971), que nada mais é que um computador constituído por um “chip” (computer-on-a-chip) . O primeiro “chip” resultou da demanda de uma empresa japonesa fabricante de calculadoras, que acabaria por não utilizar a tecnologia e cujos direitos foram posteriormente comprados pela própria Intel, que vislumbrou o potencial comercial da invenção. Aliás, aquele primeiro e pequeno microprocessador possuía a mesma capacidade do ENIAC de 1946, o primeiro computador eletrônico digital de larga escala (desenvolvido para a II Guerra Mundial com recursos do exército americano), mas que pesava 30 toneladas e ocupava uma área de 167 metros quadrados .
De qualquer forma, havia um forte interesse militar no desenvolvimento daquelas tecnologias, principalmente no contexto da guerra fria que se iniciava, pois os norte-americanos pretendiam desenvolver uma estratégia para manutenção de um sistema de comunicação invulnerável a ataques nucleares. Esta proposta se consubstanciou em uma rede independente de centros de comando e um sistema de trocas de informações por pacotes, que procuram seu próprio caminho para chegar a qualquer ponto da rede – a base do que hoje se chama de Internet. Assim, ainda que se observe que muito da tecnologia necessária para a atual revolução informacional foi desenvolvida como resultado do esforço durante a II Guerra Mundial, deve-se considerar que as mudanças nessa direção aceleraram-se fortemente somente naquela década de 60, não obstante o fato de que o passo decisivo havia sido dado em 1957, com a invenção do circuito integrado por Jack Kilby e Bob Noyce, ambos da Texas Instruments .
Pois foi assim, a partir dessa base histórica, que, em 1975, Ed Roberts desenvolveu, em sua garagem, o “Altair”, a primeira “caixa de computação” ao alcance da população, o qual foi comercializado, inicialmente, por meio da revista Popular Eletronics, como um kit a ser montado . O sucesso foi rápido e indiscutível e o Altair marcou época como o primeiro computador pessoal popular comercializado em larga escala – estabelecendo a indústrias de PC e iniciando a revolução do computador pessoal. Entretanto, o fenômeno não sobreviveu à transição da eletrônica de montagem por hobbie e o mercado amador que lhe sucedeu, caracterizado pela facilidade do plug-and-play (plugar-e-usar) .
Na verdade, foi a Apple, criada em 1976, que de fato popularizou o computador pessoal e, em 1982, já vendia US$ 583 milhões em equipamentos. A IBM, perdendo mercado por focar nos grandes computadores, teve que reagir, o que fez lançando seu Computador Pessoal (PC) em 1982, que acabou por se tornar o nome genérico dos microprocessadores . Em mais um lance decisivo, foi apresentado pela Apple, em 1984, o Macintosh, que se constituiu como um passo determinante para a facilitação do uso do computador pela disseminação da utilização do mouse e de uma interface gráfica baseada em ícones (cujos princípios haviam sido criados muito anos antes pelos desenvolvedores da Xerox em Palo Alto, Califórnia). Por outro lado, o software para “rodar” os PCs surgiu em meados dos anos 1970, a partir do trabalho de William Gates e Paul Allen, que adaptaram a linguagem BASIC para o Altair, fundando, na seqüência, a conhecida Microsoft. Posteriormente, já na década de 90, a miniaturização, a especialização e a queda dos preços dos microprocessadores fizeram com que tais equipamentos se espalhassem por máquinas nas rotinas diárias, de lava-louças a veículos. Foi dessa maneira que o custo médio de processamento saiu de cerca de U$ 75,00 por cada milhão de operações, em 1960, para menos de um centésimo de centavo de dólar em 1990 .
Porém, mesmo com todo o avanço da tecnologia de processamento, a formação de redes mundiais como as conhecemos hoje só se tornou possível com a ampliação da infra-estrutura de comunicação que, por sua vez, somente foi concebida e viabilizada econômica e tecnicamente justamente pela utilização das novas tecnologias disponibilizadas, em mais um exemplo de aplicação da relação sinérgica da revolução em andamento.
Dessa maneira, como já mencionado, a primeira rede de computadores formou-se por meio da ARPANet, que iniciou suas atividades oficialmente em 1° de setembro de 1969. Entretanto, para que os computadores pudessem comunicar-se entre si era necessária a criação de um protocolo padronizado, uma espécie de “tradutor” entre as máquinas. Para tal fim, designou-se o padrão TCP/IP, que conseguiu hegemonia e acabou sendo adotado em todo o mundo, o que prevalece até hoje.
Aliás, em 1978 foi criado o primeiro modem para PC (decorrente do esforço pessoal de Ward Christensen e Randy Suessem) o qual permitia a transferência direta de arquivos entre computadores sem passar por um sistema central, ou seja, sem passar pela ARPANet. No ano seguinte, Christensen e Suessem divulgaram livremente seu protocolo objetivando o seu uso público, para que a maior quantidade de pessoas possível pudesse trocar arquivos daquela maneira, em uma espécie de movimento contracultural e que terminou por potencializar e democratizar a ampliação da rede. Essa conjunção de fatores viabilizou, ao final, que qualquer pessoa com conhecimentos tecnológicos e um PC tivesse a alternativa de participar de uma rede horizontal de troca de informações, apesar de que, em 1990, os não-iniciados ainda tinham dificuldade para usar a Internet e os recursos gráficos eram bastante limitados .
Foi então que, naquele ano de 1990, no centro de pesquisas nucleares da Europa (CERN), desenvolveu-se a Word Wide Web – WWW (teia mundial) – a partir de um projeto original intitulado ENQUIRE . O CERN criou um formato para documentos flexíveis em hipertexto (HTML), bem como um protocolo de transferência dos mesmos – o HTTP – e, ainda, um formato padronizado de endereços – URL, que ainda hoje são os padrões utilizados e que permitiram, na seqüência, a criação de instrumentos de fácil uso da rede . Houve, portanto, uma sinergia entre os esforços americanos e europeus para desenvolvimento das tecnologias e softwares para criação da atual Internet.
Dessa maneira, o formato aberto e flexível da rede tornou-se aplicável a todos os tipos de atividades, em diferentes contextos, locais e culturas, conectando-os eletronicamente. Em pouco tempo foram surgindo os navegadores (browsers) que permitiam “surfar” na rede, criando uma verdadeira teia mundial. Aliás, o software nomeado “WorldWideWeb” (posteriormente chamado de Nexus para não confundir com a rede mundial), desenvolvido por Tim Berners-Lee em 1990, é considerado o primeiro navegador de Internet. Porém, a explosão de popularidade da “web” somente ocorreu com a disponibilização do “Mosaic”, desenvolvido no Centro Nacional de Aplicações para Supercomputadores (NCSA), e que teve sua primeira versão apresentada em setembro de 1993 .
Nos anos seguintes, ocorreria uma verdadeira “guerra” dos “browsers”, principalmente entre o Netscape, que saiu na frente, e o Internet Explorer, da Microsoft. Esta, já então uma potência tecnológica e econômica, detentora de um virtual monopólio dos sistemas operacionais populares, acabou por dominar quase totalmente o mercado, somente sofrendo relativo abalo com o lançamento do navegador “Firefox” em 2002, hoje utilizado por aproximadamente 35% dos “internautas” .
A Internet, no ano de 2007, alcança cerca de um bilhão e duzentos milhões de pessoas (≈ 17% da população mundial), com crescimento de cerca de 200% nos últimos sete anos , um aumento tão grande quanto desigualmente distribuído pelo globo. Enquanto a taxa de penetração da Internet na América do Norte já alcança o índice de 70%, a África permanece em irrisórios 5%. É uma realidade sobre a qual devem ser lançados pensamentos para uma reflexão sobre seu mecanismo e conseqüências (dados de 2007).
Por tudo quanto mencionado até o momento, o que se deve manter em mente é que o processo de transformação tecnológica, como uma dinâmica interna da sociedade, gerou alterações substanciais na economia, na cultura, na política e nos mais variados aspectos das relações sociais. A característica dessas relações segue o padrão de redes, onde há uma inter-relação e interdependência entre os diversos pontos da teia, de maneira que sua forma de articulação é a característica dominante no mundo contemporâneo. As conseqüências mais evidentes para a economia e o trabalho serão expostas na seqüência, tendo em vista que são importantes esferas que determinam diversos aspectos dos sistemas políticos e democráticos.