Singularidade
Nenhum dos cientistas que se arriscam sabe bem o que acontecerá daqui a algumas décadas, mas muitos deles já têm uma palavra para descrever o que vem por aí: “Singularidade”. A idéia é que as tecnologias de várias áreas evoluem cada vez mais aceleradamente, se integrando e mudando rapidamente a realidade. Em um dado momento – a tal singularidade -, a curva da evolução ficara tão vertical que ultrapassará o limite do próprio gráfico.
O termo “singularidade” foi emprestado da física. Lá, ele designa fenômenos tão extremos que as equações não são mais capazes de descrevê-los, como buracos negros, lugares de densidade infinita, que levam as leis da ciência ao absurdo. A idéia surgiu em 1950, com o matemático John von Neumann, um dos criadores do computador, que disse que as tecnologias poderiam chegar a um ponto além do qual “os assuntos humanos, da forma como conhecemos, não poderiam continuar a existir”. Desde então, a evolução rápida de varias tecnologias é um dos argumentos de que a humanidade pode um dia chegar a esse momento da virada.
Essa evolução parece seguir uma lógica. Um dos primeiros a notar isso foi o engenheiro Gordon Moore, um dos fundadores da Intel, que formulou aquela que ficou conhecida como a “Lei de Moore”. Segundo a tal lei, o número de transistores em um mesmo espaço (e por conseqüência a capacidade de processamento dos chips) dobra a cada 18 meses. Ou seja, é uma progressão geométrica: cada vez o ritmo do avanço fica maior (se no primeiro período de 18 meses, a tal capacidade aumenta de 1 para 2, no vigésimo ela crescerá absurdamente de 524 288 para 1 048 576). Faca um gráfico e confirme você mesmo! Isso significa uma progressão absurda a partir de um ponto, cada vez mais tendida ao infinito.
Vejamos os fatos históricos: O IBM PC original (de 1981) funcionava com uma velocidade do clock de 4,77 MHz. Vinte anos depois, os PCs podiam funcionar a 2 GHz, um aumento de desempenho de vinte vezes por década. No mesmo período, a comunicação de dados geograficamente distribuída passou de 56 Kbps (a ARPANET) para 1 Gbps (a comunicação óptica moderna); isso significa que seu desempenho melhorou mais de 125 vezes em cada década; no mesmo espaço de tempo, a taxa de erros passou de 10-5 (0,00001) por bit, para quase zero. Sem levar em consideração, a velocidade de 100 Gbps já alcançada em laboratório em uma única fibra.
Se você ainda não compreendeu o que significa essa evolução, e qual correlação existente com o termo singularidade, imagine o seguinte: A principio, a capacidade dos processadores dobraria a cada 18 meses – a mesma velocidade com que evoluem hoje. Como estarão mais rápidos, passarão a dobrar a cada nove meses, daí a 4,5 meses, e umas gerações depois, lá esta a SINGULARIDADE. Não é só na informática que os especialistas vem esse fenômeno. A nanotecnologia, a genética e a robótica têm evoluído em um ritmo parecido. Para o inventor Ray Kurzweil, um computador de mil dólares tem hoje a mesma inteligência de um inseto. No futuro, ele se igualara à capacidade de um rato, de um homem, e finalmente, de toda a humanidade.
A GRANDE QUESTÃO É: O que acontecerá se tivermos computadores tão inteligentes quanto nós e forem capazes de produzir processadores ainda mais rápidos? Para os mais pessimistas, o fim do mundo pode estar mais próximo do que imaginamos. Nada de cataclismo (um meteoro que atinge a terra) e também nada de guerra nuclear; a idéia é a seguinte: Imagine uma nanomolécula que se autoduplicasse a cada mil segundos, criando outra nanomolécula igualmente capaz de se autoduplicar. Em dez horas, a partir de uma unidade, nasceriam 68 bilhões de nanomoléculas. Agora imagine uma bactéria onívora (que come de tudo), feita com ajuda da nanotecnologia, que se replicasse nesta velocidade. Em alguns dias ela poderia reduzir a biosfera a pó.
Parece mirabolante de mais, não? Mas tem gente graúda que levou a coisa a serio, gente como o cientista Bill Joy, co-fundador da Sun Microsystem e criador da linguagem Java. No artigo “Por que o futuro não precisa de nos” publicado a três anos na revista americana Wired, Joy expõe o perigo do desenvolvimento da genética, nanotecnologia e robótica para o futuro.
Indo agora mais afundo nesta história, quem garante que um dia uma MATRIX não possa existir – isso mesmo, aquele filme do cinema –, ou quem sabe já não estejamos nela. Em fim, o Universo pode ser o maior simulador que existe...
Deste ponto de vista, qualquer coisa pode ser um processador, jogue uma moeda para o alto e você terá um tipo de informação – cara ou coroa – que poderá ser traduzida de infinitas formas: ganhar ou não, sim ou não, zero ou um, existir ou não existir. Cada opção é um tipo mínimo de informação utilizada pelos computadores – os bits – e, ao modificá-la, podemos dizer que a moeda está processando dados.
Agora imagine o movimento de cada átomo que existe no Universo. Ele também se desloca no espaço, oscila entre um número de estados possíveis e, dessa forma, funciona como um processador. Tudo que existe no Universo segue essa lógica, você e o computador a sua frente, só por existirem, por evoluírem com o tempo, estão processando informações. O Universo na verdade é um enorme computador. O físico John Archibald Wheeler, criador do termo buraco negro, pesquisou idéias como essas ao longo dos anos 80 e concluiu que, em um nível mais básico do que quarks, múons e as menores partículas que conhecemos, a matéria era composta por bits. “Cada partícula, cada campo de força e até mesmo o espaço-tempo derivam suas funções, seu sentido e sua existência de escolhas binárias. O que chamamos de realidade surge em ultima analise de questões como sim/não”.
A teoria deu origem à ciência da física digital, que possui uma maneira bem peculiar de descrever os fenômenos. Quando por exemplo, um átomo de oxigênio se junta a dois de hidrogênio para formar água, é como se cada um usasse questões como sim/não para avaliar todos os possíveis ângulos entre eles até optar pelo mais adequado. No final, a impressão é de que os átomos fizeram uma simulação dos processos físicos. Se tudo for mesmo feito de bits, o Universo poderá ser uma enorme simulação, muitas vezes mais potente que a MATRIX. É preciso um enorme poder computacional para rodar todos esse processos, o que inspira a cientistas a construir computadores quânticos capazes de aproveitar grande parte dessa potência. Bem, uma coisa é certa, quando a singularidade chegar – se ela chegar -, a probabilidade de uma MATRIX existir será bem grande.
Emergindo agora para águas mais próximas da realidade, vejamos o que seriam e como os processadores quânticos podem – ou para os otimistas, vão revolucionar a informática; começando por uma questão interessante: Qual seria o tamanho que um computador poderia ter? Eles poderiam ter muito bem um tamanho de um elétron, segundo Seth Lloyd, professor do departamento de engenharia mecânica do instituto de tecnologia de Massachusstes, EUA. Segundo ele, o que diferenciaria dos convencionais, é que a mecânica quântica é bastante estranha. Os elétrons não precisam estar apenas em um lugar por vez, eles podem estar aqui e ali ao mesmo tempo. Isso não acontece com a mecânica clássica; se você segura uma bola de basquete, ela precisará estar na mão direita ou na mão esquerda, já os elétrons podem estar nas duas mãos simultaneamente. Outro exemplo, imagine que você tem oito bolsos e não sabe em qual colocou sua carteira. Se procurar de modo normal, precisará olhar em cada um dos oito. Os computadores quânticos olham todos os bolsos de uma vez e acham a carteira em três pacos.
Em fim, se você leu essa mensagem até aqui, deve ter formado duas opiniões: Ou você acredita na probabilidade da existência de tecnologias como as citadas a cima, ou você esta no grupo dos quais, acham que eu devo ser internado em um manicômio, junto com as idéias do físico Stephen hawking.
Independente de sua conclusão, quero deixar aberto um debate, sobre como você acha que se desenvolvera a tecnologia da informação no futuro. No plano atual, temos o conhecido como computador mais rápido do mundo “Earth Simulator” (Simulador da Terra), situado em Yokohama, Japão. Seus 5.104 processadores, são capazes de realizar 35 trilhões de cálculos por segundo (ou 35 teraflops). Todo esse aparato high tech, ocupa uma área equivalente a de quatro quadras de tênis.
Finalmente, peço enfaticamente que deixe sua visão de como será o ambiente da informação no futuro, seja ela com base em seu conhecimento ou em sua imaginação.
PARTICIPE!