O neoludismo de Unabomber - Você tem medo do progresso?
No filme Terminator, aqui conhecido como o "O Exterminador do Futuro", máquinas acabam por adquirir inteligência e, claro, resolver exterminar a raça humana da face da Terra. Realmente não somos muito populares entre as máquinas.
Na trama (alerta de spoiler!), a heroína Sarah Connor, então uma simples garçonete, se descobre como mãe do messias guerreiro que ainda viria a nascer. Seu filho, John Connor, seria uma peça chave na resistência humana contra as máquinas. Tão relevante seria a atuação de seu filho que as máquinas resolvem, literalmente, cortar o mal pela raiz, mandando um andróide modelo T-100, um terminator ou exterminador, para liquidar a mãe o que consequentemente aniquilaria o líder John Connor.
A trama é interessante, mas a questão mais interessante vem nas continuações do filme. Em determinado momento (o filme é velho, mas vamos tentar reduzir o spoiler), alguém tem a brilhante ideia de utilizar a estratégia das máquinas contra elas mesmas. Assim, o pequeno grupo resolve exterminar o criador do Sistema Skynet, o mesmo que viria a "adquirir", espontaneamente, inteligência e consciência e, aparentemente, iniciado a guerra contra humanos utilizando mísseis intercontinentais nucleares como indutores de um conflito mundial.
A melhor parte, ao menos para mim, vem depois que o tal cientista é informado de sua participação ainda que involuntária, na destruição da civilização do mundo conhecido. Ele cai em depressão. Dizem que Santos Dumont enfrentou amargura semelhante quando soube do uso de aviões na guerra. Afinal, sua intenção era a mais nobre possível e nunca imaginara que seria um dos responsáveis pelo início do juízo final.
Diagnóstico: o cientista criador do Skynet tem uma crise ludista. Os ludistas receavam pelas consequências que a evolução tecnológica possa propiciar. Segundo este pensamento, elas seriam ruins e não compensariam a própria evolução.
Os atuais neoludistas imaginam que a tecnologia, em especial, a inteligência artificial, a nanotecnologia e a biotecnologia, tem potencial para a extinção da raça humana. Potencial ainda maior que a ameça infringida por armas nucleares, químicas e biológicas.
Se você acha o tema um pouco forçado, considere que recentemente a Global Challenges Fundation, elaborou uma recente pesquisa onde enumera os principais perigos para a civilização humana. A inteligência artificial figura na tal pesquisa, ao lado de ameaças como mudanças climáticas extremas, guerra nuclear, meteoros, nanotecnologia (quem diria), entes biológicos sintéticos dentre outros fenômenos mais aceitos como candidatos a algozes da humanidade como meteoros e afins.
Na vida real, temos o notório caso do terrorista Unabomber. Outrora um professor da Universidade da Califórnia, de repente e sem aviso, se refugiou no mato desaparecendo do mapa e passou a enviar cartas bombas a desenvolvedores de tecnologia notórios de sua época. Ele acabou matando três pessoas e ferindo outras dezenas, no incrível período de 1978 a 1995.
Atualmente preso, Theodore John Kaczynski, ou simplesmente Ted Kaczynski, o Unabomber, sob ameaça de mais atentados conseguiu coagir a publicação, pelo jornal "The New York Times", de um manifesto chamado de "Industrial Society and its Future", também conhecido como o Manifesto Unabomber. Supostamente escrito por um lunático, é difícil negar a lógica e a concisão de suas palavras no que tange ao perigo da inteligência artificial nos dias de hoje. Atuais gênios da tecnologia reconhecem que o documento retrata uma visão futurística no mínimo plausível do futuro com as máquinas. Vale a pena ler.
No livro A pílula vermelha, uma compilação de textos sobre ciência, filosofia e religião inspirados pelo filme Matrix, Bill Joy, um dos autores, admite a racionalidade do texto de Unabomber mesmo compelido a confrontá-lo. Afinal, Unabomber, além de matar três pessoas, havia ferido, por meio de suas cartas bombas, um de seus amigos David Gelernter. Bill Joy é um dos pioneiros da revolução da internet e cientista-chefe da Suns Microsystems e revela no seu texto não mais trabalhar confortavelmente, sabendo que ajuda a desenvolver a vanguarda da robótica.
Aparentemente, o surgimento de uma inteligência artificial ou coisa muito parecida com isso é questão de tempo. E quando avaliamos os "feitos" humanos no planeta, é inegável imaginar que poderíamos ser categorizados como vírus, como fez certa vez o agente Smith. O vírus costuma se replicar desenfreadamente consumindo os recursos de forma tão voraz que acaba por se autodestruir e aniquilar seu meio. A semelhança é inegável. Seria muito improvável que uma eventual inteligência artificial nos considerasse uma ameaça? Pior, se assim fosse, haveria a chance, mesmo que remota, de tais inteligências optasse pelo extermínio total ou parcial de nossa espécie? Talvez isolamento ou controlo extremo como uma doença a ser contida?
Bom, basta ver o quanto é irracional centenas e centenas de atos humanos, como desmatamento, dizimação de espécies, poluição deliberada, consumo extremo e desenfreado de recursos naturais, dentre outros. Se fôssemos julgado hoje por uma inteligência não humana quais as chances de absolvição na sua opinião? Se uma espécie animal cometesse apenas um destes atos, não tenha dúvida que os humanos, no mínimo, já teria isolado a espécie a cativeiro reduzido e controle de reprodução. Seria este o nosso futuro?
Acredite, se pensar muito nisto, o mundo terá mais um neoludista.
Comentários
Postar um comentário