ANTONIO CARLOS LUA
Com o avanço da Inteligência Artificial, estudiosos já se perguntam como será o nosso futuro quando ela alcançar a singularidade e se tornar superior aos humanos.
Um estudo sobre os riscos relacionados à Inteligência Artificial desenvolvido por cientistas das Universidades de Oxford (Reino Unido), Yale (EUA) e do Future of Life Institute (EUA) aponta a probabilidade de máquinas com nível de inteligência equivalente à dos humanos estarem funcionando até o ano de 2028, resgatando alguns insights preocupantes do cosmólogo e físico britânico, Stephen Hawking, um dos mais influentes cientistas da história, que faleceu em março deste ano.
Em mais de uma ocasião Stephen Hawking externou sua preocupação com a nossa capacidade de controlar a Inteligência Artificial, afirmando que os robôs podem chegar a um ponto onde poderão evoluir sozinhos, com a corrida para o desenvolvimento de armamentos baseados nessa tecnologia.
Em todas as suas manifestações sobre o assunto, o cosmólogo britânico não se mostrou otimistas no que diz respeito ao futuro da humanidade com a Inteligência Artificial. Em seu último artigo, publicado no jornal britânico “The Independent”, o físico faz um questionamento sobre uma potencial ameaça da Inteligência Artificial, cuja criação – segundo ele – seria o maior evento na história da humanidade, mas, infelizmente, também o último.
É importante frisar que os frutos da inteligência artificial que temos até agora são relativamente inofensivos, como um computador que vence humanos no game show Jeopardy, assistentes pessoais no smartphone e carros que se dirigem sozinhos. Mas já são dados passos não tão seguros, como aqueles na direção militar, com armas que selecionam e eliminam inimigos de maneira autônoma – uma iniciativa que inclusive já foi freada pela Organização das Nações Unidas (ONU).
O entendimento é de que com o desenvolvimento da Inteligência Artificial, não há como fazer uma previsão sobre como ela poderá se organizar, levando-nos a imaginar essa tecnologia ficando mais inteligente que mercados financeiros, inventando mais que pesquisadores humanos, manipulando líderes e criando armas que sequer entendemos.
Enquanto o impacto da Inteligência Artificial, a curto prazo, depende de quem a controla, a longo prazo dependerá se ela poderá ser controlada. Esse é o ponto central e relevante na discussão deflagrada por especialistas a partir do estudo desenvolvido pelos cientistas das Universidades de Oxford (Reino Unido), Yale (EUA) e do Future of Life Institute (EUA).
O alerta dado por Stephen Hawking é preocupante quando ele aponta que a união da Inteligência Artificial com os robôs pode gerar uma situação em que as máquinas avançariam por conta própria e se reprojetariam em ritmo sempre crescente, enquanto os humanos – limitados pela evolução biológica lenta – não conseguiriam competir e seriam automaticamente desbancados.
A Inteligência Artificial traz um desafio adicional à conquista do conhecimento, fato que se desenrolou, pelo menos em termos mitológicos, quando Prometeus roubou o fogo da sabedoria da posse exclusiva dos deuses do Olimpo. Como castigo, Zeus condenou Prometeus a viver acorrentado a uma rocha por toda a eternidade, enquanto uma águia comia todos dias o seu fígado, que se regenerava no dia seguinte.
Embora acorrentado, Prometeus conseguiu passar o conhecimento aos humanos e não prestou obediência a Zeus, como explica no famoso poema “Prometheus” (1774), o escritor e estadista alemão do Sacro Império Romano-Germânico com incursões pelo campo da ciência natural, Wolfgang von Goethe.
Talvez o perigo apontado em direção à Inteligência Artificial seja uma manifestação alarmista, mas o fato de um dos cientistas mais brilhantes do Século como Stephen Hawking enfatizar que o avanço dela pode ser nocivo para os seres humanos, talvez seja importante refletir se a humanidade, no intuito de amplificar os frutos de abundância fáustica, passe o bastão do fogo prometeico para as máquinas inteligentes, perdendo o controle de sua posição privilegiada de cérebro do Planeta.