Considerado a maior mente científica da atualidade, o renomado físico Stephen Hawking demonstrou preocupação com o futuro da humanidade por conta do avanço da inteligência artificial. Em carta enviada ao jornal The Independent, Hawking fez algumas considerações a respeito dos potenciais impactos da IA, afirmando que “essa seria a maior conquista da humanidade até então e possivelmente a última”.
Parte das considerações do físico foram feitas em função do filme Transcendence, que trata justamente de um cenário envolvendo a inteligência artificial e sua relação com os seres humanos. “Olhando lá na frente, não há limites fundamentais para o que pode ser alcançado: não há lei da física que impeça partículas de serem organizadas em maneiras que possibilitem computações ainda mais avançadas do que as realizadas no cérebro humano”, afirmou o físico.
O cientista chama a atenção para um conceito criado em 1965, chamado “singularidade”, em que as unidades inteligentes entrariam em um processo de auto-aperfeiçoamento. “Uma transição explosiva e instantânea é possível, porém pode acontecer de maneira diferente do que aconteceu no cinema. Como Irving Good publicou em 1965, máquinas com inteligência superhumana poderiam melhorar seu design repetidamente, melhorando cada vez mais as suas funções e desencadeando o que Vernor Vinge chamava de 'singularidade' e que o personagem do filme Transcendence - A Nova Inteligência, estrelado por Johnny Depp, cita em alguns de seus diálogos”.
Para ele, o que poderia acontecer diante disso, seria o que foi mostrado no filme Matrix, de 1999, em que os seres humanos perderiam o controle sobre o planeta. “As máquinas poderão manipular mercados financeiros, seres humanos, desenvolver armas que nós não poderíamos entender e provavelmente provocariam o fim da nossa espécie se não aprendermos a controlar os danos”, adverte o físico.
Stephen Hawking afirma, ainda, que, ao mesmo tempo em que há pesquisas sérias sobre IA em todo o mundo, não há estudos com o que ele chama de “contra medidas”, que seriam meios de deter ou controlar o avanço autônomo da inteligência criada artificialmente por computador.
“Então, encarando os possíveis futuros com benefícios e riscos incalculáveis, os especialistas estão fazendo tudo que está ao alcance deles para garantir o melhor resultado, certo? Não é bem assim. Pouquíssimas pesquisas de contra medidas são desenvolvidas e levadas a sério fora de institutos não lucrativos como o Centro de Estudo de Riscos Existenciais de Cambridge, o Instituto do Futuro da Humanidade, o Instituto de Pesquisas de Inteligência das Máquinas e outros similares”.
“A questão é que todos nós deveríamos pensar um pouco mais a respeito dessa questão. Será que se criássemos inteligência artificial e essa inteligência decidisse viver, o desejo de viver seria algo irrelevante, pré-programado, mesmo que involuntariamente, ou algo espontâneo a ser respeitado? E o que as máquinas achariam disso?”, diz Hawking, autor do clássico “O Universo numa Casca de Noz”, de 2001.
http://www.bbc.com/news/business-22002530
ResponderExcluir