OPINIÃO
10/04/2015 16:21 -03 | Atualizado 14/03/2018 10:55 -03

Por que Stephen Hawking e Bill Gates têm medo da inteligência artificial

Mas o que exatamente incomoda esses gigantes da ciência e da indústria? Deveríamos nos preocupar também?

Stephen Hawking. Bill Gates. Elon Musk. Quando os maiores cérebros do mundo fazem fila para nos advertir sobre algo que vai acabar com a vida como a conhecemos - mas que soa como uma velha ladainha da ficção científica --, o que devemos pensar?

Em 2014, a inteligência artificial foi vítima de ataques sem precedentes. Dois vencedores do Prêmio Nobel, um empreendedor da exploração espacial e dois fundadores da indústria dos computadores pessoais - um deles o homem mais rico do mundo - vieram a público, com uma regularidade sinistra, para nos alertar sobre uma era em que os humanos vão perder o controle das máquinas inteligentes e serão escravizados ou exterminados por elas. É difícil pensar num paralelo histórico para essa torrente de ansiedade científica. Grandes mudanças tecnológicas sempre causaram inquietude. Mas quando gente tão versada em tecnologia e tão proeminente se mostrou tão alarmada?

O clamor é ainda mais formidável porque dois dos autores dos protestos - Bill Gates e Steve Wozniak - ajudaram a criar o cenário moderno de tecnologia da informação no qual renasce a inteligência artificial. E um deles - Stuart Russell, co-signatário de um ensaio a respeito do tema com Stephen Hawking, é um dos maiores especialistas do mundo em I.A. Russell é co-autor de um dos principais textos sobre o assunto: Artificial Intelligence: A Modern Approach (inteligência artificial: uma abordagem moderna, em tradução livre).

Muita gente diz que deveríamos desconsiderar essa ansiedade porque a ascendência das máquinas superinteligentes ainda vai demorar décadas. Outros afirmam que o medo não tem razão de ser porque jamais seríamos imprudentes a ponto de dar às máquinas autonomia, consciência ou a capacidade de replicação.

Mas o que exatamente incomoda esses gigantes da ciência e da indústria? Deveríamos nos preocupar também?

"Não sabemos como controlar máquinas superinteligentes."

Stephen Hawking definiu habilmente a questão quando escreveu que, no curto prazo, o impacto da I.A. depende de quem a controlar; no longo prazo, depende do fato de ela poder ser controlada. Hawking reconhece implicitamente que a I.A. é uma tecnologia de "uso duplo", um termo usado para descrever tecnologias capazes de causar o bem ou o mal. Fissão nuclear, a ciência por trás de usinas e bombas nucleares, é um exemplo disso. Como o perigo representado por essas tecnologias depende das intenções de quem as usa, quais seriam os perigos da I.A.?

Um exemplo óbvio são máquinas de matar autônomas. Mais de 50 países estão desenvolvendo robôs para os campos de batalha. Os mais procurados serão aqueles capazes de tomar a "decisão de matar" - a decisão de alvejar e matar alguém - sem a interferência de um humano. Pesquisas sobre robôs de guerra e drones recebem muito investimento em vários países, incluindo Estados Unidos, Reino Unido, Alemanha, China, Índia, Rússia e Israel. Essas armas não são proibidas por leis internacionais, mas, mesmo que fossem, é duvidoso que elas se conformem a leis humanitárias internacionais ou até mesmo às leis que governam conflitos armados. Como os robôs vão distinguir entre amigos e inimigos? Combatentes e civis? De quem será a responsabilidade? O fato de que existe uma corrida armamentista não-reconhecida enquanto essas perguntas não têm resposta mostra os conflitos éticos da situação.

Igualmente complexo do ponto de vista da ética são as ferramentas avançadas de análise de dados da Agência Nacional de Segurança do governo americano. Nos Estados Unidos, era necessária a autorização de um juiz para que a polícia pudesse colher os registros telefônicos de um cidadão. Trata-se propriedade privada, protegida pela Quarta Emenda da Constituição. Mas, pelo menos desde 2009, a NSA vem driblando essa proteção, interceptando comunicações em fibras ópticas do Yahoo e do Google, sugando oceanos de dados, muitos dos quais pertencem a americanos. A NSA não poderia fazer nada com esses dados - nem mesmo reconstruir a sua ou a minha lista de contatos ou olhar fotos de gente nua - sem ferramentas inteligentes de I.A. Ela usa software sofisticados de análise de dados, capazes de esquadrinhar e categorizar volumes tão enormes de informações que um cérebro humano levaria milhões de anos para fazer o mesmo.

"Quando o HAL aprende a se programar para ser mais inteligente em um loop descontrolado de inteligência crescente?"

O poder dos robôs matadores e das ferramentas de análise de dados vem das mesmas técnicas que beneficiam nossas vidas de inúmeras maneiras. Elas são usadas na hora de fazer compras, de usar um navegador de GPS - e logo serão capazes de dirigir nossos carros. O Watson, da IBM, venceu humanos no jogo Jeopardy e está estudando para passar no exame federal exigido para que se exerça a profissão de médico. Ele faz pesquisa de informações para processos judiciais como advogados em começo de carreira, mas muito mais rápido. Ele é melhor que humanos no diagnóstico de câncer de pulmão em raios-X e tem performance superior à de analistas de negócios de alto nível.

Quanto tempo vai demorar para que uma máquina pensante domine a arte da pesquisa e desenvolvimento da inteligência artificial? Em outras palavras, quando o HAL aprende a se programar para ser mais inteligente em um loop descontrolado de inteligência crescente?

Esse é o fundamento de uma ideia chamada de "explosão da inteligência", desenvolvida nos anos 1960 pelo matemático inglês I. J. Good. Na época, Good estava estudando as primeiras redes neurais artificiais, a base para as técnicas de "aprendizado profundo" que estão na moda hoje, 50 anos depois. Ele previu que máquinas capazes de se desenvolver se tornariam tão inteligentes quanto os humanos, e depois exponencialmente mais inteligentes. Elas salvariam a humanidade resolvendo problemas intratáveis, incluindo fome, doenças e guerra. Perto do fim da vida, como relato em meu livro Our Final Invention (nossa invenção final, em tradução livre), Good mudou de ideia. Ele temia que a competição global levaria os países a desenvolver a superinteligência sem mecanismos de segurança. E, como Stephen Hawking, Stuart Russell, Elon Musk, Bill Gates e Steve Wozniak, Good temia que as máquinas pudessem nos aniquilar.

"Elas vão se proteger e buscar recursos para atingir seus objetivos. Elas nos combaterão para sobreviver e não vão querer ser desligadas."

O ponto crucial do problema é que não sabemos como controlar máquinas superinteligentes. Muitos presumem que elas serão inofensivas, ou até mesmo gratas. Mas uma pesquisa importante conduzida pelo cientista de I.A. Steve Omohundro indica que elas vão ter impulsos básicos. Seu trabalho pode ser a mineração de asteroides, comprar e vender ações ou gerenciar nossa infra-estrutura crítica de água e energia, mas elas vão se proteger e buscar recursos para atingir seus objetivos. Elas nos combaterão para sobreviver e não vão querer ser desligadas. A pesquisa de Omohundro conclui que os impulsos das máquinas superinteligentes estão em rota de colisão com os nossos, a menos que as criemos com muito cuidado. Estamos certos ao nos perguntar, como fez Stephen Hawking: "Portanto, diante de futuros de incalculáveis riscos e benefícios, os especialistas com certeza estão fazendo tudo o que é possível para garantir os melhores resultados, certo?"

Errado. Com poucas exceções, eles estão desenvolvendo produtos, não explorando segurança e ética. Na próxima década, produtos baseados em inteligência artificial devem criar trilhões de dólares de valor econômico. Será que uma fração disso não deveria ser investida na ética das máquinas autônomas, resolvendo o problema do controle da I.A. e garantindo a sobrevivência da humanidade?

Este artigo foi originalmente publicado pelo The World Post e traduzido do inglês.

VEJA TAMBÉM:

Galeria de Fotos Tecnologias de Dragon Ball que gostaríamos de ter na vida real Veja Fotos