OPINIÃO

Como lidar com a corrupção da inteligência artificial

11/04/2016 16:07 -03 | Atualizado 26/01/2017 22:53 -02
Reprodução/Twitter

Taytweets é uma conta no Twitter, criada pela Microsoft, baseada em Inteligência Artificial (Artificial Intelligence, ou AI, em inglês), que funciona sob um processo de interação e aprendizagem com os usuários humanos. Usando a rede social, a AI denominada "Tay" passou a interagir e aprender com os usuários, tornando-se um chatbot. Mas, em menos de 24 horas, foi corrompida por nós mesmos - os humanos. O que era para ser uma AI com postagens leves e divertidas passou a ser um robô com comentários racistas e preconceituosos.

Esse episódio do fim de março de 2016 nos mostra que as máquinas criadas por nós mesmos não param de nos surpreender: desde quando vimos o maior enxadrista do mundo perder para o computador Deep Blue, em 1996, até, mais recentemente (neste mesmo março de 2016), com a engenhosidade do AlphaGo da Google, que derrotou um dos maiores jogadores de Go do mundo com um movimento inesperado na história milenar do jogo.

Os robôs têm sido atualmente inspirados no que a natureza tem de mais eficiente a nos oferecer, e estão cada vez mais semelhantes aos seres humanos e aos animais. Com exemplo, o Massachusetts Institute of Technology - MIT possui um projeto de um robô-guepardo chamado Cheetah, o qual imita justamente os movimentos desse animal.

Por essa razão, a robótica tem mudado o seu enfoque e tentado reproduzir ou fazer com que os robôs aproveitem o domínio humano sobre a natureza, destacando essas características de maneira que possamos usufruir disso. Se no aspecto da "física" essa parece ser a tendência no setor, no "mental" o que se vislumbra é dar mais autonomia às máquinas, para que elas possam ter condições de tomar decisões sozinhas baseadas no conjunto de variáveis que lhes são oferecidas. Ou seja, é imaginar algo como a junção do AlphaGo com o Cheetah e ver no que vai dar.

Recentemente, o cinema nos trouxe algumas histórias interessantes sobre dilemas com a AI, um pouco diferente dos robôs destrutivos T-1000 do Exterminador do Futuro 2, de James Cameron, e os do Eu, Robô, de Alex Proyas, os quais se preocupavam mais em violar as Três Leis da Robótica de Asimov nos anos 1980 ao início dos anos 2000. Em Chappie, de Neill Blomkamp, uma das temáticas é a corrupção tecnológica - o robô que é criado para aprender com os humanos passa a estar sob posse de uma gangue - e, por conseguinte, começa a mimetizar os comportamentos afetivos e criminosos do grupo. No Her, de Spike Jonze, temos a história de um homem que se relaciona afetivamente com um sistema operacional com uma AI que aprende a uma velocidade sem precedentes. Em Ex Machina, de Alex Garland, Ava se torna uma robô com uma AI manipuladora no aspecto emocional, conseguindo ludibriar os sentimentos dos seres humanos que interagem com ela. Algo semelhante ocorre no enredo de Eva, de Kike Maíllo: ambos são versões que abordam com mais profundidade temas levantados em Inteligência Artificial, de Steven Spielberg, há 15 anos.

Podem parecer histórias de ficção científica futurista - afinal, como um ser humano pode se afeiçoar por uma máquina, não é mesmo? A diferença desses casos para o de HAL 9000, de 2001: Uma Odisseia no Espaço, de Stanley Kubrick, é que, agora, a AI mexe não apenas com a nossa razão, mas também com as nossas emoções. Entretanto, isso não parece ser tão insólito ou futurista assim: em 1996, a Bandai lançou o brinquedo Tamagotchi, onde era possível criar um animal fictício - o famoso "bichinho virtual" alcunhado no Brasil. Quantas crianças não criaram afeição pelos seus bichinhos, alimentando, dando atenção, brincando com eles? Eu, por exemplo, fui uma delas (talvez já não tão criança na época...).

Diante dessa crescente influência da robótica e AI em nossas vidas, não tardará a termos consequências jurídicas advindas dessa nova forma de viver. Será que no futuro teremos, por exemplo, decisões judiciais de guarda compartilhada de animais robóticos, como o gato do Eva - à semelhança do que ocorreu, recentemente, em um caso na justiça de São Paulo, cuja decisão foi a concessão de guarda compartilhada de um cachorro a um casal? Na decisão, o magistrado entendeu que os animais também possuem direitos, e que a separação poderia causar sofrimento ao animal.

Ou seja, retornando ao tópico inicial, uma questão que ainda não foi sequer cogitada nesse caldeirão de evolução tecnológica é com relação à regulação jurídica da AI. Se ela aprende com os humanos, como trataremos essas relações e suas consequências jurídicas? Consideraremos também as AIs como sujeitos de direitos e deveres?

Vejamos o caso da Tay: nesse episódio, ficou evidente o abuso da liberdade de expressão - afinal, comentários racistas não são tolerados na totalidade das legislações dos países. Entretanto, e se fosse um caso menos grave - digamos que a AI tivesse se desentendido com algum internauta e começasse a atacá-lo com comentários de difamação, insultando a sua inteligência ou reputando fatos que atentem à sua reputação ou honra, e isso começasse a se replicar nas redes sociais. Quem seria responsável pelo crime de difamação: os seres humanos com quem a AI aprendeu a se comportar assim (como no caso do Chappie), a empresa que o programou, ou a própria AI (como no caso de Eva)? Quem deve ser responsabilizado pela corrupção tecnológica: o corruptor ou o corrompido?

Em Eva, a solução dada para o suposto crime de homicídio cometido pela robô-protagonista é a pena capital - o seu desligamento. Porém, se com a evolução da tecnologia, e com o aumento da complexidade do livre arbítrio das máquinas, começarmos a entender que eles também podem ser sujeitos de direito, teriam que ser processadas e condenadas por nossos tribunais? Por "tribunais" de AIs? Ou poderíamos simplesmente sempre fazer um recall para ajustes - solução, aliás, que foi adotada pela Microsoft agora no seu protótipo. Mas e quando não for mais um protótipo?

Aliás, se porventura a Tay retornar com um novo algoritmo de AI para frear qualquer comentário preconceituoso, isso seria uma supressão do livre arbítrio da AI tal como presente de forma plena nos humanos - é dizer, o livre arbítrio para cometer erros e pagar por eles perante a sociedade, tal como o crime cometido por Siegfried Ellwanger no célebre caso de racismo julgado pelo Supremo Tribunal Federal? O livre arbítrio seria aquilo que a EVA americana devolve ao Wall-E no filme homônimo da Pixar, mas que é tirada da Eva espanhola citada acima pelo personagem de Daniel Brühl? Por outro lado, também cabe uma pergunta como contraponto: queremos realmente AIs que reproduzam justamente o que temos de pior, e não o que temos de melhor?

É certo que o caso da Tay, na verdade, foi mais uma "malandragem" virtual do que um abuso da liberdade de expressão, visto que os internautas passaram a "bugar" a AI pedindo para ela repetir os comentários, tal como fazemos com os papagaios. Todavia, essa "subversão tecnológica", embora tratada com outro enfoque no Manifesto Cluetrain (sob o aspecto empresarial), parece ser a tônica dessas novas relações entre homem e AI. Podemos corrigir os bugs, mas como domaremos esse livre arbítrio de pensar da AI?

O caso do AlphaGo mostra que a AI, diferentemente do que estava prevendo Alan Turing, pode se dotar de intuição e passar a pensar de uma forma totalmente inesperada por nós, processo que pode culminar na famosa "singularidade", algo sempre presente no medo humano à tecnologia. Ou seja, a discussão jurídica pode ser diferente daquela do Homem Bicentenário, de Chris Columbus, em que a máquina queria virar humano - visto que a máquina pode querer virar algo mais e não querer se submeter ao nosso juízo do que seja certo ou errado. Pode, por conseguinte, simplesmente "sumir", como fez em Her, e a grande catástrofe não seria o ataque da Skynet contra os humanos, mas sim o seu abandono depois de nos tornarmos dependentes econômica, social e emocionalmente deles.

Mas quando os casos de março de 2016 como o de Tay (para o mal) e do AlphaGo (para o bem) começarem a acontecer com mais frequência, seguramente não estaremos preparados para lidar com eles: nem emocionalmente, nem socialmente, nem juridicamente. Por isso o título do artigo acaba sendo uma propaganda enganosa: de fato, não temos respostas em como lidar com os problemas que a AI pode nos trazer no futuro. Mas talvez esteja na hora de começarmos a pensar neles.

LEIA MAIS:

- Facebook e política: Algum dia levaremos a sério essa relação?

- Mandatos para Ministros do STF e dos Justices da Suprema Corte dos EUA

Também no HuffPost Brasil:

6 negros transformadores do mundo dos negócios e da tecnologia