Por que milionários doam tanto dinheiro para salvar humanos da inteligência artificial?


Elon Musk (Tesla), Reid Hoffman (LinkedIn) e Pierre Omidyar (eBay) deram quase US$ 40 milhões para uma causa que já desperta a atenção da Casa Branca.


Por Helton Simões Gomes, G1

 

Um dos méritos de “Exterminador do futuro” é o de criar a ideia de que qualquer avanço na robótica ou em sistemas de inteligência artificial vai dar origem à Skynet, plataforma conectada que controla as máquinas contra os humanos nos filmes estrelados por Arnold Schwarzenegger. O temor sobre o futuro diante da suposta “ameaça das máquinas” atinge também bambambans da tecnologia, como Elon Musk, CEO da Tesla; o físico Stephen Hawkings; e Bill Gates, da Microsoft.

O lance mais recente dessa cisma foi dado por outras figurinhas conhecidas do setor. Reid Hoffman e Pierre Omidyar, fundadores de Linkedin e eBay, respectivamente, deram um pouco de suas fortunas para criar um fundo que pesquisará como a inteligência artificial pode ser mais ética. Juntando esforços dos dois, a turma do “tenho medo” já doou quase US$ 40 milhões para “salvar” os humanos. E os primeiros resultados começam a sair do papel.

Você já deve ter usado um serviço de inteligência artificial. Ou conhece alguém que tenha usado. Basta recorrer a um chatbot no Messenger, do Facebook, ou perguntar à Siri, da Apple, se vai chover amanhã. Exemplos de inteligência virtual e de máquinas que reagem a estímulos externos estão saltando da ficção para a realidade constantemente (às vezes, literalmente).

Robô do MIT consegue pular no meio da corrida. (Foto: Reprodução/YouTube)

Grupo a favor: mais avanços que perigos

Depois de se digladiar por PCs, software e celulares, a indústria parece se acotovelar agora para definir parâmetros do uso da inteligência artificial. “Ela é uma intersecção das nossas ambições”, afirmou Satya Nadella, CEO da Microsoft, no ano passado. Para ele, a tecnologia permite “dar razão a toda esta grande quantidade de dados e converter isso em inteligência”.

A empresa integra um grupo formado por gigantes da tecnologia como Amazon, DeepMind, Google, Facebook e IBM, que se uniu para discutir avanços na área. O assunto já entrou no radar da Casa Branca, sede do governo dos Estados Unidos, que elaborou um relatório sobre o tema. “A inteligência artificial pode ser um motor de crescimento econômico e progresso social, se indústria, sociedade civil, governo e o público trabalharem juntos para apoiar o desenvolvimento da tecnologia, com atenção a seu potencial e para controlar seus riscos”, afirma o governo americano por meio do documento.

Grupo do contra: mais perigos que avanços

Por outro lado, a Microsoft lidera o coro dos descontentes. “Eu estou no campo dos que estão preocupados com super inteligência. Primeiro, as máquinas farão um monte de trabalhos para a gente e não serão super inteligentes. Pode ser positivo se nós controlarmos isso bem. Umas décadas depois, entretanto, essa inteligência será forte o suficiente para se tornar uma preocupação. Eu concordo com Musk e outros nisso e não entendo por que as pessoas não estão preocupadas”, afirmou Bill Gates, ainda em 2015.

Ele não está sozinho. Também concordam com Musk outras personalidades do mundo das ciências e das artes, desde o ator Morgan Freeman até Jaan Tallinn, cofundador do Skype, e o físico Stephen Hawkings, que juntas fundaram há dois anos o Instituto Futuro da Vida. Depois de receber uma doação de US$ 10 milhões do dono da Tesla, a organização começou a financiar iniciativas de pesquisa sobre inteligência artificial. Até agora, já investiu US$ 5,1 milhões em 36 projetos. A mais vultuosa delas custou US$ 1,5 milhão: é a instalação na Universidade de Oxford do Centro de Pesquisa Estratégica em Inteligência Artificial, que vai se dedicar a formular, analisar e testar políticas de abordagem da nova tecnologia.

Grupo dos apocalípticos: risco de catástrofe?

Tornar positivo o impacto da inteligência artificial sobre humanos é o objetivo de ao menos oito entidades internacionais. Algumas delas levam no nome o tom apocalíptico da abordagem. Por exemplo: Instituto do Futuro da Humanidade, da Universidade de Oxford, e a organização sem fins lucrativos Instituto do Risco Global Catastrófico.

A mais nova delas é o Fundo de Governança e Ética da Inteligência Artificial, que teve sua criação anunciada na semana passada pelos fundadores de eBay e LinkedIn, além de instituição de peso como o laboratório de mídia do Instituto de Tecnologia de Massachusetts (MIT, na sigla em inglês), a Universidade de Harvard e a Knight Foundation.

O fundo nasce com US$ 27 milhões e uma ideia fixa. “A tomada de decisão da inteligência artificial pode influenciar nosso mundo – educação, transporte, cuidados médicos, justiça criminal e economia – ainda que os dados e os códigos por trás dessas decisões sejam invisíveis”, diz Reid Hoffman, fundador do LinkedIn. “Como especialistas em tecnologia, eu estou impressionado com a incrível velocidade de desenvolvimento. Como filantropo, eu estou ansioso para garantir que considerações éticas e os impactos humanos dessas tecnologias não estejam sendo esquecidas”, diz Pierra Omidyar, fundador do eBay.

Perigo mora ao lado

O pessoal do fundo faz perguntas de difícil resposta (“Que tipos de controles nós precisamos para minimizar o risco da inteligência artificial à sociedade e maximizar seus benefícios?”). Alguns até tentam indicar uma possível solução. “Desde que os algoritmos têm pais e esses pais têm valores que incutirão em sua descendência algorítmica, nós queremos influenciar o que está por vir garantindo um comportamento ético e uma governança que inclua o interesse das comunidades que serão afetadas”, diz Alberto Ibergüen, presidente da Knight Foundation.

O diretor do MIT Media Lab, Joi Ito, vai direto ao ponto: “Um dos desafios mais críticos é como nós garantiremos que as máquinas que ‘treinamos’ não perpetuem e amplifiquem os vieses humanos que assolam a sociedade”. O medo, verbalizado pelo Instituto do Futuro da Vida, é que alguém crie uma inteligência artificial programada para algo devastador. Algo como armas automáticas, ou que um sistema seja feito para promover algo benéfico mas acabe adotando métodos inescrupulosos para atingir seu objetivo. A falta de consciência estaria na gênese da má avaliação.

A sociedade já lida com exemplos de como criações tecnológicas não só reproduzem comportamentos preconceitos de seus desenvolvedores, mas podem acabar machucando as pessoas. O Google já teve de pedir desculpas por seu aplicativo de fotos, o Google Photos, dar uma foto de um casal de negros a legenda “gorilas”. Um diretor do Google atribuiu o erro à inteligência artificial responsável por “aprender” a reconhecer lugares, pessoas e objetos nas fotografias.

Anúncios

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair /  Alterar )

Foto do Google+

Você está comentando utilizando sua conta Google+. Sair /  Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair /  Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair /  Alterar )

Conectando a %s