O clássico da literatura do século XIX “Crime e Castigo”, de Fiódor Dostoiévski, relata as angústias do estudante Raskólnikov após cometer um assassinato. No curso das investigações, um artigo de sua autoria publicado na juventude aguça as suspeita do juiz Porfírio Petróvitch. Nele, Raskólnikov divide os indivíduos em ordinários e extraordinários e, na interpretação do juiz, concede aos últimos o direito de infringir a lei precisamente porque são extraordinários. Debatendo-se entre a convicção de ter livrado o mundo de uma velha agiota, e o sentimento de culpa pela dificuldade de sustentar seu ato, Raskólnikov acaba sendo indulgente consigo.
Um drone militar americano, em 2011, eliminou, por comportamento suspeito, um grupo de homens em Datta Khel, Paquistão, que estavam em assembleia para resolver um conflito local; o Google, em 2017, está sendo processado na Inglaterra em uma ação coletiva por coletar dados de 5,4 milhões de usuários de iPhone, teoricamente protegidos por políticas de privacidade.
Em comum, ambos têm os algoritmos de inteligência artificial (IA) que, diferentemente do personagem de Dostoiévski, não se debatem em conflitos éticos.
O filósofo sueco Nick Bostrom, no artigo “The Ethics of Artificial Intelligence” (2011), recusa conceder aos atuais sistemas de inteligência artificial, ainda restritos à uma tarefa concreta, o status moral: “Podemos alterar, copiar, encerrar, apagar ou utilizar programas de computador tanto quanto nos agradar […] As restrições morais a que estamos sujeitos em nossas relações com os sistemas contemporâneos de IA são todas baseadas em nossas responsabilidades para com os outros seres”.
A prerrogativa de controle pelo humano, contudo, pode se alterar em breve: pergunta dirigida a especialistas em IA sobre quando a inteligência da máquina alcançará o nível humano mostrou 10% de probabilidade em 2022, 50% de probabilidade até 2040 e 90% de probabilidade até 2075 (resultado agregado de quatro pesquisas).
Independentemente do fato se a superinteligência, com o advento da singularidade, ocorrerá ainda no século XXI, a acelerada disseminação em larga escala do uso da inteligência artificial evidencia a premência do debate.
Pesquisadores da Universidade Stanford, em meados do ano, tornaram público um algoritmo de inteligência artificial, o Gaydar, que, com base nas fotografias dos sites de namoro, identifica os homossexuais. A motivação inicial era protegê-los, contudo, a iniciativa foi vista como potencial ameaça à privacidade e segurança, desencadeando inúmeros protestos.
O estudo que originou o Gaydar foi previamente aprovado pelo Conselho de Avaliação de Stanford, com base no Conselho de Avaliação Institucional (Institutional Review Board – IRB), comitê de ética independente que norteia os conselhos dos centros de pesquisa e universidades americanas.
A questão é que as regras foram fixadas há 40 anos! “A grande e vasta maioria do que chamamos de pesquisa de ‘grandes dados’ não é abrangida pela regulamentação federal”, diz Jacob Metcalf do Data & Society, instituto de NY dedicado aos impactos sociais e culturais do desenvolvimento tecnológico centrado em dados.
Um sistema chamado Compas (Correctional Offender Management Profiling for Alternative Sanctions), no Estado de Wisconsin, e similares em outros Estados americanos, baseado em algoritmos, determinam o grau de periculosidade de criminosos e consequentemente a pena do condenado. A intenção, segundo seus defensores, é tornar as decisões judiciais menos subjetivas. A metodologia de avaliação, criada por uma empresa privada comercial, vem sendo fortemente contestada.
No livro “A Teoria do Drone”, Grégoire Chamayou alerta para os drones militares que, inicialmente concebidos como dispositivos de informação, vigilância e reconhecimento, transformaram-se em armas letais. Com base em modelos matemáticos (algoritmos) semelhantes aos utilizados para mapear e analisar as movimentações nas redes sociais na Internet (Facebook, por exemplo), os drones militares traçam conexões entre “suspeitos” e determinam sua consequente eliminação.
“É preciso uma discussão sobre os limites que devem se aplicar a essas máquinas; também é preciso decidir quem se responsabiliza no caso de um erro ou de uma falha”, alerta Chamayou. Em 2015, na Conferência Internacional de Inteligência Artificial em Buenos Aires, mais de mil cientistas e especialistas assinaram uma carta aberta contra o desenvolvimento de robôs militares autônomos, dentre outros o físico Stephen Hawking, o empreendedor Elon Musk, e o cofundador da Apple Steve Wosniak. Na edição de 2017 da mesma Conferência, dessa vez em Melbourne, Austrália, nova carta foi lançada com o apoio de 116 líderes em IA e robótica solicitando a ONU que vete o uso de armas autônomas, tendo a frente Elon Musk e Mustafa Suleyman, fundador da empresa inglesa Deep Mind adquirida pelo Google.
Essas questões são importantes, mas não fazem parte do nosso dia a dia. Ledo engano, os algoritmos de inteligência artificial estão interferindo em um conjunto amplo de atividades, em geral sem transparência. Ou seja, desconhecemos os critérios de avaliação em situações cotidianas tais como contratação de empréstimo bancário e seleção para vagas de emprego.
Weapons of Math Destruction
Cathy O’Neil, matemática americana e autora do best-seller “Weapons of Math Destruction”, alerta que muitos desses modelos que administram nossas vidas codificam o preconceito humano: “Como os deuses, esses modelos matemáticos são opacos, invisíveis para todos, exceto os sacerdotes mais altos em seu domínio: matemáticos e cientistas da computação”.
O’Neil adverte que as áreas de recursos humanos das empresas estão cada vez mais usando pontuações de crédito para avaliar candidatos em processos de contratação, supondo que o mau crédito se correlaciona com o mau desempenho no trabalho, implicando numa espiral descendente (aqueles que tem dificuldade em honrar seus empréstimos tem dificuldade de realocação profissional).
Em paralelo, os departamentos de RH igualmente acessam o histórico médico dos candidatos. Como o RH acessa os dados dos candidatos? Por meio de um cada vez mais unificado Banco de Dados (Big Data), cujos dados são captados e manipulados pelos algoritmos de Inteligência Artificial. “Bem-vindo ao lado escuro de Big Data” ironiza O’Neil.
No evento Sustainable Brands, em São Paulo, David O’Keefe da Telefonica, controladora da Vivo, apresentou produtos derivados dos dados captados das linhas móveis (Mobile Phone Data). Com o título “usando dados comuns globais e aprendizado de máquina para fornecer informações de relacionamento digital em multinacionais”, O’Keefe descreveu o “produto” em que, por meio dos dados dos celulares dos funcionários de uma empresa multinacional (quem ligou para quem, com que frequência, quanto tempo durou a ligação etc.) é possível identificar as redes informais internas, importante elemento nas estratégias de gestão.
Essas redes, mais do que as formais, definidas nos organogramas, indicam as conexões de influência e de poder nas empresas (além do tempo que cada funcionário “gasta” ao celular com assuntos externos ao trabalho). Parece ficção científica, mas é realidade e supera de longe as previsões de George Orwell no livro “1984”, publicado em 1949, vários anos antes do termo inteligência artificial ter sido cunhado.
A IA está presente no nosso dia a dia, pelo menos de uma parte da população que tem acesso a internet e a dispositivos digitais. Nos algoritmos de busca do Google, na recomendação de filmes e música do Netflix e Spotify, na recomendação de “amigos” do Facebook e LinkedIn, no aplicativo Waze, nos assistentes pessoais (Siri, Cortana, Alexa, Google Now), nos videogames, na identificação de fotos nas redes sociais, nos sistemas de vigilância e segurança, e mais em um enorme conjunto de benefícios que, efetivamente, têm o potencial de facilitar a vida do século XXI.
O marketing e a propaganda usam os algoritmos de IA para identificar os hábitos e preferências dos consumidores e produzir campanhas mais assertivas e segmentadas. O mesmo ocorre com as áreas comerciais, por exemplo, no setor imobiliário: os algoritmos permitem identificar se você foi designado para uma função em outra cidade e/ou contratado por uma empresa com escritório em outra cidade, acessar os locais e os tipo de moradia que você vem pesquisando na Internet, qual o tamanho de sua família etc. com isso aumenta a chance de ofertas de imóveis apropriados.
O varejo físico investe pesado em IA, incorporando as “vantagens” do varejo on-line por meio de dispositivos que permitem identificar por onde o cliente circulou nas lojas, por onde “navegou” seu olhar nas prateleiras, por quantas vezes e por quanto tempo. São os algoritmos de IA que transformam em informação útil essa imensidão de dados gerados pelas movimentações on-line.
Constatar que os algoritmos de IA permeiam cada vez mais os processos decisórios, em geral, provoca fortes reações de indignação. Não há como negar que são reações legítimas, devemos, sim, nos preocupar com a não transparência, com a invasão de privacidade, com a arbitrariedade. Por outro lado, é difícil sustentar o contra-argumento de que os humanos tem sensibilidade e discernimento e, consequentemente, estão mais propensos a agir com ética: não é raro os gestores de RH excluírem candidatos por preconceito. É razoável supor que, mesmo os piores modelos matemáticos, são menos propensos a cometer injustiças do que os humanos no desempenho das mesmas funções.
Harvard Business Review
Erik Brynjolfsson e Andrew McAfee admitem que existem riscos, mas, em recente artigo na “Harvard Business Review”, alertam que “embora todos os riscos da IA sejam muito reais, o padrão de referência adequado não é a perfeição, mas sim a melhor alternativa possível. Afinal, nós humanos temos viesse, cometemos erros e temos problemas para explicar, de fato, como chegamos a determinada decisão”.
Por outra linha de raciocínio, pode-se argumentar que esses modelos são simples referências no processo de tomada de decisão. Ou ainda, que no estágio atual, em que as máquinas ainda dependem da supervisão humana, cabe a ele alimentar às máquinas com os parâmetros, ou seja, a responsabilidade sobre o processo.
Como defende Cathy O’Neil, “nossos próprios valores e desejos influenciam nossas escolhas, os dados que escolhemos para coletar as perguntas que solicitamos. Os modelos são opiniões incorporadas em matemática”. O’Neil propõe começar a regular os modelos matemáticos pelos seus “modeladores”, criando um “código de ética” similar à área de saúde.
Se o campo da inteligência artificial remonta a 1956, quando John McCarthy cunhou o termo, por que a questão ética está na pauta em 2017?
A razão é o recente avanço da IA. Em 1959, Arthur Lee Samuel inaugurou um subcampo da IA com o objetivo de prover os computadores da capacidade de aprender sem serem programados, denominado por ele de Machine Learning (ML). A técnica não ensina as máquinas a, por exemplo, jogar um jogo, mas ensina como aprender a jogar um jogo utilizando técnicas baseadas em princípios lógicos e matemáticos.
O processo é distinto da tradicional “programação”, a máquina aprende com exemplos. Na década de 1980, inspirados no cérebro humano, cientistas da computação expandiram o subcampo da ML, propondo um processo de aprendizado com base em redes neurais, com resultados mais concretos nesta década, por conta de três fatores: um maior poder computacional, a crescente disponibilidade de grande quantidade de dados, e o progresso dos algoritmos.
Denominado em inglês de Deep Learning (aprendizado profundo), o foco são problemas solucionáveis de natureza prática, relacionado a uma tarefa concreta. O treinamento de uma rede neuronal artificial consiste em mostrar exemplos e ajustar gradualmente os parâmetros da rede até obter os resultados requeridos (tentativa e erro).
A rede geralmente tem entre 10-30 camadas empilhadas de neurônios artificiais. Num reconhecimento de imagem, por exemplo, a primeira camada procura bordas ou cantos; as camadas intermediárias interpretam as características básicas para procurar formas ou componentes gerais; e as últimas camadas envolvem interpretações completas.
Na identificação de fotos nas redes sociais, a máquina percebe padrões e “aprende” a identificar rostos, tal como alguém que olha o álbum de fotos de uma família desconhecida e, depois de uma série de fotos, reconhece o fotografado. O reconhecimento de voz, que junto com a visão computacional está entre as aplicações mais bem-sucedidas, já permite a comunicação entre humanos e máquinas, mesmo que ainda precária (Siri, Alexa, Google Now). Na cognição, onde estão os sistemas de resolução de problemas, ocorreram igualmente importantes avanços.
A relativa autonomia conquistada pelas máquinas, quando não mais seguem processos de decisão pré-programados pelos humanos e começam a aprender por si mesmas, coloca para a sociedade novas questões éticas e a urgência de estabelecer arcabouços legais e regulatórios.
As conhecidas “Três Leis da Robótica” de Asimov, propostas há mais de 50 anos, citadas frequentemente como referência ética para a IA, não se sustentam no estágio atual: as tecnologias inteligentes não estão relacionadas apenas a robótica — pelo contrário, estão em todos os campos de conhecimento e suas aplicações práticas –, nem essas máquinas inteligentes estão subordinadas diretamente às “ordens que lhe são dadas por seres humanos”.
Gerd Leonhard defende, no livro “Technology vs Humanity”, a formação de um conselho global de ética digital para tratar da inteligência artificial, duvidando da capacidade das máquinas de compreender e assimilar algum tipo de ética, pelo menos no estágio de desenvolvimento atual da IA.
Para ele, nenhuma IA será verdadeiramente inteligente sem algum tipo de módulo de governança ética, pré-requisito para limitar a probabilidade de falhas. É pertinente, contudo, a indagação do filósofo americano Ned Block “se as máquinas aprendem com o comportamento humano, e esse nem sempre está alinhado com valores éticos, como prever o que elas farão?”.
No início de 2016, exemplo frequentemente citado, a Microsoft lançou um robô de chat (chatbot) “teen girl”, o Tay, para se relacionar com garotas adolescentes; em menos de 24 horas a empresa exclui-o do Twitter: o Tay transformou-se rapidamente num robô defensor de sexo incestuoso e admirador de Adolf Hitler. O processo de aprendizagem da IA fez com que o robô Tay modelasse suas respostas com base nos diálogos de adolescentes.
Várias questões afloram, desde a mais básica — como incorporar a ética humana às tecnologias de IA, se são valores humanos às vezes ambíguos ou não verbalizados mesmo entre os próprios humanos? –, até se faz sentido investir no desenvolvimento de uma inteligência que no futuro não terá controle humano, com riscos e ameaças imponderáveis.
Não seria mais prudente para a sobrevivência da humanidade evitar essa tendência abdicando de seus potenciais benefícios?
Future of Life
A verdade é que existem muito mais perguntas do que respostas. Tentando enfrentar essas e outras questões, proliferam iniciativas de pesquisadores, corporações, governos. Acadêmicos americanos fundaram, em 2014, o instituto Future of Life, com a adesão de personalidades como o cientista da computação Stuart J. Russell, os físicos Stephen Hawking e Frank Wilczek e os atores Alan Alda e Morgan Freeman. Em outubro, a DeepMind da Google anunciou a criação do grupo DeepMinds Ethics & Society (DMES) dedicado a estudar os impactos da IA na sociedade.
Liderado por Verity Harding e Sean Legassick, o grupo será formado por 25 pesquisadores com dedicação exclusiva. Emergem igualmente iniciativas com foco específico: o Media Lab do Massachusetts Institute of Technology (MIT) está desenvolvendo um sistema para permitir que o usuário controle seu próprio feed de notícias do Facebook, e não os algoritmos; professores da Harvard Law School estão trabalhando em maneiras de eliminar o “viés injusto” dos algoritmos.
Ambas iniciativas estão sob o guarda-chuva de um fundo de pesquisa de US$ 27 milhões (Ethics and Governance of Artificial Intelligence Fund), criado pelo cofundador do LinkedIn, Reid Hoffman, e outros investidores, e administrado pelo MIT Media Lab e pelo Centro Berkman Klein de Harvard.
Os governos da Europa e dos EUA estão engajados na regulamentação da IA. No início do ano, um relatório do Parlamento Europeu sobre robótica e inteligência artificial versou sobre responsabilidade civil, ética, impacto sobre mercado de trabalho, segurança e privacidade.
Os eurodeputados defendem dotar os robôs autônomos de “personalidade eletrônica”, ou seja, aptos a arcar com a responsabilidade de seus atos. Outras ideias em debate são a criação de um código de conduta ética para engenheiros de robótica, e a agência europeia para a robótica e IA. Dois obstáculos comprometem os resultados: o relativo baixo conhecimento sobre os meandros da Inteligência Artificial dos legisladores, e a velocidade com que a IA vem avançando. Se ainda não há consenso regulatório sobre globalização — mercado financeiro, internet, e vários outros assuntos mais conhecidos e antigos, o que esperar sobre IA!
O desafio não é simples nem trivial, e a tendência é tornar-se mais complexo com o advento, em algum momento do século XXI, da superinteligência, definida por Nick Bostrom como “um intelecto que excede em muito o desempenho cognitivo dos seres humanos em praticamente todos os domínios de interesse”. Ou seja, máquinas autônomas.