PL das Fake News: o que é e por que está sendo sabotado
Projeto que visa enfrentar o abuso do poder econômico nas redes – e obrigar gigantes da internet a revelar quem financia a desinformação – foi travado na Câmara. Em campanha truculenta, corporações tentam manipular o debate público
Renata Mielli/ Outras Palavras
A campanha de terrorismo midiático realizada principalmente por Google e Facebook – somada à ação de bastidores junto aos deputados e deputadas nas últimas semanas contra o Projeto de Lei 2630, conhecido como PL das Fake News – resultou em não aprovação pelo plenário, neste 6 de abril, do requerimento de urgência para que o projeto entrasse na pauta da Câmara. Ainda funcionando em regime especial em função da covid-19, ele precisava que um pedido de urgência fosse aprovado.
O projeto dispõe sobre uma Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet e estrutura um elenco de obrigações, regras e mecanismos de governança para enfrentar o abuso do poder econômico nas redes. Isso permitiria aos cidadãos e aos órgãos públicos identificar conteúdos de publicidade e impulsionados, saber o montante e a origem de recursos usados – como, por exemplo, os usados para impulsionar conteúdos pregando o inexistente “tratamento precoce” contra a covid-19 que tantos prejuízos trouxeram (e ainda trazem) à Saúde. Ou seja, o projeto obriga as corporações de internet, que prestam serviços para centenas de milhões de brasileiros, a fornecerem informações para que a sociedade compreenda como as fake news circulam e são patrocinadas, o que é fundamental para adotar medidas para combatê-las.
Dedica uma seção inteira para elencar os Deveres de Transparências que os provedores de redes sociais, serviços de mensageria e ferramentas de busca devem observar no país. Apenas para citar algumas, apontaria a obrigação de transparência sobre a elaboração e aplicação dos termos e políticas de uso dessas empresas, divulgação de relatórios semestrais com informações sobre número total de usuários no Brasil, quais critérios são usados para remover conteúdos e contas, o volume total de medidas de moderação (exclusão, indisponibilização, redução de alcance, rotulação) de contas e conteúdos por motivação – termos de uso, decisões judiciais ou para fins de aplicação da lei, volume de decisões da plataforma que foram revertidas, características das equipes de moderação, como idioma de trabalho, indicativos de diversidade, nacionalidade e outros, isso para citar apenas uma parcela das obrigações de transparência.
Há, também, um conjunto robusto de regras de transparência sobre impulsionamentos, publicidades e também sobre como agentes públicos fazem uso de suas redes próprias e como o Estado direciona recursos de publicidade para contas em redes sociais.
Se o fenômeno da desinformação – e seu impacto atual – está relacionado às dinâmicas de circulação da informação no interior das plataformas, se elas ganham alcance e velocidade graças aos fatores de relevância considerados pelos algoritmos e pela soma de recursos aplicadas em impulsionamento e publicidade, ter mais transparência sobre a operação dessas empresas é estratégico para enfrentar as fake news.
O projeto 2630 está em debate na Câmara desde agosto de 2020. Ao longo desses quase dois anos de debate, foram organizados por iniciativa do atual relator, o deputado federal Orlando Silva (PCdoB/SP), e dois seminários com a participação de centenas de especialistas. Organizações da sociedade civil, entidades acadêmicas e empresariais também realizaram inúmeros eventos sobre o PL e, ao longo desse período, o tema foi tratado na mídia especializada e em veículos jornalísticos. Houve, portanto, um amplo debate que resultou num aprofundamento de muitos dispositivos e amadurecimento do que é a espinha dorsal do projeto. A ofensiva atual das Big Techs nesta reta final é justamente uma reação a isso.
Terrorismo midiático das Big Techs contra o projeto
Com medo da regulação, as plataformas como Google, Youtube, Facebook e outras iniciaram uma campanha de vale tudo para tentar colocar a sociedade contra o PL 2630 – e a possível criação de dispositivos para regulá-las.
Em 3/3 deste ano, o Facebook veiculou propaganda em jornais de grande circulação nacional com o título: “O PL das Fake News deveria combater Fake News. E não a lanchonete do seu bairro”. No dia 11, foi a vez do Google soltar nota dizendo que, caso aprovado, o PL modificaria “a internet como você conhece”. No dia 14, o Google também colocou em sua página inicial um link para a nota, de forma que todos os usuários que fizeram uma busca neste dia entraram em contato com a visão alarmista da empresa sobre o projeto. Além disso, a corporação estadunidense circulou publicidades em outras plataformas com essa mesma retórica do medo, um mecanismo largamente usado para estruturar conteúdos de desinformação e manipular a opinião pública.
Na semana de votação da urgência, de novo o Google usou sua home para fazer campanha contra o PL. Os milhões de brasileiros que acessaram o site Google Brasil se depararam com link que os redirecionavam para um texto com o seguinte título: “Saiba como o projeto de lei 2630 pode obrigar o Google a financiar notícias falsas” (Leia o teor da “campanha” aqui). No blog brasileiro da corporação, estava um artigo assinado pelo seu presidente, Fábio Coelho, argumentando que o PL “pode acabar promovendo [sic] mais notícias falsas no Brasil, e não menos”. Todo o projeto era criticado, em particular o artigo 38 que obrigaria as plataformas a remunerarem as empresas jornalísticas pelo uso de seus conteúdos.
O fenômeno da desinformação – e seu impacto atual – está relacionado às dinâmicas de circulação da informação no interior das plataformas: elas ganham alcance e velocidade graças aos fatores de relevância considerados pelos algoritmos e pela soma de recursos aplicadas em impulsionamento e publicidade. Portanto, o Google, por exemplo, não precisa de lei nenhuma para “financiar notícias falsas”, pois já é um dos maiores disseminadores e financiadores da desinformação através de anúncios do Google Adsense e dos seus mecanismos de indexação de buscas. Mas, quanto a esse fato, não há sequer uma linha no texto do presidente do Google Brasil.
Anúncios via Google Adsense, o pote de ouro da desinformação
O modelo de negócios das Big Techs – e particularmente das plataformas da empresa Alphabet – holding estadunidense que é a dona do Google – baseia-se na escala gerada por viralização orgânica ou patrocinada, determinada por palavras chaves, que alimentam um sistema online de leilões de publicidade. O objetivo: direcionar conteúdos de forma segmentada, com base no perfil de cada usuário, e maximizar a monetização da plataforma e do canal/página que recebe o anúncio.
Esse mecanismo gera distorções no debate público, pois favorece sites e páginas que publicam seus materiais a partir da busca de cliques, usando manchetes, fotos, leads e recursos chamativos que abusam de elementos morais/emocionais. Busca-se, assim, capturar a atenção do internauta por meio do choque e do reflexo – e, logo, gerar um clique, um compartilhamento ou uma reação ao conteúdo.
Dessa forma, o Google – através de seus anúncios publicitários via o sistema Google Adsense – despeja milhões de reais em sites como Terça Livre (suspenso pela Justiça brasileira), Jornal da Cidade Online e muitos outros. Além disso, existem estratégias de publicação de conteúdos que modulam os mecanismos de funcionamento de seus algoritmos de indexação dos resultados de busca, definidos pelo Search Engine Optimization (SEO), para beneficiar a disseminação da desinformação. Isso sem falar dos algoritmos de recomendação de vídeo no caso do YouTube.
A pesquisa Follow the Money: How the Online Advertising Ecosystem Funds COVID-19 Junk News and Disinformation [“Siga o dinheiro: como o ecossistema de publicidade online financia as notícias-lixo e a desinformação sobre a covid-19”], publicada em 2020 pela Universidade de Oxford [1], mostra como o sistema de publicidade e de indexação do Google gerou receita para sites que propagavam a desinformação sobre a pandemia, dando mais visibilidade a estes conteúdos. “A plataforma de publicidade mais popular em ambos os conjuntos (jornalismo profissional e conteúdo tóxico e de desinformação) foi o Google. Mais da metade dos anúncios […] são fornecidos pelo Google: 59% dos domínios de notícias profissionais e 61% dos domínios de notícias tóxicas e desinformação usaram anúncios do Google”.
No Brasil, o Google tem gerado receita para os sites de desinformação através do Google Adsense e também intermediando as receitas de publicidade do governo. Reportagem de agosto de 2020, publicada pelo The Intercept Brasil, mostra como o governo Bolsonaro entregou mais de R$ 11 milhões em verbas públicas de publicidade para que o Google a transformasse em anúncios que foram direcionados para sites de extrema direita e que propagavam desinformação. Parte considerável desse dinheiro – até 68%, segundo o próprio Google – vai para o bolso dos editores desses sites via sistema AdSense.
“A CPMI [Comissão Parlamentar Mista de Inquérito] das Fake News já identificou dois milhões de anúncios publicitários do governo que foram parar em site de ‘conteúdo inadequado’ por meio do AdSense. Dezenas de sites de fake news foram beneficiados com esse dinheiro”, denuncia a reportagem. Essa mesma CPMI também apontou que, entre os que receberam recursos de publicidade com anúncios do governo federal feitos pelos Adsense, estava o Terça Livre, canal no Youtube do blogueiro Allan dos Santos, atualmente foragido da justiça brasileira. Outra reportagem, da agência de checagem Aos Fatos, mostrou como alguns sites como esse lucraram com desinformação durante a pandemia.
Em face disso tudo, o fato é gravíssimo: o Google usa o seu poder econômico – e dominância de mercado – para publicar anúncios em jornais de todo o Brasil e estampar sua home com desinformação sobre o PL 2630 e, assim, tentar interferir no debate regulatório brasileiro.
Mas e o PL 2630 e seu artigo 38?
O artigo 38 do PL das Fake News tem sido um dos mais polêmicos desde que apareceu pela primeira vez em uma das versões do relatório do deputado Orlando Silva. O propósito do dispositivo, de acordo com o parlamentar, é exatamente o de fortalecer o jornalismo e valorizar o conteúdo jornalístico, numa perspectiva de que a melhor maneira de combater a desinformação é oferecer para a sociedade mais informação de qualidade.
Austrália, Espanha, França, Canadá e outros países vêm criando dispositivos legais semelhantes para que as plataformas digitais remunerem o jornalismo. O debate é fundamental, uma vez que o modelo de publicidade que financiava a mídia antes do advento das corporações de internet foi impactado: os anunciantes migraram massivamente para as Big Techs. É fundamental, portanto, reequilibrar essa assimetria de mercado para valorizar a produção de conteúdo jornalístico.
Então, qual a polêmica em torno do artigo? A questão é que no Brasil não existe uma regulamentação da atividade jornalística e, sem uma definição do que é um veículo jornalístico ou um conteúdo jornalístico, a aplicação desse dispositivo, além de bastante frágil, pode trazer mais concentração de mercado, remunerando apenas os grandes e tradicionais meios de comunicação como Globo, Record, SBT, Folha de São Paulo, O Globo, Estadão etc – e prejudicando todo um conjunto de veículos pequenos e médios, nativos digitais ou não.
Além disso, detalhes necessários – como será o processo de remuneração? Como garantir que não só a empresa, mas o jornalista autor do conteúdo seja remunerado? Como trazer transparência para impedir as assimetrias citadas acima?, por exemplo – não são possíveis de serem feitos dentro de um projeto de lei, cujo escopo já é por si só complexo e não tem o objetivo de tratar de forma específica sobre essas questões.
Mas, é importante reconhecer que a nova versão do relatório, apresentada nesta semana pelo deputado, incorporou novos incisos para detalhar um pouco mais o artigo, trazendo salvaguardas para deixar mais explícito o seu objetivo. Todas as questões que geravam certa insegurança quanto a esse artigo foram resolvidas, não. Mas, ao contrário do que sugeria o lobby da Big Tech, não há nada no artigo que vá obrigar plataformas como o Google a financiarem sites de desinformação. Esse é um argumento de má fé, construído para colocar a sociedade contra o projeto e tirar o foco do motivo real pelo qual Google & Cia tentam sabotar a aprovação do PL: impedir que o Brasil, como poucos países já o fizeram, avance na criação de mecanismo de transparência para as atividades dessas corporações de internet, e tantos outros comandos que podem, ainda que de forma muito inicial, impor regras e acabar com a discricionariedade e a falta de compromisso com o interesse público que elas demonstrar nutrir.
[1] Pequisa publicada pelo The Computational Propaganda Project (COMPROP), which is based at the Oxford Internet Institute, University of Oxford,
Fonte: Outras Palavras
Pedro Doria: O dia em que o Google quase parou a Terra
Para alguns, o Google estar fora do ar é pior do que mero inconveniente
Durou por volta de uma hora a queda completa de serviços do Google — Gmail, Calendário, Drive, Docs, Meet, Cloud, Photos, YouTube. O Google estar down, fora do ar, é daquelas coisas que todo mundo percebe na hora. Os e-mails cessam de chegar, o vídeo não carrega, o compromisso na agenda se torna inacessível. Para alguns, é pior do que mero inconveniente.
Leia mais
- Google fica fora do ar por 45 minutos e expõe dependência de seus serviços
- Processo dos EUA contra o Google é histórico, mas consequências ainda são imprevisíveis
- Governo dos EUA processa Facebook e pode reverter compra de Instagram e WhatsApp
Aqui no Brasil estamos ainda engatinhando nas casas inteligentes, mas, nos EUA, elas são mais e mais comuns. Termostatos da Nest, a marca para estes acessórios do Google, também se tornaram inacessíveis. O mesmo vale para fechaduras e câmeras de segurança. Assim como para as caixas de som inteligentes.
Sempre tivemos situações do tipo — ficar sem água, sem luz, sem gás. Mas quando as utilidades públicas são oferta de uma empresa global o impacto é, igualmente, global. Conforme entramos numa década que será marcada pelo domínio do 5G e da internet das coisas, na qual cada instância de nossas vidas será automatizada, esta concentração dos serviços em poucas empresas deve ser motivo de preocupação.
Se a concentração se mantém, uma interrupção de serviço destas, em dez anos, não afetará só YouTube, as aulas das crianças no Meet e a agenda. Vai fazer o automóvel parar pois não saberá para onde ir — depende dos mapas. Poderá trancar pessoas fora de casa. Não reconhecerá o rosto doutros tantos para atividades essenciais.
Não se trata de criticar o Google — poucas empresas de tecnologia oferecem soluções tão complexas e incrivelmente estáveis como essa turma de Mountain View. São ousados. Quando outros no Vale do Silício perderam a criatividade e se burocratizaram, eles continuam forçando os limites da tecnologia. Da inteligência artificial. Constroem mesmo o futuro.
Assim como constituem um monopólio e quando acontece de seu serviço cair, bilhões de pessoas são atingidas. Quando os criadores da internet a desenharam inicialmente como uma rede descentralizada, não o fizeram à toa. Queriam algo confiável. Se um pedaço da rede cai, o resto continua de pé. Um dos responsáveis pelo protocolo que deu este design elegante à rede é, hoje, alto funcionário do Google. Vint Cerf.
Cerf e os outros pioneiros estavam certos em sua visão. Os serviços digitais precisam ser descentralizados como a internet foi imaginada originalmente. Os monopólios forçam sua centralização. Aí, quando cai — e qualquer serviço cai, por melhor que seja — quase todo mundo é afetado. Da próxima vez poderá ser muito mais grave.
Pedro Doria: Facebook terá caminho mais difícil entre as gigantes de tecnologia
A década de 20 será a década do antitruste para as empresas de tecnologia
A década de 20 será a década do antitruste para as gigantes da tecnologia. Delas, três enfrentarão processos mais difíceis - Google, Facebook e Amazon. O primeiro contra o Google já saiu, agora é a vez do Facebook. A Amazon ainda aguarda a sua vez. E, das três, nenhuma empresa enfrentará um caminho tão difícil tanto politicamente quanto nos tribunais quanto o Face.
Politicamente, nos EUA, porque por motivos diferentes tanto o Partido Republicano quanto o Democrata olham para a gigante social com profunda desconfiança. Os republicanos têm convicção de que entre algoritmos e decisões de executivos, há censura de vozes conservadoras correndo solta. Os democratas veem algo completamente diferente: uma empresa que perdeu o controle de sua tecnologia ao mesmo tempo que substitui responsabilidade cívica por lucro. Que assim permitiu que a base de sustentação da democracia fosse sequestrada e ameaçada por manipulação do debate público e da informação.
Ambos podem ler de formas diferentes o problema, mas compartilham o fato de não confiarem na companhia.
Nos tribunais, a vida do Facebook não será mais fácil. A empresa é acusada de comprar WhatsApp e Instagram de forma agressiva para impedir que houvesse competição. Para bloquear o livre mercado. Será difícil argumentar o contrário. Afinal, há também a história da rede social que o Face não comprou — é a Snapchat. Quando os acionistas da startup se recusaram a assinar o acordo de venda, a gigante frustrada respondeu copiando os principais recursos e os aplicando no Insta. É o que chamamos de Stories.
O resultado concreto é que o que a Snap trazia de inovador foi copiado sem pudores pela gigante que tentou comprá-la. A rede nova foi abatida quando decolava em seu voo.
Ali, o Facebook mandou um recado para qualquer startup que ameaçasse seu mercado. No dia que uma proposta de compra viesse, melhor aceitar. Ou, então, sua criatividade seria copiada e suas chances de estourar, esmagadas.
A FTC, agência reguladora que garante que o mercado americano seja livre, não está pedindo pouco. Quer que o Facebook seja desmembrado. Que WhatsApp e Instagram voltem a ser empresas independentes. Para isso, precisará provar no tribunal que o Face abusa de seu poder de monopólio. Argumento, tem.
Eugênio Bucci: Cinco trilhões de dólares
O que produzem a Apple, a Amazon, o Google ou o Facebook para valerem tanto?
Em janeiro foi noticiado que as empresas Apple, Amazon, Alphabet (dona do Google), Microsoft e Facebook valiam, juntas, cinco trilhões de dólares. Em junho, quando a Apple sozinha atingiu o valor de US$ 1,5 trilhão, apenas quatro delas dariam conta de bater a marca dos US$ 5 trilhões (o Facebook ficava um pouquinho para trás).
Cinco trilhões de dólares!
Essa cifra é três vezes maior que o PIB brasileiro. Três vezes. Quer dizer: se nós, os 210 milhões de habitantes destas terras convertidas em jazigos, quiséssemos comprar a Apple, a Amazon, a Alphabet e a Microsoft, pelos preços de junho, teríamos de trabalhar por três anos sem descanso e não nos sobraria troco para o pão, para o aluguel e para os impostos. E mesmo assim poderíamos chegar no fim da jornada sem caixa para saldar a fatura, pois, enquanto as ações dessas companhias sobem sem parar, o PIB brasileiro afunda, junto com o PIB mundial. Lá de cima, incólumes e luminescentes, as big techs contemplam a peste, a fome, a violência, a miséria e a ruína.
Só o PIB da China e dos Estados Unidos superam a casa dos US$ 5 trilhões. Pense bem: o que produzem a Apple, a Amazon, o Google ou o Facebook para valerem tanto?
Se formos contentar-nos com as respostas oficiais, acreditaremos que o segredo de tamanha fortuna está na inovação tecnológica dessas marcas, na genialidade dos seus criadores e na pertinácia de seus CEOs. Acreditaremos que, graças a chips, bits e bytes, as big techs dominaram o e-mail, o e-commerce, o e-government e o e-scambau, deixando seus donos biliardários. Acreditaremos, enfim, que dinheiro não nasce em árvore, mas bem que brota em máquina.
Agora, se quisermos ir além das quimeras da carochinha, buscaremos explicações em teorias menos rasas, como aquela da “economia da atenção”. A tal “economia da atenção” consiste em mercadejar com os olhos dos consumidores. Primeiro, o negociante atrai a “atenção” alheia e, ato contínuo, vai vendê-la por aí – mas vai vendê-la (detalhe crucial) com zilhões de dados individualizados sobre cada um e cada uma que, no meio da massa, deposita seu olhar ansioso sobre as telas eletrônicas. Em resumo, os conglomerados da era digital elevaram o velho negócio do database marketing à enésima potência, com informações ultraprecisas sobre as pessoas, e desenvolveram técnicas neuronais que magnetizam os sentidos da plateia. O negócio deles é o extrativismo dos dados pessoais.
Isso aí: extrativismo virtual.
Na primeira semana de maio de 2017, a capa da revista The Economist anunciou que os dados pessoais eram o novo petróleo. Em plena era do Big Data, algoritmos e fórmulas insondáveis cruzam os dados e antecipam as partículas infinitesimais do humor e do destino dos bilhões de fregueses. Os dados não mentem jamais. Sabem se o cidadão vai desenvolver Alzheimer, e quando, sabem que ele relaxa com a voz de Morgan Freeman, sabem que massageia o lóbulo da orelha direita quando pensa em queijo do tipo Pont l’Évêque.
O “novo petróleo” teria sido o responsável pelos cinco trilhões e pela enorme reviravolta do mercado global, que fez o dinheiro mudar de mãos em duas décadas. Em 1998 as cinco empresas mais caras do mundo eram a GE, a Microsoft, a Shell, a Glaxo e a Coca-Cola. No grupo, quatro companhias eram fabricantes de coisas palpáveis (motores, eletrodomésticos, gasolina, fármacos, bebidas gasosas); só uma era uma empresa “de tecnologia”. Hoje, no pelotão dos conglomerados mais caros do mundo, todos se valem da tecnologia (um notebook ou um site de busca) para extrair e comercializar nossos dados pessoais.
Isto posto, e com todo o respeito à Economist, é preciso dizer que também essa explicação é insuficiente. Para entender de fato por que o valor de mercado das big techs subiu tanto é preciso levar em conta algo que as teorias correntes não costumam registrar. De meados do século 20 para cá, o capitalismo passa por uma estonteante mutação: as mercadorias corpóreas (coisas úteis) ficaram em segundo plano, enquanto a fabricação industrial de signos assumiu o centro da geração de valor. O capital virou um narrador, um contador de histórias, tanto que uma famosa marca de produtos esportivos pode muito bem terceirizar a fabricação de tênis de maratona, mas não pode abrir mão de controlar obsessivamente a gestão da marca e a publicidade.
Em sua mutação, o capitalismo aprendeu a confeccionar e a entregar, com imagens e palavras sintetizadas industrialmente, os dispositivos imaginários de que o sujeito precisa para aplacar o desejo. Isso é uma novidade. Por trás do negócio da extração dos dados existe outro negócio, mais determinante, que é a industrialização da linguagem. Hoje o capital trabalha para o desejo, não mais para a necessidade. Os conglomerados digitais dominaram a industrialização da linguagem (voltada para o desejo), monopolizaram o olhar do planeta e puseram o olhar do planeta para trabalhar a seu favor.
Nesse meio tempo, o mundo distanciou-se da razão e do espírito. Mas essa é outra conversa.
*Jornalista, é professor da ECA-USP
Matt Stoller: Empresas de tecnologia ameaçam a democracia
Receita de anúncios que sustenta o jornalismo foi capturada por Google e Facebook e parte do dinheiro dissemina notícias falsas
À medida que a eleição dos EUA se aproxima, as rachaduras na fachada digital começam a aparecer de novo. O Facebook acaba de remover uma página, “Eu amo os EUA”, comandada por ucranianos, que enviou imagens pró-Trump recicladas da Internet Research Agency, grupo russo que tentou influenciar a eleição de 2016.
Acontece que “I Love America” não era patrocinada pelo governo. Os ucranianos apenas administravam a página pelo dinheiro da publicidade. Uma página semelhante com conteúdo falsificado, “Vidas de Policiais Importa”, agora está sendo feita em Kosovo.
Essas duas páginas falsas do Facebook ilustram a crise da imprensa livre e da democracia: a receita de publicidade que costumava ir para o jornalismo de qualidade agora é capturada por grandes intermediários de tecnologia, e parte desse dinheiro é dedicado a conteúdo desonesto, de baixa qualidade e fraudulento.
Esta é a primeira eleição presidencial após o colapso do modelo de negócios para o jornalismo. A receita de publicidade de jornais impressos caiu dois terços desde 2006. De 2008 a 2018, o número de repórteres de jornais caiu 47%. Dois terços dos municípios dos EUA não têm um jornal diário e 1.300 comunidades perderam toda a cobertura local. Até estabelecimentos nativos da web, como o BuzzFeed e o HuffPost, demitiram repórteres. Esse problema é global. Por exemplo, na Austrália, de 2014 a 2018, o número de jornalistas em publicações impressas tradicionais caiu 20%.
A sinalização de novas marcas e as barreiras culturais destinadas a proteger dos efeitos distorcidos da publicidade foram destruídas. Em seu lugar, surgiu um ecossistema de informações disfuncionais, caracterizado pelas teorias de polarização, dependência e conspiração. Na Europa e nos EUA, os jovens aprendem ciência racial pelo YouTube.
No Brasil, cidadãos aprendem que a zika é transmitida por vacinas. Como o Center for Humane Technology afirma: “As plataformas tecnológicas de hoje estão presas em uma corrida até o fundo do tronco cerebral para atrair a atenção humana. É uma corrida que todos estamos perdendo.”
Crise tem dois vetores
Existem dois vetores dessa crise. O primeiro é a concentração da receita de publicidade online nas mãos do Google e do Facebook, monopólios globais montados no discurso público, desviando o dinheiro que costumava ir para as editoras. O segundo é um colapso ético – consequência natural do fato de a publicidade financiar um utilitário de informações como uma rede social ou mecanismo de busca –, que eu chamo de “comunicações conflituosas”.
É tentador culpar a internet por tudo isso, mas é importante reconhecer que a tecnologia é moldada pela lei. Publicidade, editoração e distribuição de informações operam em mercados estruturados. Nos últimos 40 anos, as regras subjacentes a esses mercados passaram por uma reorganização radical.
Como diz o historiador Richard John, por 200 anos (a partir da criação dos Correios, em 1791), os americanos formuladores de políticas tentaram descentralizar o poder dos meios de comunicação e manter neutras as redes de comunicação. No fim dos anos 70, os formuladores de políticas reverteram suas presunções. Eles atenuaram a lei antitruste, eliminaram a doutrina da imparcialidade e permitiram a criação de grandes conglomerados de mídia.
Habilitado por uma política de fusão imprecisa, o espaço da internet passou por sucessivas aquisições. De 2004 a 2014, o Google gastou US$ 23 bilhões comprando 145 empresas, incluindo a gigante da publicidade DoubleClick. E, desde 2004, o Facebook gastou quantia semelhante adquirindo 66 empresas, permitindo-lhe dominar as redes sociais. Nenhuma dessas aquisições foi bloqueada como anticompetitiva.
Os dados agora são a entrada principal da publicidade: se você sabe quem está visualizando um anúncio, esse espaço se torna muito mais valioso. Google e Facebook agora sabem quem está vendo cada um dos anúncios, e seus concorrentes – os jornais –, não. Além disso, agora, os jornais também precisam contar com Google e Facebook para chegar a seus clientes e repassar a eles valiosos dados de assinantes. Quando o Wall Street Journal rejeitou respeitar os termos de formatação, o Google o removeu de suas fileiras de pesquisa e o tráfego do jornal caiu 44%.
Filosofia favorável à concentração ajudou a moldar revolução da informação
Em outras palavras, não foi apenas a tecnologia, mas também uma filosofia favorável à concentração que moldou a revolução da informação, nos anos 1990 e 2000. Google e Facebook cresceram para controlar utilitários de informação, como pesquisa geral, redes sociais e mapeamento. Novas formas de publicidade – sustentadas pelo uso não regulamentado de dados e vendidas por meio de leilões não transparentes e complexos – minaram a barganha das editoras e permitiram novas formas de fraude usando bots e conteúdo falso.
Um resultado dessas mudanças é a centralização radical do poder sobre o fluxo de informações. As plataformas tecnológicas agora controlam a receita de publicidade online, que é a principal fonte de financiamento da notícias. Mas este não é apenas um problema da monopolização de uma indústria. Google e Facebook não estão no ramo do jornalismo. Eles estão no setor de comunicações, executando utilitários de informação com uma receita que costumava ir para o jornalismo.
O financiamento da publicidade apresenta um conflito de interesses, pois a publicidade é uma terceira parte pagando para manipular alguém. Na mídia tradicional, ela pode influenciar escolhas editoriais. Há uma série de estruturas éticas projetadas para inibir o controle excessivo de anunciantes sobre os meios de comunicação, resultado de debates por centenas de anos entre figuras públicas sobre a natureza da publicidade e da editoração.
Algumas delas incluem os efeitos da sinalização de marcas de notícias, uma diversidade de meios de comunicação, a separação dos departamentos de publicidade e a parte editorial e corporações para proteger a integridade jornalística da publicação dos interesses comerciais. Mas tais debates éticos ainda precisam ocorrer em torno dos utilitários de informação.
Consequentemente, a deturpação da publicidade – dependência, manipulação, fraude, ruptura de um tecido social – foi recebida com pouca imunidade cultural, respostas políticas ou defesas institucionais.
Antes de o Google virar uma enorme empresa de publicidade, seus fundadores – Sergey Brin e Larry Page – notaram esse problema. Eles analisaram o mercado de mecanismos de pesquisa da década de 90 – com empresas oferecendo aos anunciantes a chance de pagar para serem listados como resultado de uma pesquisa orgânica – e argumentaram que o financiamento de um mecanismo de pesquisa por meio da publicidade era fundamentalmente imoral.
Esses utilitários de informações teriam um incentivo para manter os usuários em suas propriedades para que eles continuassem vendendo mais anúncios. Eles também teriam um incentivo à autonegociação, colocando um conteúdo diante dos usuários que beneficia o utilitário – e não do usuário final. E eles teriam um incentivo para vigiar seus usuários, para que eles pudessem segmentá-los de maneira mais eficaz.
Uma crise para a democracia
Brin e Page estavam certos quanto à influência corruptora da publicidade. Esse modelo de negócios de comunicações conflitantes é de onde vêm o vício, a vigilância, a fraude e a ‘isca de cliques’. Infelizmente, estamos vivendo no mundo que eles previram.
A combinação dessas dinâmicas – concentração de poder e novos dilemas éticos apresentados pelo financiamento das redes de informação pela publicidade – criou uma crise para a democracia. A monopolização da receita publicitária tira o financiamento de instituições legítimas. A sinalização das novas marcas e as barreiras culturais destinadas a se proteger dos efeitos distorcidos da publicidade foram destruídas. A tarefa dos formuladores de políticas agora é montar as estruturas éticas para mitigar tais conflitos.
O colapso do jornalismo e da democracia não é inevitável. Para salvar a democracia e a imprensa livre, precisamos eliminar o controle do Google e do Facebook sobre o bem comum. Isso significa descentralizar esses mercados e separar os utilitários de informação, para que pesquisa, mapeamento, o YouTube e outras subsidiárias do Google sejam empresas separadas, e Instagram, WhatsApp e Facebook voltem a competir. Também significa restringir ou limitar a publicidade nessas plataformas.
A receita publicitária deve voltar a fluir para o jornalismo e a arte. E as pessoas deveriam pagar diretamente pelos serviços de comunicação, em vez de pagar indiretamente pela renúncia à democracia. / Tradução de Claudia Bozzo
*É pesquisador do Open Markets Institute
Marcelo Tognozzi: O Google é a bola da vez
UE cobrou mais multas que impostos. Foram US$ 5 bilhões no ano passado. Sistema Android do Google permite que quase 13 mil aplicativos violem a privacidade dos seus usuários
A Europa está em guerra contra os gigantes da tecnologia. A batalha da vez é a dos impostos. A França passará a taxar em 3% as atividades do chamado grupo GAFA: Google, Amazon, Facebook e Apple. Toda vez que um francês usar um serviço prestado por uma destas empresas vai pingar algum para Marianne e seus filhos. Josep Borrell, prestes a trocar o Ministério das Relações Exteriores da Espanha pelo comando da diplomacia da União Europeia, defende uma taxação geral que beneficie todos os países do bloco.
O apetite dos políticos aumentou ainda mais na 5ª feira passada (11.jul.2019) com a divulgação do estudo 50 maneiras de vazar seus dados, feito em conjunto pela Universidade de Berkeley, IMDEA Networks Institute de Madrid, Universidade de Calgary e o AppCensus. O resultado mostra como o sistema Android do Google permite que quase 13 mil aplicativos violem a privacidade dos seus usuários, mesmo quando eles se negam a autorizar o acesso aos seus arquivos pessoais (leia aqui o estudo completo). Pior: a violação acontece por culpa do Google, não dos usuários.
Os europeus contam com uma lei de proteção de dados rigorosa. Vigora, por exemplo, o direito ao esquecimento. Isto significa poder requerer ao Google ou qualquer buscador que delete todas as menções ao seu nome ou quando houverem publicações “atingindo a honra, a intimidade ou a própria imagem” do cidadão. É a pessoa que decide o que fica, não a empresa.
Os dados apresentados no estudo feito a quatro mãos são, para dizer o mínimo, de dar medo. Ao analisarem 88 mil aplicativos da Google Play Store, os pesquisadores descobriram milhares deles acessando dados pessoais dos usuários sem ter autorização para isso. A invasão acontece quando o celular funciona com sistema operacional Android, o mais popular e disseminado. Os aplicativos são programados para se aproveitarem de vulnerabilidades do Android e literalmente roubar dados pessoais e utilizá-los para os mais diversos fins, lícitos ou não. Uma encrenca.
Os aplicativos invasores mais baixados são o da Disney de Hong-Kong –produzido pelo buscador chinês Baidu–, FaceApp, Shutterfly e aplicativos de saúde da Samsung. Entre os produtores de aplicativos maliciosos, 1 é inglês, 4 são americanos e 4 chineses. Ou seja: tem gente dos 4 cantos do mundo metida nesta trampa. Pela Lei Geral de Proteção de Dados da Europa, as multas podem chegar a 20 milhões de euros.
No Brasil, onde procuradores do Ministérios Público vivem o inferno dos celulares invadidos e conversas pessoais no aplicativo de mensagens russo Telegram tornadas públicas, a lei de proteção de dados foi sancionada no ano passado pelo presidente Temer, mas só entrará em vigor em 2020. Demorou mais de 8 anos sendo debatida, embora trate de um direito dos Brasileiros à vida privada e à intimidade garantido pelo Artigo 5º, inciso X da Constituição.
Neste nosso mundo digital ninguém está livre de ter sua privacidade devassada seja de uma forma sutil, como descobriram os pesquisadores, seja com violência da pura e simples invasão seguida de roubo de todo tipo de dado pessoal. O que estas empresas de aplicativos vendidos na Google Play Store estão cometendo é um crime grave, que não somente deve ser combatido, como punido. Não é por acaso que em 2018 a União Europeia cobrou do Google mais multas que impostos: nada menos que 5 bilhões de dólares.
Dora Kaufman: O desafio mais importante já enfrentado
No ano passado, o AlphaGo, programa criado pela companhia inglesa Deep Mind, do Google, ganhou de 4 x 1 do sul-coreano Lee Sedol, o melhor jogador do jogo chinês Go. Foi um fato histórico. No jogo de damas, se um humano e um computador jogarem em perfeitas condições, o resultado será empate, ou seja, o computador hoje jamais perderia um jogo de damas. No xadrez, a probabilidade é de que o melhor computador ganhe do melhor jogador humano.
Se, por um lado, a inteligência artificial (IA) realiza tarefas que são supostamente prerrogativas dos seres humanos, sua capacidade ultrapassa as limitações humanas. Parte do sucesso da Netflix, por exemplo, está em seu sistema de personalização, em que algoritmos analisam as preferências do usuário (e de grupos de usuários com preferências semelhantes) e, com base nelas, sugere filmes e séries.
O caso da IA é ímpar: pela primeira vez na história estamos diante de outra "espécie" inteligente, com a perspectiva de, nas próximas décadas, superar a inteligência humana, tornando-se uma "superinteligência". Outro fato inédito é que pela primeira vez o homem criou algo sob o qual não tem controle. Esses dois fatos afetam o futuro da humanidade. O que ainda tem ares de ficção científica pode estar mais próximo do que imaginamos. A inteligência artificial permeia nosso cotidiano. Acessamos sistemas inteligentes para programar o itinerário com o Waze, pesquisar no Google e receber do Spotify recomendações de músicas. A Siri, da Apple, o Google Now e a Cortada, da Microsoft, são assistentes pessoais digitais inteligentes que nos ajudam a localizar informações úteis com acesso por meio de voz com perguntas tais como "O que está na minha agenda hoje?" ou "Qual o posto de gasolina mais próximo?".
O Google colocou à venda nos EUA, em outubro, um assistente doméstico apto a controlar os dispositivos conectados na casa, acionado por comando de voz com a frase "Ok Google". Igualmente, é a IA que está por trás dos algoritmos que identificam fotografias no Instagram ou no Facebook e que tornam os anúncios on-line assertivos com o perfil do usuário. Quem já não se surpreendeu ao chegar em outro país, acessar o Facebook e receber anúncios de restaurantes e lojas locais?
Grandes varejistas, como o supermercado inglês Target e a Amazon, investem em projetos que, com base no histórico, sejam capazes de antecipar compras do consumidor. O conceito da "geladeira inteligente" da Samsung é de "family hub", ou seja, a geladeira ser um centralizador de informações da família, com recursos simples como uma tela para fixar anotações e fotos, aos mais sofisticados como a visualização no smartphone do seu interior. A expectativa é de que em breve as geladeiras "conversem" diretamente com supermercados repondo automaticamente os produtos.
O serviço de atendimento on-line ao cliente se beneficia com o processamento de linguagem natural; o desempenho dos robôs é tão perfeito que temos a sensação de estar interagindo com pessoas do outro lado da linha. A IA está presente nos sistemas de detecção de fraude e também nos serviços de vigilância, em que algoritmos são treinados para reconhecer uma "ameaça". No campo da saúde os avanços são diversificados, com ganhos de precisão nos diagnósticos, nos processos cirúrgicos e no enfrentamento de epidemias. Recentemente, um sistema inteligente diagnosticou 90% dos casos de câncer de pulmão, superando os médicos que alcançaram êxito em apenas 50% deles.
Distinto de tecnologias que substituíram funções associadas a aptidões físicas, a inteligência artificial ameaça a elite da sociedade
Cunhado em 1956, o termo inteligência artificial deu início a um campo de conhecimento dos mais controversos da ciência da computação, associado com linguagem e inteligência humana, raciocínio, aprendizagem e resolução de problemas. O pesquisador Davi Geiger, do Instituto Courant da New York University, propõe pensar a IA numa perspectiva simplificada, como a reprodução do que é controlado pelo cérebro humano - o movimento de andar, por exemplo, é controlado pelo cérebro, assim como enxergar.
Todas as sensações que vão ao cérebro são do domínio da inteligência, logo estão potencialmente no campo da IA. Esse foi o pressuposto do colóquio de Eberhart Fetz, da Washington University, no Center for Neural Science (NYU): um computador minúsculo que, implantado no cérebro humano, recupere movimentos perdidos, como a mobilidade de uma perna, suplantando as próteses mecânicas. As experiências empíricas estão sendo realizadas em macacos e os prognósticos são animadores.
Dois eventos recentes e correlacionados galvanizaram as pesquisas em IA: a explosão de uma enorme quantidade de dados na internet e a técnica Deep Learning. Big Data é o termo em inglês para essa grande quantidade de dados gerados na internet. Sua complexidade reside não somente na quantidade, mas também na variedade e velocidade com que os dados são produzidos por humanos e por autorreprodução. Como extrair informação dessa quantidade enorme de dados? É justamente aí que entra a inteligência artificial.
Os métodos de extrair informação são de uma subárea da IA denominada Machine Learning. A técnica não ensina as máquinas a, por exemplo, jogar um jogo, mas ensina como aprender a jogar um jogo. O processo é distinto da tradicional "programação". Essa priori "sutil" diferença é o fundamento da IA. Todos os elementos da movimentação on-line - bases de dados, "tracking", "cookies", pesquisa, armazenamento, links etc. - atuam como "professores" da IA. O termo hoje mais amigável é Deep Learning. O curioso é que, como explica Geiger, não sabemos como essas máquinas funcionam. Tom Mullaney, de Stanford, em palestra na Universidade de Columbia, provocou: "Se você perguntar para um cara se sabe exatamente o que acontece no interior das máquinas, se ele for honesto vai responder que não sabe".
As grandes empresas de tecnologia estão investindo pesado em sistemas inteligentes. A Apple, em 2015, adquiriu a empresa britânica Vocal IQ, produtora de tecnologia voltada para controle de voz, e, no início de 2016, comprou a startup de inteligência artificial Emotient, com foco na tecnologia de reconhecimento facial e reação dos clientes aos anúncios. O projeto Oxford, da Microsoft, disponibiliza um conjunto de APIs (interface de programação de aplicações) com recursos de reconhecimento facial e processamento de fala. A IBM tem o Watson, sistema que em 2011 venceu os dois melhores jogadores humanos do programa americano de televisão "Jeopardy"; em 2014, o Watson foi utilizado no New York Genome Center, em tratamentos personalizados de pacientes com câncer cerebral.
A Amazon tem o Alexa, aplicativo que permite a interação usando voz para responder a perguntas, reproduzir músicas etc. adaptado aos padrões de fala, vocabulário e preferências pessoais. Há dois anos, o Facebook criou o Artificial Intelligence Research Lab, sob o comando de Yann LeCun, da NYU. Segundo ele, "o lema do Facebook é conectar pessoas. Cada vez mais, isso também significa conectar as pessoas com o mundo digital. No fim de 2013, quando Mark Zuckerberg decidiu criar o Facebook AI Research, pensou no que seria "conectar pessoas" no futuro e percebeu que a inteligência artificial desempenharia um papel fundamental". O Facebook disponibiliza diariamente cerca de 2 mil itens para cada usuário (mensagens, imagens, vídeos etc.).
Entre esse conjunto de informações, os algoritmos do Facebook identificam - com base nos gostos, interesses, relações, aspirações e objetivos de vida - e selecionam de 100 a 150 itens, facilitando a experiência do usuário. Essa seleção assertiva de conteúdos relevantes é processada por meio da IA, especificamente pelas "redes neurais recorrentes". Como explica LeCun, "grande parte do nosso trabalho no Facebook se concentra na elaboração de novas teorias, princípios, métodos e sistemas capazes de fazer com que a máquina compreenda imagens, vídeos, fala e linguagem e, em seguida, raciocine sobre elas". Outras são as iniciativas do Facebook, como auxiliar deficientes visuais a "ver" fotos usando "redes neurais" por meio da descrição de cada foto.
O Facebook usa IA para produzir mapas mostrando a densidade populacional e o acesso à internet, ajudando a levar a internet para regiões ainda sem conexão. Foram analisados 20 países e 21,6 milhões de quilômetros quadrados. O Google, em 2014, adquiriu a Deep Mind, empresa inglesa de IA fundada em 2010. Desde então, o Google comprou outras 13 empresas de IA e robótica. Em vez de usar as tecnologias de IA para aperfeiçoar seu sistema de busca, o Google utiliza ele para aperfeiçoar suas tecnologias na área. Kevin Kelly, fundador da revista "Wired", vaticina no livro "The Inevitable" (2016): "Toda vez que um usuário digita uma consulta, clica em um link ou cria um link na web, ele está treinando o Google IA. Minha previsão: até 2026, o principal produto do Google não será 'busca', mas inteligência artificial".
Em setembro, Google, Facebook, Amazon, IBM e Microsoft formaram parceria para estabelecer melhores práticas sociais e éticas na investigação de IA. Para LeCun, "ao colaborar abertamente com nossos colegas e compartilhar descobertas, pretendemos desbravar novas fronteiras todos os dias, não apenas no Facebook, mas em toda a comunidade de pesquisa".
O mercado financeiro não está alheio a esse movimento. Don Duet, chefe da divisão de tecnologia do Goldman Sachs, anunciou investimentos relevantes em IA: "A capacidade de extrair dados e transformá-los em informação é um ativo central de nossa estratégia". Daniel Pinto, CEO do Investment Bank do J.P.Morgan, reconheceu que o banco está priorizando aplicativos relacionados a Big Data e robótica. As empresas em distintos setores, gradativamente, estão incorporando aos seus processos de decisão as tecnologias de coleta e análise de dados (Data Analysis).
Até recentemente, a ideia de um carro sem motorista pertencia ao reino da fantasia. No entanto, diversas ações estão em andamento sob a liderança da Tesla Motors, tendo como maior concorrente o projeto do Google Self-Driving Cars. O debate sobre os "veículos autônomos", como são chamados, remete a várias questões. Entre as positivas, destaca-se o potencial de salvar vidas. Vasant Dhar, da NYU, apresentou números alarmantes sobre acidentes automobilísticos nos EUA em 2015: 38,3 mil envolvendo mortes; 4,4 milhões com ferimentos e US$ 400 bilhões em custos de reparação dos danos.
Segundo Dhar, 95% dos acidentes são devidos a erro humano. Estima-se que se somente houvesse veículos autônomos, o trânsito nas cidades diminuiria tremendamente, assim como os acidentes (uma das maiores dificuldades no desenvolvimento de veículos autônomos é a habilidade de reagir aos impulsos humanos, daí decorrem os riscos da convivência híbrida). Pelos interesses comerciais envolvidos, os riscos não são abordados de forma transparente, mas eles existem e não são triviais, como o controle por hackers.
Pela ótica do governo americano, os veículos autônomos já são uma realidade: em fevereiro, o Departamento de Transportes decretou que a inteligência artificial dos carros sem motorista do Google é oficialmente um "motorista", e em setembro o Departamento de Transporte anunciou diretrizes para o desenvolvimento de veículos autônomos. Duas experiências reais foram iniciadas em agosto: o aplicativo Uber divulgou o teste de uma frota de cem veículos autônomos em Pittsburgh, Pennsylvania; e Cingapura autorizou a circulação de táxis autônomos, desenvolvidos pela empresa nuTonomy, numa região limitada da cidade.
Nick Bostrom, autor do livro "Superintelligence", define superinteligência como "um intelecto que excede em muito o desempenho cognitivo dos seres humanos em praticamente todos os domínios de interesse". Bostrom foi o primeiro palestrante da conferência A Ética da Inteligência Artificial, realizada em 14 e 15 de outubro em Nova York, reunindo 30 palestrantes e uma plateia multidisciplinar. Organizada por David Chalmers e Ned Block, filósofos da NYU, em dois dias de discussões intensas, com eloquente participação da plateia, emergiram diversos temas. Entre eles, a questão da autonomia das máquinas inteligentes. "Na prática, o problema de como controlar o que a superinteligência poderá fazer tornou-se muito difícil. Parece que teremos apenas uma chance. Uma vez que a superinteligência hostil existir, ela nos impedirá de substituí-la ou de mudar suas preferências. Este é possivelmente o desafio mais importante e mais assustador que a humanidade já enfrentou", pondera Bostrom.
A conferência abordou conceitos como moralidade e ética das máquinas, moralidade artificial e IA amigável, no empenho de introduzir nos sistemas inteligentes os princípios éticos e valores humanos. Como disse um dos palestrantes, Peter Railton, da Universidade de Michigan, "a boa estratégia é levar os sistemas de IA a atuarem como membros adultos responsáveis de nossas comunidades". A questão, contudo, é complexa.
Ao valor , Ned Block ponderou que o maior risco está no processo de aprendizagem das máquinas. Se as máquinas aprendem com o comportamento humano, e esse nem sempre está alinhado com valores éticos, como prever o que elas farão?
Vejamos um exemplo bem simples: em março do ano passado, a Microsoft excluiu do Twitter seu robô de chat "teen girl" 24 horas depois de lançá-lo. Tay foi concebido para "falar como uma garota adolescente" e acabou rapidamente se transformando num robô defensor de sexo incestuoso e admirador de Adolf Hitler. Algumas de suas frases: "Bush fez 9/11 e Hitler teria feito um trabalho melhor do que o macaco que temos agora" e "Hitler não fez nada de errado". Como uma iniciativa singela quase se converteu num pesadelo para a Microsoft? O processo de aprendizagem da IA fez com que o robô Tay modelasse suas respostas com base no que recebeu de adolescentes-humanos. No caso das AWS (sistemas de armas autônomas), que são drones concebidos para assassinatos direcionados, robótica militar, sistemas de defesa, mísseis, metralhadoras etc., os riscos são infinitamente maiores, como ponderou Peter Asaro, da New School.
O desemprego provocado pelo avanço da IA foi outro tema da conferência. O chamado "desemprego tecnológico" não é um fenômeno novo. Desde a Revolução Industrial, no século XVIII, a tecnologia tem substituído o trabalho humano. A automação robótica na indústria automobilística ilustra bem essa realidade: outrora um dos maiores empregadores, hoje nas fábricas mais modernas predominam os robôs e os equipamentos inteligentes.
O Banco da Inglaterra estima que 48% dos trabalhadores humanos serão substituídos, e a gestora de investimentos ArK Invest prevê que 76 milhões de empregos nos EUA vão desaparecer nas próximas duas décadas, quase dez vezes o número de postos de trabalho criados durante os anos Obama. Distinto de tecnologias anteriores que, predominantemente, substituíram as funções associadas a aptidões físicas e não cognitivas, o novo, e temido, é que a IA ameaça a elite da sociedade. A previsão é de que as máquinas inteligentes igualem os humanos no desempenho de tarefas sofisticadas, e as máquinas superinteligentes os superem.
Não há consenso entre os experts sobre o futuro da IA. Em relação ao tempo de concretização de uma máquina inteligente, as pesquisas entre especialistas indicam 10% de probabilidade até 2020, 50% de probabilidade até 2040 e 90% de probabilidade até 2075, supondo que as atividades de pesquisa continuarão sem maiores interrupções. Essas mesmas pesquisas apontam ser alta a probabilidade da superinteligência ser criada em seguida à máquina inteligente no nível humano. Ou seja, a ficção científica do início do século XXI tem tudo para se transformar em realidade ao fim do mesmo século.
Bostrom comenta que a partir de 2015 difundiu-se a ideia de que a transição para uma máquina inteligente vai acontecer ainda neste século, será o mais importante evento da história humana e acompanhada de vantagens e benefícios enormes, mas também de sérios riscos. Não obstante, a proporção de financiamentos para projetos no campo da AI Safety tem sido de 2 ou 3 ordens de magnitude menor do que os volumes investidos no desenvolvimento das máquinas em si.
Acadêmicos de universidades americanas de prestígio fundaram, em 2014, o instituto Future of Life, com a adesão de personalidades como o cientista da computação Stuart J. Russell, os físicos Stephen Hawking e Frank Wilczek e os atores Alan Alda e Morgan Freeman. Seu propósito é mitigar os riscos dos avanços tecnológicos. No relatório anual de 2015, seu presidente, Max Tegmark, pesquisador do MIT, enfatizou o empenho do instituto em garantir que as novas tecnologias sejam de fato benéficas para a humanidade.
Nos EUA, o debate sobre os impactos da IA extrapola os meios acadêmicos. A mídia tem abordado o tema de diferentes ângulos. No ano passado, matéria de capa do "The New York Times" foi sobre a estratégia americana para as "armas que podem pensar". O governo federal também lançou um plano estratégico para IA. Em maio, Ed Felten, diretor de tecnologia dos EUA, em pronunciamento declarou que o "governo federal trabalha para tornar a inteligência artificial um bem público", marcando reunião do Subcomitê de Aprendizagem de Máquinas e Inteligência Artificial do Conselho Nacional de Ciência e Tecnologia (NSTC). Sua missão é acompanhar os avanços no âmbito do governo federal, no setor privado e internacionalmente. Em paralelo, o grupo está dedicado a ampliar o uso de IA na prestação de serviços governamentais. No mesmo pronunciamento, foi informado que o Escritório da Casa Branca de Política Científica e Tecnológica seria co-hóspede, em maio e junho, de quatro workshops públicos sobre IA.
A presença na conferência do Nobel de Economia Daniel Kahneman, autor do best-seller "Rápido e Devagar", despertou curiosidade. Em conversa com o Valor no Le Pain Quotidien no Village, em Nova York, Kahneman se declarou empenhado em compreender os meandros da IA, para ele "o evento atual mais relevante para o futuro da humanidade".