*ARQUIVO* SÃO PAULO, SP, 16.10.2018: Logo do Google. (Foto: Adriana Toffetti/A7 Press/Folhapress)

Google silencia enquanto Israel usa seus programas para definir alvos humanos

Google proíbe uso de sua tecnologia para “danos imediatos”, mas Israel está usando reconhecimento facial para perseguir palestinos.

*ARQUIVO* SÃO PAULO, SP, 16.10.2018: Logo do Google. (Foto: Adriana Toffetti/A7 Press/Folhapress)

Há relatos de que as forças armadas de Israel teriam implementado uma rede de reconhecimento facial na Faixa de Gaza, que estaria analisando os palestinos comuns enquanto se movem pelo território devastado, tentando fugir do bombardeio em curso e buscando o sustento de suas famílias.

O programa se vale de duas ferramentas distintas de reconhecimento facial, segundo o jornal New York Times: uma, desenvolvida pelo fornecedor israelense Corsight, e a outra, integrada na popular plataforma de organização de imagens de consumidores oferecida pelo Google Fotos. Uma autoridade israelense anônima relatou ao Times que o Google Fotos funcionava melhor do que qualquer tecnologia alternativa de reconhecimento facial, ajudando os israelenses a criarem uma “lista de alvos” de supostos combatentes do Hamas que teriam participado do ataque em 7 de outubro.

A vigilância em massa de rostos palestinos que resultou dos esforços de Israel para identificar integrantes do Hamas atingiu milhares de moradores de Gaza desde essa data. Muitos dos que foram detidos ou colocados na prisão, frequentemente com poucas provas, ou sem nenhuma, disseram posteriormente ter sido brutalmente interrogados ou torturados. Em sua reportagem, o Times destacou o poeta palestino Mosab Abu Toha, cuja prisão seguida de espancamento nas mãos dos militares israelenses começou com uso de reconhecimento facial. Abu Toha, posteriormente libertado sem acusação formal por nenhum crime, declarou ao jornal que os soldados israelenses lhe disseram que sua prisão, possibilitada pelo reconhecimento facial, havia sido um “equívoco”.

Você possui 1 artigo para ler sem se cadastrar

Deixando de lado as questões de precisão – os sistemas de reconhecimento facial são reconhecidamente menos precisos em rostos não brancos – o uso dos recursos de análise com aprendizado de máquina do Google Fotos para sujeitar civis à vigilância militar, ou pior, está em conflito com as regras claramente estabelecidas pela empresa. Sob o título “Atividades perigosas e ilegais“, o Google alerta que o Google Fotos não pode ser usado para “promover atividades, produtos, serviços ou informações que causem danos graves e imediatos a pessoas”.

O representante da empresa, Joshua Cruz, se recusou a responder a uma pergunta sobre como a proibição contra o uso do Google Fotos para causar danos a pessoas seria compatível com o uso militar por Israel para criar uma “lista de alvos”, alegando apenas que “o Google Fotos é um produto gratuito que está amplamente disponível ao público e ajuda a organizar fotos agrupando rostos similares, permitindo classificar as pessoas e encontrar fotos antigas com facilidade. Ele não fornece identidade para pessoas desconhecidas em fotografias”. (Cruz não respondeu às repetidas tentativas subsequentes de esclarecer o posicionamento do Google.)

O Google alerta que o Google Fotos não pode ser usado para “promover atividades, produtos, serviços ou informações que causem danos graves e imediatos a pessoas”.

Não está claro como essas proibições, nem o compromisso público de longa data da empresa com os direitos humanos, estão sendo aplicados às forças armadas de Israel.

“Depende de como o Google interpreta ‘danos graves e imediatos’ e ‘atividade ilegal’, mas a vigilância por reconhecimento facial dessa forma compromete direitos consagrados nas normas internacionais de direitos humanos: privacidade, não discriminação, liberdade de expressão, direitos de reunião, entre outros”, diz Anna Bacciarelli, diretora associada de tecnologia da organização Human Rights Watch. “Dado o contexto em que essa tecnologia está sendo usada pelas forças israelenses, em meio à negação generalizada, contínua e sistemática dos direitos humanos às pessoas em Gaza, eu esperaria que o Google tomasse as medidas adequadas.”

Fazer o bem ou fazer o Google?

Além da proibição existente nos Termos de Serviço contra o uso do Google Fotos para causar danos às pessoas, a empresa há muitos anos afirma adotar vários padrões globais de direitos humanos.

“Desde a fundação do Google, acreditamos em aproveitar o poder da tecnologia para promover os direitos humanos”, escreveu em 2022, em uma postagem de blog, Alexandria Walden, diretora global de direitos humanos na empresa. “É por isso que nossos produtos, operações comerciais e tomadas de decisão em relação às tecnologias emergentes são informados por nosso Programa de Direitos Humanos e por um compromisso profundo com a ampliação do acesso à informação e a criação de oportunidades para pessoas em todo o mundo.”

Esse profundo compromisso inclui, segundo a empresa, a defesa da Declaração Universal dos Direitos Humanos, que proíbe a tortura, e dos Princípios Orientadores da ONU sobre Empresas e Direitos Humanos, que considera que os conflitos por território produzem algumas das piores violações de direitos.

O uso pelos militares israelenses de um produto Google gratuito e disponível ao público, como o Fotos, traz discussões sobre esses compromissos corporativos com os direitos humanos, e a extensão do que a empresa está disposta a realmente fazer por eles. O Google afirma que apoia e subscreve os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos, que convocam as empresas a “prevenir ou mitigar os impactos adversos sobre os direitos humanos que estejam diretamente ligados a suas operações, produtos ou serviços por meio de relações comerciais, ainda que não tenham contribuído para esses impactos”.

O uso pelos militares israelenses de um produto Google gratuito e disponível ao público, como o Fotos, traz discussões sobre esses compromissos corporativos com os direitos humanos, e a extensão do que a empresa está disposta a realmente fazer por eles.

Walden também diz que o Google apoia as diretrizes voluntárias de Devida Diligência em Direitos Humanos com Sensibilidade a Conflitos para Empresas de TIC, que ajudam as empresas de tecnologia a evitarem o uso indevido de seus produtos. Dentre as muitas recomendações do documento, está a de que empresas como o Google devem levar em conta “o uso de produtos e serviços para vigilância estatal em violação às normas internacionais de direitos humanos, causando impactos imediatos de privacidade e segurança física (p. ex., localizar, deter ou prender alguém)”. (Nem a organização JustPeace Labs, nem a Business for Social Responsibility, coautoras das orientações sobre devida diligência, responderam aos pedidos de comentários.)

“Ambas, Google e Corsight, têm a responsabilidade de assegurar que seus produtos e serviços não causem ou ensejem violações aos direitos humanos”, diz Bacciarelli. “Eu esperaria que o Google tomasse medidas imediatas para impedir o uso do Google Fotos nesse sistema, com base nessa notícia.”

Os funcionários do Google que participam da campanha “No Tech for Apartheid” (Sem Tecnologia para o Apartheid), um movimento de protesto liderado pelos trabalhadores contra o Projeto Nimbus, vêm cobrando de seu empregador que impeça os militares israelenses de usarem o reconhecimento facial do Fotos para promover a guerra em Gaza.

“O fato de que os militares israelenses estão instrumentalizando tecnologia de consumo como o Google Fotos, usando o reconhecimento facial incluído nela para identificar palestinos, como parte de seu aparato de vigilância, indica que os militares israelenses usarão qualquer tecnologia oferecida a eles, a não ser que o Google tome medidas para assegurar que seus produtos não contribuam para a limpeza étnica, a ocupação, e o genocídio”, declarou o grupo em um comunicado compartilhado com o Intercept. “Como funcionários do Google, exigimos que a empresa abandone o Projeto Nimbus imediatamente, e interrompa todas as atividades em apoio ao governo israelense e ao objetivo genocida dos militares de dizimar Gaza.”

Projeto Nimbus

Não seria a primeira vez que os supostos princípios de direitos humanos do Google estariam em contradição com suas práticas comerciais, nem mesmo em Israel. Desde 2021, o Google vem vendendo aos militares israelenses ferramentas avançadas de computação em nuvem e aprendizado por máquina, por meio de seu controverso contrato do “Projeto Nimbus”.

Ao contrário do Google Fotos, um produto de consumo gratuito disponível para todas as pessoas, o Projeto Nimbus é um projeto personalizado de software adaptado sob medida às necessidades do estado israelense. As habilidades de reconhecimento facial do Nimbus e do Google Fotos, porém, são resultado dos imensos recursos de aprendizado de máquina da empresa.

A venda dessas ferramentas sofisticadas para um governo tão frequentemente acusado de cometer violações dos direitos humanos e crimes de guerra se opõe aos Princípios da IA do Google. As diretrizes proíbem usos de IA que possam causar “danos”, incluindo qualquer aplicação “cujo propósito viole os princípios amplamente aceitos do direito internacional e dos direitos humanos”.

Ainda não está claro se, ou como, o Google irá transformar suas afirmações do blog executivo em consequências no mundo real.

O Google já deu a entender anteriormente que seus “princípios” são na verdade bem mais restritos do que parecem, e se aplicam apenas a “trabalhos personalizados de IA”, não ao uso geral de seus produtos por terceiros. “Isso significa que nossa tecnologia pode ser usada de forma bastante ampla pelos militares”, disse um representante da empresa ao site Defense One, em 2022.

Ainda não está claro se, ou como, o Google irá transformar suas afirmações do blog executivo em consequências no mundo real. Ariel Koren, ex-funcionária do Google que diz ter sido obrigada a deixar o emprego em 2022 após protestar contra o Projeto Nimbus, atribuiu o silêncio do Google sobre a questão do Fotos a um padrão mais amplo de evitar responsabilidade pela forma como sua tecnologia é usada.

“É um eufemismo dizer que colaborar e incentivar um genocídio constitui uma violação dos princípios de IA e termos de serviço do Google”, diz Koren, que agora é organizadora da No Tech for Apartheid, em resposta ao Intercept. “Mesmo na ausência de declarações públicas, as ações do Google deixam claro que os princípios públicos de ética em IA da empresa não têm influência ou peso sobre as decisões comerciais do Google Cloud, e que nem mesmo a cumplicidade no genocídio é uma barreira para a busca implacável da empresa pelo lucro a qualquer custo.”

Nem todo mundo pode se dar ao luxo de pagar por notícias neste momento.

E isso está tornando cada vez mais difícil financiar investigações que mudam vidas.

A maioria dos jornais lida com isso limitando o acesso a seus trabalhos mais importantes por meio de assinaturas.

Mas no Intercept Brasil, acreditamos que todos devem ter acesso igual à informação.

Se você puder, há muitos bons motivos para nos apoiar:
1) Nosso objetivo é o impacto: forçamos os ricos e poderosos a respeitar pessoas como você e a respeitar a lei
2) Somos financiados pelos leitores, não por corporações, e somos sem fins lucrativos: cada real vai para nossa missão de jornalismo sem rabo preso, não para pagar dividendos
3) É barato, fácil e seguro e você pode cancelar quando quiser

Escolha fortalecer o jornalismo independente e mantê-lo disponível para todos com uma doação mensal. Obrigado.

FAÇA PARTE

Faça Parte do Intercept

Inscreva-se na newsletter para continuar lendo. É grátis!

Este não é um acesso pago e a adesão é gratuita

Já se inscreveu? Confirme seu endereço de e-mail para continuar lendo

Você possui 1 artigo para ler sem se cadastrar