Após sete anos a cuidar dos dados no Twitter, onde chegou a vice-presidente — tendo deixado a empresa quando Elon Musk comprou e posteriormente transformou em X — , Damien Kieran lidera há seis meses a pasta da Privacidade na Tools for Humanity, um dos principais provedores de soluções da World Network, a rede de "humanos reais" descrita como singular porque, na era de ouro da Inteligência Artificial (IA), se constrói sobre pessoas, comprovadamente humanas, sem pôr em risco a sua privacidade. A comunidade a que Damien se juntou assume uma missão: recuperar a garantia de humanidade, preservando a individualidade de uma forma que aquela garantia não acarrete o risco de acesso a dados pessoais e consequente possibilidade de cópia.

Mais simplesmente, numa altura em que bots constroem muito do que absorvemos e com que lidamos pelos múltiplos ecrãs em que vivemos (é mesmo assim, porque não são apenas as redes sociais, é também a nossa relação com o banco, com o Estado, com as mais diversas organizações que se faz por via virtual), em que a credibilidade dos serviços e das mensagens é posta em causa pelo realismo do deep fake e pelas incontáveis possibilidades (muitas delas excelentes) que nos abre a IA, a equipa de Damien sentiu necessidade de criar um sistema que atestasse o fator humano. A aplicação deste tipo de ferramentas vai de uma mera certificação bancária (assegurar que sou eu que estou a movimentar a minha conta) à possibilidade de melhor garantir a quem chegam os subsídios estatais ou que são pessoas reais que votam digitalmente.

Os dados biométricos, concretamente da íris — que tem características tão únicas quanto as impressões digitais ou o ADN, sendo mais simples e menos dispendioso de obter e codificar sem falsos positivos —, foram a resposta. Mas para criar este universo de forma inclusiva e segura, havia que garantir que esses dados não poderiam ser guardados, usados, vendidos ou sequer disponibilizados a nenhuma pessoa ou organização. É este o desafio a que a Tools for Humanity se propôs responder.

Em entrevista ao SAPO à margem da Web Summit, Damien Kieran, chief Legal and Privacy Officer na Tools for Humanity, explica o problema e a resposta, conta como funciona a rede e em que ponto de utilização está. E não esconde os riscos — a que prefere chamar desafios — que a organização enfrenta.

A Tools for Humanity propõe-se criar um sistema económico mais justo. Mas como funciona?
A nossa missão é criar a maior e mais fidedigna rede de humanos, que seja digital e financeiramente inclusiva. O que queremos é construir um  sistema de hardware e software que permita às pessoas autenticar-se como seres humanos em segurança.

Como é que isso funciona?
É complicado, mas  forma mais fácil de pormos a questão é esta: um utilizador faz o download de uma app e nós não queremos saber nada sobre ele; não lhe perguntamos o nome, nem o e-mail ou o telefone. Pode associar um número, mas apenas se o definir para encontrar pessoas que possa conhecer na app. Quando faz o download, a app contém um World ID, mas essa identificação também não está de forma alguma ligada à pessoa.

Esse foi aliás um ponto definidor no projeto.
Sim, quando Sam Altman e Alex Blania fundaram a World, fizeram-no acreditando que era um desafio técnico bastante complexo determinar se do outro lado da interação está um computador ou de facto um ser humano único. Num mundo em que a Inteligência Artificial (IA) está espalhada e em constante evolução, qualquer coisa pode ser replicada por IA, seja uma identificação ou as características do rosto. Então, se qualquer coisa do exterior do ser humano pode ser falsificada e replicada por IA, temos de olhar para o que está dentro do corpo humano, ou seja os dados biométricos.

Mas os dados biométricos são supercomplexos.
Certo. E têm quatro tipos diferentes: a cara, as impressões digitais, o ADN e a íris. Os dois primeiros não funcionam porque são falsificáveis — eu posso tirar uma fotografia e criar um deep fake a partir daí, e por outro lado, quando se trabalha bases de dados com 60 a 80 milhões de rostos, começamos a ter falsos positivos. O mesmo vale para as impressões digitais. Portanto, quando estamos a falar de milhares de milhões de pessoas, isto não funciona. O ADN é fantástico, mas é muito caro e lento, implica laboratórios especiais... Então resta a íris.

Se considerarmos as íris, podemos ir a mais de 2 mil milhões de pessoas antes de começarmos a ter falsos positivos.

E não é algo intrusivo?
Os dados biométricos são-no sempre, são muito pessoais. Por isso é que este trabalho é importante. Se considerarmos as íris, podemos ir a mais de 2 mil milhões de pessoas antes de começarmos a ter falsos positivos, por isso é um meio muito mais seguro. E melhorando o hardware, conseguiríamos aumentar em mais mil milhões. A beleza disto é que é muito mais seguro do que qualquer outro meio, porque não é possível usar uma câmara normal para sacar o código da íris. E é aqui que entra o hardware... Foi por isso que desenvolvemos a Orb, que é basicamente uma câmara altamente especializada, desenhada para identificar seres humanos.

Como é que funciona?
Então, faz-se o download da app e forma-se um QR Code que se mostra à Orb; e a Orb começa a comunicar com a app. O que nós fazemos é tirar uma série de fotografias da cara e dos olhos. Na Orb, há uma rede neural, IA construída para responder a duas perguntas simples: "é um humano?" e "está vivo?" A Orb tem uma quantidade de sensores que analisam a cor da pele, a temperatura, etc. para atestar se é de facto uma pessoa e não um iPad ou um cão, e quando responde positivamente às duas questões concentra-se nos olhos e vai buscar as suas especificidades únicas. A partir daí, é possível traduzir essa informação em 0 e 1, em código binário, e criar um código de íris.

Mas então esse código é único mas passível de ser ligado a alguém.
Não com este sistema, porque quisemos precisamente endereçar esse risco. Então, na primeira vez que está a utilizar a Orb, nós pegamos nesse código e anonimizamo-lo, usando uma tecnologia especial da série PET (Privacy Enhancing Technology)— chama-se Secure Multi Party Computation — , que envolve ciência computacional altamente complexa. Basicamente, o que faz é anonimizar o código partindo-o em pedaços e arquivando-os separadamente em bases de dados detidas e operadas por universidades e organizações sem fins lucrativos. Portanto, nós nunca temos acesso aos dados pessoais. Uma vez feita a anonimização, voltamos à Orb e tiramos fotografias do código de íris e reservamo-lo num pacote encriptado que fica no seu telefone. Portanto, cada pessoa fica com um cópia dos seus dados pessoais. E depois imediatamente apagamos esses dados da Orb, não reservamos nada de dados pessoais. Zero. Eles existirão apenas na forma partida e anonimizada nas bases daquelas instituições. E a partir daí a World ID está pronta a usar.

E pode usar-se de que forma?
Dou um exemplo simples: você quer ir ao Twitter e tem um "entrar com Google ou Facebook" e "verificar com World ID". O nosso sistema então recorre a outro sistema PET através do telemóvel. O que o smartphone faz é pedir ao Twitter para me verificar: ele envia o pedido de volta para o telefone e este tem uma chave secreta, sua, que faz a correspondência através de blockchain. Havendo essa correspondência, o telemóvel envia então o pedido de confirmação às três bases de dados e é como se lhes perguntasse se já o viram. As bases de dados então respondem se sim ou não, e o telemóvel envia a confirmação ao Twitter.

Não há movimentação nenhuma de dados entre as empresas, ou seja as bases de dados não fazem ideia que o pedido vem através do Twitter e o Twitter não tem ideia de quem está nas bases de dados. É a chamada prova de conhecimento zero.

Ou seja, não há acesso a dados nem troca de dados.
Não há movimentação nenhuma de dados entre as empresas, ou seja as bases de dados não fazem ideia que o pedido vem através do Twitter e o Twitter não tem ideia de quem está nas bases de dados. É a chamada prova de conhecimento zero. Estas tecnologias foram criadas por outros, mas nós somos a empresa que maior implementação faz delas. E o que isto permite vai muito além da autenticação no Twitter. É utilizável em qualquer circunstância em que seja preciso provar que é um humano único que ali está, sendo absolutamente anónimo ao mesmo tempo. Por exemplo, eu quero instalar um sistema de voto digital e consigo assegurar que não há fraude, cada pessoa só vota uma vez e em segurança. Eu quero dar benefícios sociais e garantir que não há fraude, e com isto consigo assegurar que o subsídio é atribuído a uma única e determinada pessoa. Eu quero garantir que consigo entrar na minha conta bancária em segurança e consigo fazê-lo. Há uma infinidade de aplicações.

E há muitas organizações a aderir, já estão em muitas geografias?
Nós começámos a introduzir as Orb no mercado em julho de 2023, aos poucos, e estamos agora a entrar numa fase de franca expansão internacional. Temos sedes na Alemanha e em São Francisco e já estamos numa quantidade de países da América Latina. Ainda nesta semana chegámos ao Brasil, já estamos na Coreia do Sul, Japão, Singapura, Malásia, Filipinas. Segue-se a Indonésia e depois Austrália. E na União Europeia já temos presença na Alemanha, Áustria, Polónia, estamos prestes a lançar na Hungria e Roménia, Itália, França, Irlanda e temos o Reino Unido a caminho.

É utilizável em qualquer circunstância em que seja preciso provar que é um humano único que ali está, sendo absolutamente anónimo ao mesmo tempo.

E que tipo de aplicações têm sido mais usadas?
A ferramenta de verificação, para assegurar que as pessoas conseguem fazer essa verificação e começam a aderir. Alguns exemplos de utilizações estão já disponíveis por exemplo no Discord — se eu tenho um servidor na rede, posso limitar a presença apenas a humanos únicos. O mesmo acontece com a Reddit e a Okta. Há uma semanas, em São Francisco, fizemos um anúncio importante de novas aplicações e produtos, anunciámos uma coisa chamada MiniApps, que é um kit para developers que permite às pessoas começar a desenvolver serviços em cima da rede. Por exemplo, em Buenos Aires, já temos 1/3 da população verificada e estão a começar a surgir desenvolvimentos locais. Também estamos a trabalhar numa parceria pública a nível autárquico, mas também a nível federal, na Argentina. E com o governo da Malásia firmámos uma parceria para construir a sua plataforma digital de identificação. O governo de Taiwan também está connosco.

Mas este tipo de serviço nas mãos de governos não é um risco?
É uma boa pergunta... A resposta simples é não. E a razão é o facto de que o que nós oferecemos — e queremos que as pessoas entendam bem isto — é um sistema em que cada pessoa é 100% anónima. Ninguém tem como saber quem são as pessoas individualmente. Se queremos que isto tenha utilidade pública, que seja utilizável por qualquer um,  seja governo, empresa ou indivíduo, temos de garantir a segurança; e a única forma de o garantir em absoluto é a anonimidade e a descentralização. Assim ninguém o pode controlar e todos o podem usar. Foi o que construímos no protocolo. E fizemo-lo em open source, de forma que qualquer um possa testar a sua segurança. Acho bem que se faça essas perguntas e toda a gente devia olhar a tecnologia que temos, para perceber porque é que não existem esses riscos.

Se queremos que isto tenha utilidade pública, que seja utilizável por qualquer um,  seja governo, empresa ou indivíduo, temos de garantir a segurança; e a única forma de o garantir em absoluto é a anonimidade e a descentralização. Assim ninguém o pode controlar e todos o podem usar. Foi o que construímos no protocolo. E fizemo-lo em open source.

Portugal também está no vosso radar?
Já iniciámos a operação, mas depois parámos. Queremos recomeçar, mas estamos à espera que a CNPD responda aos nossos pedidos de reunião, para podermos explicar o funcionamento e responder a preocupações que possam existir. Mas até estarem prontos para nos ouvir, tem levado tempo, tem sido um desafio. Acredito que nos próximos meses consigamos reabrir essa comunicação e reunir-nos com a CNPD de forma profícua, também para responder às dúvidas e inquietações que quer o regulador quer os cidadãos possam ter.

Como é que esta tecnologia proteger-nos de deep fakes ou de fraudes eleitorais e outras?
Bem, quando as pessoas querem fazer esquemas estão sempre à procura da maneira de entrar...

Nós somos otimistas em relação à IA, acreditamos que vai fazer muito bem. Mas é preciso ter as ferramentas certas. Não é porque algo é um bot que é mau.

É como quando se muda a fechadura de casa.
Exato. Mas acreditamos que esta ferramenta traz mesmo uma possibilidade de mudar drasticamente, para melhor, a forma como nos protegemos contra essas atividades. Voltando ao exemplo do Twitter, ter todos os utilizadores verificados permitiria saber quais deles são humanos e quais são máquinas. Mais facilmente podemos ter uma confiança nos serviços que hoje não existe. Um pagamento com cartão de crédito não é 100% seguro que seja feito por alguém, pode ser um bot. Quanto às deep fakes, lançámos em São Francisco uma funcionalidade que é o Deep Face, em outubro, que é o primeiro produto para resolver esse problema. Imagine que esta entrevista estava a acontecer em Zoom: hoje eu posso usar um filtro de IA e fingir que sou outra pessoa com grande realismo. A solução que criámos é um sistema de integração que se pode aplicar a qualquer programa para provar a quem está do outro lado que somos quem dizemos que somos. Também tem aplicações no YouTube, por exemplo.

Pode também ser um instrumento para nos proteger do lado negro da IA?
Nós somos otimistas em relação à IA, acreditamos que vai fazer muito bem. Mas é preciso ter as ferramentas certas. Não é porque algo é um bot que é mau, todos nós já usamos e cada vez mais usaremos IA. O que é importante é que possamos saber se este é o Damien ou o Damien em IA, e com isso reganhar confiança. Estas ferramentas serão importantíssimas num mundo cheio de IA.

E que riscos tem esta tecnologia?
Prefiro chamar-lhes desafios. Para mim, um desafio é educar as pessoas em relação ao que é este sistema, mas também em relação ao que não é. Explicar-lhes como funciona. Tem havido muitas interpretações erradas do que fazemos — dizem que estamos a recolher dados, a criar uma base de dados biométricos, que os vamos vender... Tudo isto é falso. Mas é um desafio fazer entender o que está em causa. Ter informação correta e adequada é de enorme importância. Portanto há aqui um desafio de formação para governos, reguladores e pessoas.