João Marcello Santos
A cada 16 segundos, um cidadão declarou ter sido vítima de estelionato no Brasil em 2023. Foram quase 2 milhões de casos registrados, de acordo com o Anuário Brasileiro de Segurança Pública. Os golpes virtuais cresceram 13,6% em relação ao ano anterior, ultrapassando os índices de crimes de rua, enquanto os registros de roubos a instituições financeiras, por exemplo, caíram quase 30%. Desde 2021, quando o crime de fraude eletrônica passou a ter uma tipificação específica, o número de registros desses casos aumentou. Junto com os crimes, cresce a preocupação com a segurança digital, conjunto de métodos e tecnologias que protegem computadores, redes e sistemas contra invasores que tentam roubar informações e valores financeiros. Especialistas advertem para a necessidade de conscientização das pessoas sobre a exposição de seus dados, mas apontam, principalmente, a execução de políticas públicas e privadas de proteção coletiva.

Mariana Palmeira
“Nossa proteção nas redes precisa ser tão intensa quanto a proteção da nossa integridade física”, alerta a professora de Direito e Comunicação da PUC-Rio Mariana Palmeira, integrante da Comissão de Privacidade e Proteção de Dados da OAB-RJ, citando o jurista italiano Stefano Rodota, criador do conceito de corpo eletrônico. A proteção vai depender, diz, na medida em que as pessoas conheçam cada vez mais seus direitos, e os agentes de tratamento de dados (empresas públicas e privadas ou profissionais como advogados, contadores, médicos etc.) cumpram seus deveres. “Nesse sentido, a educação digital e a sensibilização são caminhos fundamentais para que a gente não saia fornecendo nossos dados à toa”, afirma a especialista. Um exemplo é o pedido do CPF em farmácias, em troca de descontos. Levantamentos recentes já analisaram supostos programas de fidelidade pouco claros em relação às vantagens para o cliente e à real necessidade de cadastro.

André Houang
Coordenador de pesquisa da InternetLab, centro independente de pesquisas sobre direito e tecnologia, André Houang, também defende a co-responsabilidade entre usuários, poder público e empresas. Mas ressalta o papel dos setores público e privado na garantia à privacidade e segurança:
“Quando se fala de proteção de dados na internet, é muito importante que a gente não coloque o ônus só no usuário. É fácil de colar o discurso de que ‘o brasileiro não se protege na internet, não presta atenção e leva muito golpe no WhatsApp’. O que se tem que verificar é o que permite esses riscos, quais os arranjos que favorecem isso”, pondera. “É importante não só pensar em como o usuário pode cuidar da proteção dos dados individuais, mas olhar de forma mais ampla: como o Estado e as empresas podem prezar pelos dados individuais”.
A pesquisadora e cientista da computação Ana Carolina da Hora, conhecida por Nina da Hora, também vê desafios de cibersegurança contemporâneos que envolvem atuações conjuntas de indivíduos, corporações e instituições, por meio de treinamentos e renovações nas culturas digitais: “Reconhecer o impacto da coleta de dados pessoais sem consentimento vai fazer parte do nosso dia a dia. A gente realmente tem que entender a extensão que o ambiente digital tem nas nossas vidas, e que já está interferindo na forma como nos relacionamos”.

Nina da Hora
Em relação ao papel de empresas e do Estado na segurança digital, Nina avalia que o poder público tem responsabilidade extra: “A segurança da informação não diz respeito somente a como o indivíduo se protege. O governo precisa garantir um dos princípios fundamentais, que é o acesso a bens e serviços de forma qualitativa, e hoje muitos dos serviços que nós estamos acessando são pelo meio digital. Então é preciso garantir acesso seguro e suporte a qualquer acontecimento que fuja da integridade. Essa robustez deve ser proporcionada pelo Estado”, defende Nina.
A especialista questiona ainda se seria adequado deixar nosso bem-estar digital a cargo do setor privado: “Os indivíduos não estão nas esferas de decisão. Não tem como deixar com o setor privado, que tem outros objetivos, que se entrelaçam com os resultados finais. Não podemos deixar que um único setor assegure a garantia da segurança, robustez e integridade da nossa da nossa experiência digital”.
André lembra que as empresas no Brasil ainda estão desenvolvendo sistemas de proteção de dados. “Muitas delas já deveriam ter se adequado à Lei Geral de Proteção de Dados (LGPD), o que é o mínimo. É importante pensar em como elas podem avançar na garantia da proteção dos seus usuários”, reitera, lembrando que não são só empresas privadas, mas órgãos públicos como Receita Federal, SUS, Correios e SPTrans tiveram grandes vazamentos de dados nos últimos anos.
A Lei Geral de Proteção de Dados (LGPD) abrange um amplo conjunto que compreende os meios manuais e digitais. A Autoridade Nacional de Proteção de Dados (ANPD), agência vinculada ao Ministério da Justiça e Segurança Pública, é responsável por zelar pela proteção dos dados pessoais, bem como orientar, regulamentar e fiscalizar o cumprimento da LGPD.
Em setembro, a ANPD lançou uma página específica sobre Transferência Internacional de Dados (TID) em seu portal oficial. A plataforma visa garantir maior transparência e compreensão das empresas e dos cidadãos sobre a movimentação dos dados pessoais para fora do território nacional. A agência chegou a suspender o treinamento das ferramentas da Meta, controladora de WhatsApp, Instagram e Facebook, por meio da coleta de dados pessoais de usuários, mas reverteu a decisão. A LGPD estabelece em quais situações os dados pessoais podem ser tratados pelo agente tratador de dados: por consentimento do usuário do titular de dados, por legítimo interesse ou por cumprimento do dever legal. Fora dessas hipóteses, o tratamento de dados pessoais é ilegal.
A InternetLab vê “com grande preocupação” o uso de dados de usuários pela Meta, que em setembro mandou e-mail aos usuários do Facebook e do Instagram falando do tratamento de dados pessoais para o desenvolvimento de ferramentas gerais, e citando “o legítimo interesse” como base legal para o tratamento: “Se realmente existe um interesse que poderia ser usado para tratar dados pessoais nesse caso, acho questionável. Talvez o consentimento fosse mais interessante nesse caso, mas teria que envolver todos os usuários”, avalia André, lembrando que, muitas vezes, não se sabe qual a base legal desses desenvolvimentos de IA, que em muitos casos ocorrem no exterior.
Outra grande preocupação é em relação a como empresas e governos estão adotando a Inteligência Artificial para controle de segurança, por exemplo, no reconhecimento facial:
“Ferramentas já são empregadas em larga escala por usuários comerciais e, a depender do tratamento dos dados pessoais e da aplicação da ferramenta de IA, podem colocar em risco muitos direitos fundamentais. O reconhecimento facial é um grande problema, no sentido de discriminação de pessoas pretas, pessoas marginalizadas, mulheres, porque as ferramentas erram muito mais para essas populações minorizadas do que para homens brancos. E a aplicação disso para a segurança pública envolve prisões, violência policial etc. Temos que olhar muito com cuidado como estamos treinando e aplicando esses sistema”, argumenta André.
Nina completa: “Temos esse desafio de vieses dentro desses algoritmos. Nós já sabemos que a ciência não é neutra e o que vai ser reproduzido da Inteligência Artificial não é neutro. Então como vamos tratar esses vieses? Privacidade e vigilância. Até que ponto você usar o sistema de IA como aliada vai garantir a privacidade? Ou ela vai acelerar a vigilância? Tem uma dependência excessiva dessa automação, que nós precisamos discutir, e a privacidade de vigilância”.
Um caminho possível, para a pesquisadora, é abrir espaço para pensar outros formatos além do que conhecemos: “Acho importante pensar a diversidade do ponto de vista da pluralidade, e entender o futuro como ‘futuros’, nesse sentido da diversidade, principalmente com a tecnologia; onde são necessárias mais pessoas diferentes de homens brancos e mulheres brancas se desenvolvendo e tomando as decisões. E para isso vai levar tempo, muita conversa e muita construção”.