FICHA TÉCNICA
CENTRO DE ENSINO E PESQUISA EM
INOVAÇÃO
INTERNET SOCIETY CAPÍTULO BRASIL
ISOC Brasil
Presidente
CEPI FGV Direito SP
Coordenação
Alexandre Pacheco da Silva
Marina Feferbaum
Pesquisadores envolvidos
Ana Carolina Rodrigues
Flavio Rech Wagner
Saiba mais: https://isoc.org.br/
APOIO
Twitter Brasil
Ana Paula Camelo
Coordenadora de Políticas Públicas do
Twitter Brasil
Guilherme Forma Klafke
Natália Neris
João Pedro Favaretto Salvador
Jordan Vinícius de Oliveira
DIAGRAMAÇÃO
Laurianne-Marie Schippers
Laurianne-Marie Schippers
Victor Doering Xavier da Silveira
Tatiane B. Guimarães
Saiba mais: http://bit.ly/cepidireitosp
Este trabalho está licenciado sob uma licença Creative Commons.
Como citar este trabalho
CEPI FGV DIREITO SP; ISOC BRASIL. Estrutura e funcionamento da Internet: aspectos técnicos, políticos e regulatórios – Curso livre. São Paulo: FGV Direito SP; ISOC Brasil, 2022.
As opiniões expressas nesta publicação são de responsabilidade exclusiva dos(as) autores(a)s, não refletindo necessariamente a opinião institucional do CEPI FGV Direito
SP, da ISOC Brasil e/ou do Twitter Brasil.
Estrutura e funcionamento da internet [recurso eletrônico] : aspectos técnicos, políticos e regulatórios / organização, Centro de Ensino e Pesquisa em Inovação da Escola de
Direito de São Paulo da Fundação Getulio Vargas, Internet Society-Capítulo Brasil. - São
Paulo : CEPI-FGV Direito SP/ISOC Brasil, 2022.
119 p.
Inclui bibliografia.
ISBN: 978-65-87355-38-2
1. Internet - aspectos morais e éticos. 2. Internet - aspectos políticos. 3. Liberdade de
expressão. 4. Desinformação. 5. Inteligência artificial. 6. Proteção de dados. I. Internet
Society-Capítulo Brasil. II. Fundação Getulio Vargas. Centro de Ensino e Pesquisa em
Inovação. III. Escola de Direito de São Paulo da Fundação Getulio Vargas.
CDU 004.738.5
Ficha catalográfica elaborada por: Cristiane de Oliveira CRB SP-008061/O
Biblioteca Karl A. Boedecker da Fundação Getulio Vargas - SP
ESTRUTURA E FUNCIONAMENTO DA INTERNET:
ASPECTOS TÉCNICOS, POLÍTICAS
Realização: CEPI FGV Direito SP | ISOC Brasil
Apoio: Twitter Brasil
Artigos elaborados como produtos do curso livre (2021)
Os textos apresentados a seguir foram elaborados como produtos do curso livre
Estrutura e funcionamento da Internet: aspectos técnicos, políticas (2021), que
teve como objetivo aprofundar o conhecimento sobre a estruturação, os princípios
norteadores e o funcionamento da Internet e engajar e capacitar profissionais de
múltiplas áreas para que possam incidir nos debates sobre políticas públicas para o
setor no Brasil.
A partir de encontros e debates online semanais, entre setembro e novembro de
2021, os(as) alunos(as) desenvolveram um ensaio como trabalho final que consta
nesta publicação. Os textos foram comentados por pesquisadores e pesquisadoras
do CEPI e a versão final revisada pelos alunos(as).
Refletindo a proposta e dinâmica do curso estruturada a partir do tema da Internet
Aberta, os textos exploram suas dimensões jurídicas, tecnológicas, sociológicas, de
políticas públicas, entre outras.
Na primeira seção, apresentamos as perspectivas do CEPI, da ISOC Brasil e do
Twitter Brasil que viabilizaram este projeto. Na sequência, serão apresentados os
trabalhos que foram organizados na seguinte ordem: (i) Abordagens Conceituais; (ii)
Moderação de Conteúdo; (iii) Desinformação; (iv) Algoritmos e uso ético de Inteligência Artificial; (v) Privacidade e Proteção de Dados Pessoais; (vi) Soberania Digital. Dentro dessas seções, por sua vez, os trabalhos foram organizados em ordem
alfabética dos(as) autores(as).
Boa leitura!
SUMÁRIO
SOBRE O CURSO: CEPI FGV DIREITO SP ..................................................... 5
SOBRE O CURSO: INTERNET SOCIETY ...................................................... 10
SOBRE O CURSO: TWITTER BRASIL........................................................... 13
ABORDAGENS CONCEITUAIS......................................................................... 15
NOTAS INICIAIS SOBRE OS CONCEITOS DE PROVEDORES A PARTIR DA DISTINÇÃO DO
PROJETO DE LEI Nº 2630 ........................................................................................................ 16
MODERAÇÃO DE CONTEÚDO........................................................................ 22
FAKE, VERDADE OU IRONIA? O SUBJETIVISMO LINGUÍSTICO E CULTURAL COMO DESAFIO
À MODERAÇÃO DE CONTEÚDO ......................................................................................... 23
FACEBOOK PAPERS E A TRANSPARÊNCIA DE ALGORITMOS A FAVOR DO DEBATE
REGULATÓRIO: ESTUDO DE CASO ....................................................................................... 30
LIBERDADE DE OPINIÃO AINDA É PERMITIDA NA INTERNET? ............................................. 36
MODERAÇÃO DE CONTEÚDO NA INTERNET – UMA BREVE AVALIAÇÃO DOS TERMOS DE
USO DO INSTAGRAM ............................................................................................................. 44
DESINFORMAÇÃO .......................................................................................... 51
O IMPACTO DA “PL DAS FAKE NEWS” NA LIBERDADE DE EXPRESSÃO.............................. 52
FORMAS DE COMBATE À DESINFORMAÇÃO SOBRE A PANDEMIA DE COVID-19
ADOTADAS PELO TWITTER ..................................................................................................... 62
ALGORITMOS E USO ÉTICO DE INTELIGÊNCIA ARTIFICIAL ........................... 71
UTILIZAÇÃO DE INTELIGÊNCIA ARTIFICIAL NA TOMADA DE DECISÕES EM DIFERENTES
CENÁRIOS: ASPECTOS POSITIVOS E NEGATIVOS, O PAPEL DA ATUAÇÃO HUMANA NESSE
CONTEXTO E O GRAU DE TRANSPARÊNCIA NAS DECISÕES .............................................. 72
TRANSPARÊNCIA E EXPLICABILIDADE DE ALGORITMOS: DA CLUSTERIZAÇÃO AO
INDIVÍDUO .............................................................................................................................. 79
TRANSPARÊNCIA DE ALGORITMOS E GIG ECONOMY: DISCUSSÕES ACERCA DA
VIABILIDADE DE REALIZAÇÃO DE PERÍCIA ALGORÍTMICA................................................. 88
INTELIGÊNCIA ARTIFICIAL E MODERAÇÃO DE CONTEÚDO: ANÁLISE DO PROJETO DE LEI Nº
4120/2020 ............................................................................................................................... 96
PRIVACIDADE E PROTEÇÃO DE DADOS PESSOAIS ..................................... 103
OS DADOS SÃO DE QUEM? ................................................................................................ 104
SOBERANIA DIGITAL ..................................................................................... 112
FLUXOS TRANSNACIONAIS E INTERNET ABERTA NO SÉCULO XX ...................................... 113
SOBRE O CURSO
CEPI FGV DIREITO SP
Sobre o curso: CEPI FGV Direito SP
Esta publicação nasce em um momento importante de debates e reflexões sobre
o que entendemos e defendemos como Internet aberta: uma Internet conectada
globalmente, segura e confiável para todos.
Em 2009, o Comitê Gestor da Internet (CGI) lançava 10 Princípios para a governança e uso da Internet, naquela época tidos como princípios inéditos em âmbito
local (Brasil) e global, com impactos de longo prazo, dentre eles na redação do
Marco Civil da Internet e da Lei de Proteção de Dados brasileira (Possebon, 2019).
A importância e atualidade do Decálogo do CGI se materializa na defesa da: Liberdade de expressão, defesa da privacidade e respeito aos direitos humanos;
Governança democrática e coletiva, multilateral e transparente; Acesso universal
para desenvolvimento social e humano; Diversidade cultural; Inovação; Neutralidade da rede, não admitindo qualquer tipo de discriminação ou favorecimento político, comercial, religioso ou cultural; Estabilidade, segurança e funcionalidade a
partir de padrões abertos e globais; além da garantia de um ambiente legal e regulatório que preserve a sua estrutura e funcionamento como espaço de colaboração (CGI.br, 2009).
Nos últimos anos, uma série de desafios nos parecem demandar especial atenção
e defesa desses princípios e da concepção do que é e porque a Internet deve
continuar sendo aberta, segura e global, tanto do ponto de vista técnico, político
quanto regulatório.
O combate à desinformação e o polêmico PL 2630; a disseminação de discurso
de ódio e extremismos versus os impasses em termos de moderação de conteúdo; o crescente vazamento de dados pessoais de órgãos públicos e empresas
privadas; os desafios técnicos e éticos da inteligência artificial; o conflito entre
Rússia e Ucrânia que levou ao pedido de banimento da Rússia da Internet (Mendes, 2022) são apenas alguns de vários destaques recentes que nos levam a refletir e mobilizar debates sobre a Internet que queremos.
5
Como parte desse contexto complexo e da necessidade de compreensão e participação ativa e qualificada no debate e da construção dessa Internet, nos sentimos motivados e desafiados a olhar para esses e outros temas com o objetivo de
aprofundar o conhecimento sobre a estruturação, os princípios norteadores e o
funcionamento da Internet Aberta.
Esta publicação marca um pouco desse processo, celebrando a parceria entre o
Centro de Ensino e Pesquisa em Inovação da Escola de Direito de São Paulo da
Fundação Getulio Vargas (CEPI FGV Direito SP), o capítulo brasileiro da Internet
Society (ISOC Brasil) e o Twitter Brasil, que resultou na realização da segunda
edição do curso Estrutura e Funcionamento da Internet: aspectos técnicos, políticos e regulatórios.
O curso foi desenvolvido para abranger diversos aspectos relacionados à infraestrutura e ao funcionamento da Internet como "a rede das redes", considerando
suas dimensões técnica, regulatória e social.
Compreender os princípios que orientam o desenho estrutural e o funcionamento
da Internet; desenvolver uma perspectiva crítica sobre o funcionamento e o ecossistema de governança da Internet, abarcando dimensões técnicas e não técnicas; avaliar iniciativas regulatórias e legislativas, políticas e técnicas que possam
apresentar riscos ou proporcionar condições para a operação da Internet como
uma rede aberta e descentralizada, foram alguns dos principais objetivos do projeto que contou com a participação de grandes especialistas nos temas em debate.
O formato online e a premissa de diversificação do perfil dos(as) alunos(as) é um
elemento que prezamos por destacar como forma de expandir essa oportunidade
para pessoas que se encontram em outros estados e que não se restringem a
advogados(as) e juristas. Alunos e alunas de diferentes áreas de formação e atuação, de todas as regiões do Brasil e com diferentes níveis de envolvimento com
o tema do curso, foram essenciais para o sucesso do projeto.
O encontro e interação entre estudantes e profissionais nos parecem fundamentais para uma adequada compreensão das complexidades que conformam os desafios endereçados pelo curso. Como resultado prático, essa combinação tem garantido não apenas a qualidade, mas o caráter de difusão dos aprendizados mobilizados pelo grupo.
6
Os encontros conjugaram aulas gravadas, compartilhamento de leituras preparatórias e encontros online ao vivo (via plataforma Zoom) durante três meses, com
encontros semanais (entre 22/09/2021 e 24/11/2021). Para cada aula, foram convidados especialistas e profissionais de notório saber sobre os temas em pauta
para proporcionar um espaço rico de trocas e aprendizado a partir de diferentes
perspectivas.
Além da metodologia participativa em um ambiente virtual, orientada por métodos
ativos e coletivos de debate e construção do conhecimento, a edição 2021 teve
como grande diferencial a discussão de casos desenvolvidos especialmente para
o curso a fim de aprofundar a compreensão e discussão dos impactos e desafios
atrelados às políticas de remoção de conteúdos e ao processo tomada de decisão;
à identificação e responsabilização das iniciativas que ameaçam alguns princípios
para a governança e uso da Internet; e ao bloqueio e/ou banimento de aplicativos
em diferentes situações com base em argumentos de soberania nacional.
A participação ativa de todos os envolvidos, desde os parceiros, especialistas que
aceitaram os convites e os(as) alunos(as) que se dedicaram nos 10 encontros
desta edição, nos leva a apresentar com orgulho esta publicação.
Princípios e fundamentos da Internet Aberta; responsabilidade de intermediários;
transparência e explicabilidade de algoritmos; moderação de conteúdo; criptografia, desinformação e discurso de ódio; privacidade e proteção de dados são alguns
dos tópicos que exploramos de forma relacional nas aulas e que você (leitor(a))
encontrará refletidos nos ensaios a seguir.
Os textos foram elaborados como produtos finais do curso pelos alunos e alunas
e contaram com os comentários de pesquisadoras e pesquisadores do CEPI FGV
Direito SP com o objetivo de aprofundar o conhecimento e refletir sobre políticas
públicas para o setor no Brasil.
A partir da experiência do CEPI, esta tem sido uma oportunidade ímpar de congregar iniciativas de ensino e pesquisa na interface entre Direito, Tecnologia e
Sociedade de forma gerar e multiplicar conhecimento por meio de bens públicos
e interação com grandes nomes que também se engajam e buscam contribuir
para um processo de tomada de decisão responsável no que tange à estrutura e
ao funcionamento da Internet ao longo da história.
7
Por isso, não menos importante, deixamos nossos agradecimentos ao Professor
Flávio Wagner e ao João Paulo de Vasconcelos Aguiar, pelo envolvimento e contribuições essenciais à realização do projeto em termos de forma e conteúdo; ao
Capítulo Brasileiro da Internet Society e ao Twitter Brasil pelo apoio institucional;
aos pesquisadores e pesquisadoras do CEPI pela dedicação e comprometimento
nas diferentes fases do projeto; e aos alunos e alunas que se dedicaram e contribuíram para o sucesso desse projeto.
Fica o desejo de promover novos e melhores cursos que contribuam com o debate
público sobre a governança da Internet e seus principais desafios. Ansiosos pelos
próximos! Por isso, deixamos a sugestão de leitura e o convite para participar
dessa construção conosco.
Desejamos a todos e todas uma boa leitura!
Alexandre Pacheco da Silva
Prof. da FGV Direito SP e Coordenador do CEPI FGV Direito SP
Ana Paula Camelo
Líder de pesquisa e gestora de projetos do CEPI FGV Direito SP
Referências bibliográficas
CGI.BR. Princípios para a governança e uso da Internet. [S.l.], [2009]. Disponível em: https://principios.cgi.br/. Acesso em: 06 jun. 2022.
INTERNET SOCIETY. Quick Analysis – The Impact of Effort to Disconnect Russia from the Internet. [S. l.]. Publicado em: 18 mar. 2022. Disponível em:
https://www.internetsociety.org/resources/doc/2022/quick-analysis-the-impact-ofefforts-to-disconnect-russia-from-the-internet/.
MENDES, F. Rússia pode ser banida da internet como conhecemos? Entenda.
Tilt Uol. São Paulo, 10 mar. 2022. Disponível em: https://www.uol.com.br/tilt/noticias/redacao/2022/03/10/ucrania-queria-remover-russia-da-internet.htm.
8
POSSEBON, S. 10 anos do decálogo da Internet: os princípios ainda estão atuais? Teletime, [s.l.], 05 jun. 2019. Disponível em: https://teletime.com.br/05/06/2019/10-anos-do-decalogo-da-internet-os-desafios-atuais-efuturos/. Acesso em: 06 jun. 2022.
9
SOBRE O CURSO
INTERNET SOCIETY
o curso: INTERNET SOCIETY
Um dos projetos estratégicos da Internet Society em escala global, iniciado em
2020, é denominado ‘Internet Way of Networking’ (IWN, no acrônimo em inglês,
ou o 'Modo Internet de Interconectividade', em uma tradução livre para o português). Este projeto tem por objetivo promover a defesa de um conjunto de propriedades críticas fundamentais que são inerentes ao desenho estrutural da Internet
e que explicam o seu sucesso ao longo de várias décadas, mesmo com profundas
transformações tanto nas tecnologias sobre as quais ela se apoia como nos seus
usos. O ‘Internet Way of Networking’ é fundamentado em uma rede aberta que é
baseada em padrões técnicos comuns, um sistema de roteamento distribuído e
um conjunto de identificadores únicos e que é neutra para qualquer tecnologia e
aplicação. Em complemento a estas propriedades críticas, a Internet Society oferece o ‘Internet Impact Assessment Toolkit’ (IIAT, no acrônimo em inglês), um conjunto de ferramentas a serem usadas na análise de eventuais propostas de legislações, políticas públicas, normas e novas tecnologias que possam de alguma
maneira afetar essas propriedades críticas da Internet. Em 2021, este conjunto de
ferramentas foi estendido com a definição de um conjunto de 11 ‘habilitadores’,
que correspondem a características importantes que garantem que a Internet permaneça aberta, globalmente conectada, segura e confiável, os quatro grandes
objetivos aspiracionais que, segundo a ISOC, são os pilares da Internet. A ISOC
Brasil, o capítulo brasileiro da Internet Society, está engajada fortemente nesse
projeto, contribuindo para a consolidação tanto do conjunto de propriedades críticas do IWN como do IIAT.
Ainda em 2020, a ISOC Brasil procurou a FGV, através do seu Centro de Ensino
e Pesquisa em Inovação (CEPI), para propor uma parceria no oferecimento de um
curso online aberto a pessoas de todo o país, com ampla diversidade regional,
setorial e de perfis pessoais e profissionais, tendo por objetivo a discussão dos
aspectos técnicos, políticos e regulatórios das propriedades críticas do ‘Internet
Way of Networking’, especialmente considerando o contexto brasileiro - tanto em
perspectiva histórica, quanto a partir da realidade atual. Esta proposta procurou
estimular a discussão de aspectos tão diversos como os princípios de projeto que
10
estruturam a Internet, a responsabilidade dos intermediários, a neutralidade da
rede, o combate à desinformação e ao discurso de ódio, o papel da criptografia, a
localização de dados e os riscos de fragmentação da Internet, a partir de medidas
que, adotadas localmente, podem impactar o seu ecossistema em uma perspectiva mais ampla. Renomados especialistas brasileiros, de diferentes áreas, foram
convidados a contribuir, participando de entrevistas pré-gravadas que foram disponibilizadas aos participantes e/ou participando de debates ao vivo durante as
aulas.
Este curso seguiu um modelo que a ISOC Brasil tem adotado em outras iniciativas,
que é baseado na parceria com entidades brasileiras de renome e experiência em
diferentes temas a partir da mobilização de recursos da ISOC, da ISOC Foundation e da própria entidade parceira. O curso foi planejado e formatado num trabalho conjunto entre o CEPI, a ISOC Brasil e a ISOC, de maneira a assegurar o
alinhamento de seu conteúdo aos objetivos estratégicos do capítulo no desenvolvimento de atividades relacionadas ao IWN. Todo o processo foi conduzido de
maneira entusiasmada e competente pela equipe do CEPI.
Com o grande sucesso da primeira edição do curso em 2020, a ISOC Brasil, a
ISOC e o CEPI iniciaram o planejamento da segunda edição, que se realizou em
2021 e agora se conclui com a publicação deste volume, contendo os ensaios
preparados pelos participantes do curso.
De grande importância para o sucesso desta segunda edição foi a inclusão de um
novo parceiro estratégico, o Twitter Brasil, que aportou sua grande experiência e
interesse no tema da Internet Aberta, que é uma das propriedades críticas conforme propugnado pelo paradigma do ‘Internet Way of Networking’ e que ganhou
especial destaque na programação do curso.
Como na primeira edição, em 2021 mais uma vez o curso alcançou e ultrapassou
amplamente seus objetivos inicialmente propostos. Além dos objetivos precípuos
(de um lado, a discussão das propriedades críticas da Internet e de sua relação
com aspectos políticos e regulatórios no contexto brasileiro e, de outro lado, a
formação de profissionais de todo o país neste tema tão relevante), o curso tem
outros desdobramentos muito importantes.
11
Em primeiro lugar, o curso obviamente fortalece a parceria entre a ISOC, a ISOC
Brasil, o CEPI da FGV e o Twitter Brasil, abrindo caminho para novas iniciativas
conjuntas no futuro.
Para a Internet Society, o curso é um exemplo para seus capítulos em outros países, ilustrando de que forma um capítulo pode alavancar recursos financeiros da
ISOC, da ISOC Foundation e de entidades e empresas parceiras e, em trabalho
conjunto com entidades locais, fomentar dentro do país a discussão de questões
fundamentais para o contínuo desenvolvimento da Internet.
Além disto, o curso deu origem a esta publicação coletiva, reunindo ensaios de
todos os seus participantes e que cobrem um amplo espectro de temas e de perspectivas. Tal publicação servirá certamente como referência importante para todos os estudiosos desses temas aqui no Brasil. Adicionalmente, tal resultado pode
ser mostrado aos mais de 100 capítulos nacionais da Internet Society como um
exemplo de engajamento de cada país na discussão dos grandes projetos estratégicos da entidade.
Finalmente, estendendo um trabalho de divulgação já feito em 2020, uma parte
expressiva do curso está sendo disponibilizada aos demais capítulos da ISOC,
em particular da América Latina e Caribe, e à comunidade em geral. Todas as
entrevistas gravadas com especialistas ao longo do curso, assim como as duas
mesas de debates finais, que trataram da Internet Aberta em perspectivas global
e nacional, foram legendadas em espanhol e em inglês, graças a um importante
apoio da ISOC. Com isso, a ISOC Brasil, a ISOC, o CEPI e o Twitter Brasil trazem
uma grande contribuição para a discussão do ‘Internet Way of Networking’ em
âmbito global, reforçando o caráter de pioneirismo dessa parceria e servindo de
exemplo a outros países e regiões.
Que o legado desta parceria e a leitura desta publicação sirvam como um ponto
de partida e de estímulo a todas as pessoas empenhadas em promover e defender uma Internet aberta, globalmente interconectada, segura e confiável sempre
e em todos os lugares.
Flávio Rech Wagner
Presidente da ISOC Brasil, capítulo brasileiro da Internet Society
12
SOBRE O CURSO
TWITTER BRASIL
O trabalho do Twitter é manter as pessoas informadas sobre o que está acontecendo no mundo, e nosso propósito é servir a conversa pública. Nós fazemos isso
servindo a nossa audiência global e focando nas necessidades das pessoas que
usam o nosso serviço. No Twitter, nós estamos comprometidos em prover um
serviço que encoraja e facilita o debate aberto e democrático e o mais diverso e
plural possível. Estamos também comprometidos em defender o que consideramos ser uma rede aberta, sustentável no longo prazo e que priorize, ao mesmo
tempo, o equilíbrio entre segurança e liberdade de expressão e informação a pessoas de todo o mundo.
Para tanto, estabelecemos cinco princípios orientadores para a regulamentação
da Internet:
1. A Internet Aberta é global, deve estar disponível para todos e ser construída
com base em princípios e na proteção dos direitos humanos.
2. A confiança é essencial e pode ser construída com transparência, tratamento justo e proteção da privacidade.
3. Os algoritmos de recomendação e classificação devem estar sujeitos ao
controle e escolha humana.
4. Competição, liberdade de escolha e inovação são fundamentos da Internet
Aberta e devem ser protegidos e expandidos, de forma a garantir que os
usuários não acabem sendo prejudicados por leis e regulamentos.
5. A moderação de conteúdo é mais do que apenas deixar ou retirar do ar. A
regulamentação deve permitir uma gama de intervenções, ao mesmo
tempo que apresenta definições e limites substantivos e consistentes com
os padrões de direitos humanos.
13
Entendemos que a efetividade na defesa desses princípios é tanto maior a medida
que possamos trabalhar com parceiros que possuem objetivo semelhante, como
a ISOC Brasil - entidade da sociedade civil que exemplarmente vêm produzindo
sobre o tema- e também com parceiro no âmbito acadêmico que além de produzir,
forma novos pesquisadores no campo e assim, contribui para a qualificação do
debate público. Este é o caso do Centro de Ensino e Pesquisa em Inovação
(CEPI) da Fundação Getúlio Vargas.
Desde 2020, o CEPI vem promovendo um curso online, aberto e gratuito para
profissionais e pesquisadores interessados no debate sobre direitos digitais. A iniciativa tem o mérito de prezar pela excelência dos professores convidados e oportunizar, inclusive àqueles que não estão nos grandes centros urbanos, a oportunidade de troca sobre o tema. Considerando o potencial da iniciativa - também no
que se refere à pluralização de ideias no debate - é que o Twitter Brasil entendeu
ser fundamental apoiar sua segunda edição cujo tema foi "Estrutura e Funcionamento da Internet: Aspectos Técnicos, Políticos e Regulatórios".
Sentimos muito orgulho de apoiar a iniciativa já no momento em que participamos
dos debates (de altíssimo nível) nas dez aulas do curso. Tivemos também a oportunidade de discutir, do ponto de vista do Twitter, sobre a complexidade e os desafios da manutenção de uma Internet Aberta por meio da participação em um
painel com a presença da nossa líder da equipe de Políticas Públicas do Twitter
para os Estados Unidos, Canadá e América Latina, Jessica Herrera-Flanigan.
Conhecer os frutos destes ciclos tais como a formação dos/as estudantes, a disponibilização de grande parte do conteúdo também em espanhol e inglês e também esta publicação - que reflete a qualidade de pontos de vista de profissionais
e pesquisadores das cinco regiões do país-, reforça nosso orgulho e a nossa certeza de que a construção da Internet Aberta que desejamos tem o potencial de se
realizar a partir do trabalho coordenado e do diálogo produtivo entre entes da sociedade civil, academia e indústria.
Time de Políticas Públicas Twitter Brasil
14
ESTRUTURA E
FUNCIONAMENTO DA INTERNET
ASPECTOS TÉCNICOS, POLÍTICOS E REGULATÓRIOS
ABORDAGENS CONCEITUAIS
15
NOTAS INICIAIS SOBRE OS CONCEITOS DE PROVEDORES A
PARTIR DA DISTINÇÃO DO PROJETO DE LEI Nº 2630
André Lucas Fernandes1
RESUMO: O presente ensaio se volta a analisar a semântica conceitual atribuída
à palavra “provedor” no Marco Civil da Internet e no Projeto de Lei das Fake News.
Toma como referencial teórico as balizas da história dos conceitos, conforme trabalho de Reinhart Koselleck. Conclui-se, de forma breve, por uma ruptura no sentido conceitual, cujas implicações dogmáticas podem ser negativas.
PALAVRAS-CHAVE: História dos conceitos; Provedores; Internet; Marco civil da
internet; PL 2630
A guisa de introdução
O presente texto se insere no tipo de esforço ideativo que Ortega y Gasset chama
“ensaio”. O ensaio é a atividade de fazer ciência sem prova expressa. Há, portanto, dado objetivo, referencial teórico e metodologia – não há, por outro lado,
dado apresentado para além da menção (o dado aqui é o texto da lei, Marco Civil
da Internet, e o texto do PL nº 2630, recentemente aprovado pelo GT-NET, da
Câmara dos Deputados). Na atividade do ensaio não há, também, esforço metafísico. E justamente por não afastar com um marcador subjetivista, ou incondizente com a realidade fática, que o presente texto aponta para um referencial
teórico-metodológico da história dos conceitos, conforme orientações de Reinhart
Koselleck (2006, 2014, 2020).
Doutorando em Direito, na Universidade Católica de Pernambuco. Mestre em Direito pela UFPE.
Diretor do Instituto de Pesquisa em Direito e Tecnologia do Recife – IP.rec. Advogado, Head de
Direito e Tecnologia no Buonora & Oliveira Advocacia.
1
16
Sobre história dos conceitos
A história dos conceitos é uma metódica histórica voltada a superar limitações do
paradigma da história das ideias – especialmente no refinamento das noções de
linguagem (como semântica e pragmática) e a associação correspectiva entre
eventos/fatos e sua representação conceitual.
Entre as ferramentas de trabalho da história dos conceitos, alguns elementos analíticos ganham maior destaque, como a noção de “espaço de experiência”, que se
refere ao acúmulo de eventos e sentidos dados aos eventos e “horizonte de expectativa”, ou seja, o conjunto de projeções que se faz, socialmente, com base
em um contexto específico de experiência.
Correlacionados a este movimento de passado-a-futuro, temos a noção de sincronia histórica e de diacronia histórica. A sincronia é como o recorte do “ponto” no
fluxo da história, tem contexto tempo-espacial e é onde, por excelência, ocorre o
evento novo. A diacronia, por outro lado, é o recorte pelo próprio fluxo geracional,
analisando os movimentos correspectivos entre fatos e conceitos/linguagem. Uma
diacronia só existe separada das sincronias a partir de uma análise teórica, como
evento do mundo as duas dimensões não são separáveis.
Um conceito, portanto, é um ente histórico, que se situa no tempo e espaço e faz
conexão entre campos de sentido (campos semânticos). O conceito não é uma
entidade abstrata à qual se atribui sentido, fora de uma história. A tensão entre
evento (fato) e a linguagem (dimensão do conceito) não pode ser reduzida por
imposições “ex machina”.
O conceito de intermediários
Com base na história dos conceitos é possível comparar, no tempo e no espaço,
se uma ideia, sua representação e os eventos apontados por essa relação são
mantidos ao longo do tempo, ou se modificam. Na forma lógica: ou (1) o evento
modifica e com ele a linguagem muda, ou (2) o evento se mantém e com ele a
linguagem permanece, ou (3) o evento permanece e a linguagem muda, ou (4) o
evento permanece e a linguagem permanece.
17
No debate evolutivo sobre a Internet e sua regulação pelos Estados, um conceito
surge e passa a se destacar como articulador central de sentidos: “provedor”. De
acordo com Marcel Leonardi, que posteriormente foi referenciado de forma indireta por decisões do Superior Tribunal de Justiça, provedores seriam compreendidos da seguinte forma:
Provedor de serviços de Internet é o gênero do qual as demais categorias (provedor de backbone, provedor de acesso, provedor de correio
eletrônico, provedor de hospedagem e provedor de conteúdo) são espécies. O provedor de serviços de Internet é a pessoa natural ou jurídica
que fornece serviços relacionados ao funcionamento da Internet, ou por
meio dela. (LEONARDI, 2005, p. 19)
Essa classificação não é a adotada no Marco Civil da Internet (Lei nº 12.965/14),
para o qual os provedores se dividem em duas espécies de natureza mais geral –
provedores de conexão e de aplicação.
No Marco Civil, conexão é “a habilitação de um terminal para envio e recebimento
de pacotes de dados pela internet, mediante a atribuição ou autenticação de um
endereço IP”, enquanto aplicação é “conjunto de funcionalidades que podem ser
acessadas por meio de um terminal conectado à internet”. Nota-se uma clara opção do legislador em diferenciar a camada da conexão, e seus intermediários, das
demais camadas da rede (todas colocadas sob o aspecto de aplicação) com o
objetivo de proteger e dar concreção à ubiquidade e neutralidade da rede.
No PL nº 2630 (2020), conhecido como “PL das Fake News”, há uma espécie de
tripartição, ou talvez quadripartição, da ideia de provedores. De acordo com o artigo segundo, o gênero “provedor”, a partir de seu uso, poderia ser especificado
como “de redes sociais”, “ferramentas de busca”, “mensageria instantânea” e,
numa hipótese de exceção “enciclopédia online”.
A provisão de aplicação e conexão está, conceitual e juridicamente, ligada à topologia da rede, ao nível, no qual a atividade é realizada. Na nova lei, que possui
pretensão legiferante global, como uma regulação complementar ao Marco Civil
da Internet (MCI), a classificação muda o seu critério. Se o campo semântico do
conceito “provedores” estava ligado à arquitetura da rede, agora há uma propositura de deslocamento voltada aos tipos de serviços prestados.
18
Do ponto de vista jurídico, em sistema lógico (MIRANDA, 1954), há efetiva antinomia, dando abertura a uma desordem semântica que poderá ter reflexos práticos relevantes – especialmente para o resguardo de uma internet livre e aberta.
A falta de unidade do conceito dá espaço ao arbítrio judicial, baseada em interpretações criativas da lei e da Constituição Federal.
Em sendo considerado o MCI como regra geral, anterior, aplicando-se o princípio
básico de solução de antinomias e hierarquia das normas no sistema, tem-se,
como resultado, a não correspondência entre os campos semânticos de uma
mesma palavra “provedores”. Não há, efetivamente, correspondência com a regra
geral, anterior do Marco Civil. Se se interprete que o “PL das Fake News” aponta
para subespécies de provedores de aplicação, não se fundamenta, com efetiva
clareza, o motivo de destaque destas subespécies e qual a razão diferenciadora
para que elas existam – com uma regra mais especial, do que aquela apresentada
no Marco Civil.
Em sendo consideradas ambas as leis (MCI e futura Lei de Liberdade e Transparência) como especiais, criar-se-á nítida antinomia de tipo especial e complexo:
aqui, mais uma vez, a ideia seria que apenas as subespécies definidas seriam
objeto de incidência da norma.
Numa linguagem aristotélica, – ou, de outra forma, a partir das regras de lógica
formal, inseridas na estrutura do ordenamento jurídico, que é sistema de desdobramento dedutivo de normas – não é coerente o apontamento da diferença específica (mensageria, busca, redes sociais) do gênero próximo provedor. Sendo
que o próprio ordenamento já classifica o gênero “provedor” a partir da dicotomia
quase exaustiva de “conexão” e “conteúdo”. O mesmo raciocínio se aplica ao
eventual argumento de subespécie: qual a diferença específica dos provedores
apontados na futura lei que exija uma distinção e, em existindo, quais as diferenças específicas de cada um dos três/quatro conceitos entre si e eventuais futuras
distinções.
Etimologicamente, “provedor” alude a fazer provisão, sob a perspectiva de antecipar eventos futuros. Quem provê, acautela, separa, guarda e fornece. Quem
fornece, como provedor, não simplesmente fornece, ainda que de fornecedor, em
sentido comum, se trate. Ser provedor, no sentido etimológico e no sentido jurídico
do ordenamento brasileiro voltado a regular a Internet, é agir sob cálculo e precaução para abastecer a sociedade com um bem, que no caso é o fluxo de dados
19
– da sua dimensão de infraestrutura até sua dimensão lógica. Aos primeiros colase a diferença específica da “conexão”, aos segundos a diferença específica “aplicação”.
Do ponto de vista técnico, ressalta o casuísmo da classificação legal proposta no
Projeto de Lei, sustentada em critério artificial de “serviço prestado” – o serviço já
é a provisão em si. Afinal, a cada novo serviço de aplicação ter-se-ia uma nova
espécie? Em um ambiente de inovação, o tentar dizer tudo, de forma específica,
é tão danoso quanto o dizer tudo sob a perspectiva genérica: nada se diz.
O tema tem reflexos na aplicação pelo Judiciário: um sistema de diferenças específicas exige do intérprete que não ignore as partes gerais de outras normas (MCI)
que se apliquem de forma suplementar ao que não está disposto na diferença
posta (PL Fake News). Em termos de fundamentação, a diferença artificialmente
criada impõe um ônus insolúvel ao intérprete e favorece o casuísmo ao criar exceções de exceções, sem o devido sistema. O que já é uma grande chaga do
direito brasileiro, ganharia mais um capítulo.
Direito é processo de adaptação social, e enquanto processo, a criação artificiosa
de categorias, contra a prática estabilizada, não é, necessariamente um expediente de bom combate a violências ou comportamentos antiéticos. Se um conceito
tem história, campo semântico, pragmática e inter-relação com outros conceitos,
a eventual alteração ab ovo de uma estrutura conceitual significa apenas uma
coisa: inadaptação e aplicação defeituosa.
Considerações finais
Como se percebe, estudar o aspecto tecnológico, jurídico e social a partir de uma
abordagem histórico-conceitual permite explicitar artificialidades sistêmicas que
não encontram substrato ôntico, e, portanto, não encontram respaldo na realidade
(o conceito é limítrofe na tensão entre linguagem e fato/evento). O processo legislativo tem dessas coisas: falta de referencialidade a campos semânticos necessários e previamente existentes numa prática (como o caso dos conceitos técnicos)
e tentativas de criação “do nada” de estruturas conceituais para regular fatos, sem,
efetivamente, conversar com esses fatos.
20
Ao tempo em que denunciam processos de inadequação legislativa, a história dos
conceitos permite perquirir alternativas viáveis. Ao tempo em que alerta sobre uma
dificuldade no processo de aplicação da decisão, permite determinar quais os elementos de uma fundamentação conceitual adequada. Há que se pensar conceitualmente ao tentar regular a realidade acelerada da tecnologia e da inovação.
Referências bibliográficas
BRASIL. Câmara dos Deputados. Projeto de Lei nº 2.630, de 03 de julho de 2020.
Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet. Brasília: Câmara dos Deputados, 2020. Disponível em: https://www.camara.leg.br/proposicoesWeb/prop_mostrarintegra?codteor=2115425. Acesso em: 12 dez. 2021.
KOSELLECK, R. Futuro Passado: Contribuição à semântica dos tempos históricos. Rio de Janeiro: Contraponto: PUC-Rio, 2006.
______. Estratos do tempo: estudos sobre história. Rio de Janeiro: Contraponto:
PUC-Rio, 2014.
______. História de conceitos. Rio de Janeiro: Contraponto: 2020.
LEONARDI, M. Responsabilidade Civil dos Provedores da Internet. São
Paulo: Editora Juarez de Oliveira, 2005.
MIRANDA, F. C. P. Tratado
Rio de Janeiro: Borsoi, 1954.
de
Direito
Privado.
Tomo
1.
21
ESTRUTURA E
FUNCIONAMENTO DA INTERNET
ASPECTOS TÉCNICOS, POLÍTICOS E REGULATÓRIOS
MODERAÇÃO DE CONTEÚDO
22
FAKE, VERDADE OU IRONIA? O SUBJETIVISMO LINGUÍSTICO E
CULTURAL COMO DESAFIO À MODERAÇÃO DE CONTEÚDO
Bruno Ett Bícego1
RESUMO: Este artigo busca investigar em qual medida o subjetivismo linguístico
e cultural pode ser um desafio na moderação de conteúdo. Para se entender o
real sentido de algum conteúdo, pode ser necessário investigar uma série de elementos contextuais sobre sua publicação. Além disso, nota-se que muitos termos
tradicionalmente utilizados como ofensivos, podem ser ressignificados por comunidades e passarem a ser utilizados com um novo sentido positivo. A identificação
do sentido de um conteúdo se torna ainda mais difícil na moderação de conteúdo
por meio de ferramentas de inteligência artificial. Nesse cenário, para a busca de
uma moderação de conteúdo mais justa, além do contínuo aperfeiçoamento de
técnicas de identificação de conteúdo e capacitação dos moderadores, três caminhos parecem fundamentais: transparência, diálogo e a construção de uma arquitetura online voltada para a garantia de direitos dos usuários.
PALAVRAS-CHAVE: Moderação de Conteúdo; Subjetivismo Linguístico; Subjetivismo Cultural; Garantia de Direitos Online; Liberdade de Expressão.
Introdução
“Tomem cachaça com limão e mel para se blindarem do coronavírus”. Mensagens
como essa talvez tenham passado pelas redes sociais de muitas pessoas. Eu,
pelo menos, recebi algumas vezes tais “conselhos”, no entanto, sempre com um
teor claramente humorístico ou irônico, referindo-se à ideia de que o álcool nos
ajudaria a esquecer de nossos problemas (algo como: “o Brasil nos obriga a beber”).
Pesquisador no Centro de Ensino e Pesquisa em Inovação da FGV Direito SP. Graduando em
Direito pela Pontifícia Universidade Católica de São Paulo (PUC-SP). Alumnus da Escola de Formação Pública da Sociedade Brasileira de Direito Público (SBDP).
1
23
No entanto, muitas dessas histórias foram difundidas como verdadeiros conselhos
médicos. Surgiram correntes de desinformação afirmando que uísque ou vodca
seriam eficazes para matar o coronavírus ainda na garganta (PENNAFORT, 2020)
ou ainda que a ingestão de aproximadamente 40ml a 50ml de vodca por dia seria
uma boa forma de “envenenar” o vírus (ALONSO, 2020).
Apenas para ilustrar a complexidade que a interpretação de certo conteúdo pode
gerar, pensemos em algumas categorias para enquadrar eventuais publicações
sobre o consumo de destilados durante a pandemia: (i) posts que abordam ou
incentivam o consumo de álcool como uma forma de lazer; (ii) posts humorísticos
que retratam ou incentivam o consumo de álcool como uma forma de “superar a
situação, esquecendo dos problemas”; (iii) posts com imprecisões científicas, que
espalham desinformação sobre o consumo de vodca ou cachaça como formas de
matar ou envenenar o coronavírus dentro do corpo; (iv) posts humorísticos que
ironizam tais desinformações sobre “vodca ou cachaça como remédios contra o
coronavírus” e, justamente fazendo uso dessa ironia, incentivam o consumo de
álcool para “combater o coronavírus”.
Percebemos que a linguagem humana não é simples. Para entender o real sentido
de algum conteúdo, pode ser necessário saber o contexto da publicação, o autor,
o histórico de publicações do autor, o público-alvo daquele discurso, os elementos
visuais utilizados, entre muitas outras coisas. E mesmo com diversas dessas informações contextuais, pode ser impossível determinar se algo é, ou não, irônico
ou dotado de caráter humorístico. A simples frase “tomem cachaça com limão e
mel para se blindarem do coronavírus” pode ter um significado interpretativo que
vai desde uma desinformação que coloca em risco a saúde das pessoas, até uma
propaganda bem-humorada de uma loja de destilados.
Interpretação linguística e moderação de conteúdo
Nesse cenário, conforme escreve Grimmelmann (2018), a dificuldade em se distinguir entre o incentivo a uma certa atividade ou a uma paródia dessa atividade é
um grande desafio quando se pretende pensar e construir melhores diretrizes de
moderação de conteúdo. A situação pode se tornar ainda mais delicada quando o
conteúdo sob análise se relaciona com questões sensíveis, como racismo. Segundo explica Tushnet (2019), os moderadores muitas vezes não são do país
24
onde estão analisando o conteúdo e podem não possuir o conhecimento cultural
e circunstancial necessário para distinguir entre uma publicação de alguém denunciando uma injúria racial ou alguém que, se valendo dessa injúria, está causando ainda mais danos.
Se, para seres humanos, a identificação e interpretação de certo conteúdo já é
um desafio, a moderação de conteúdo a partir de sistemas de inteligência artificial
pode apresentar ainda mais dificuldades. Em média, ferramentas de moderação
automática de conteúdo cometem mais erros do que seres humanos, o que já
levou empresas, que antes vinham apostando em ferramentas de inteligência artificial, a recuarem e investirem mais na moderação humana (VINCENT, 2020).
Nota-se, conforme explicam Rodriguez e Kurtz (2020), que a moderação de conteúdo por meio de ferramentas de inteligência artificial pode apresentar fortes diferenças a depender do idioma em questão, uma vez que especificidades da língua inglesa, por exemplo, poderiam ser mais bem identificadas, dado um melhor
treinamento dos sistemas nesse idioma, enquanto outras regiões poderiam sofrer
com um maior número de remoções injustas de conteúdo, visto que a análise realizada seria de menor qualidade.
Para ilustrar a complexidade que a moderação automática de conteúdo pode gerar, vale observar a pesquisa desenvolvida por Gomes, Antonialli e Oliva (2019).
Essa pesquisa testou o programa “Perspective”, desenvolvido por uma empresa
do grupo Alphabet, que possui como finalidade avaliar, por meio de um sistema
de inteligência artificial, qual o nível de toxicidade de um conteúdo. Para os desenvolvedores do programa, a definição de conteúdo tóxico seria um “comentário
rude, desrespeitoso ou não-razoável que provavelmente fará com que você abandone uma discussão” (GOMES; ANTONIALLI; OLIVA, 2019). O Perspective classifica automaticamente os conteúdos textuais entre os extremos “muito saudável”
e “muito tóxico” apresentando os resultados em uma probabilidade de 0% a 100%
daquele conteúdo ser tóxico.
A partir do uso do Perspective, os pesquisadores testaram os níveis de toxicidade
de tweets postados por famosas drag queens dos Estados Unidos e compararam
os resultados com uma análise de tweets de outros usuários famosos do Twitter,
em especial pessoas da extrema direita. Os resultados das análises indicam que
um número significativo de perfis de drag queens foram erroneamente considera-
25
dos como potencialmente mais tóxicos que perfis de supremacistas brancos (GOMES; ANTONIALLI; OLIVA, 2019). Ademais, a partir de testes realizados com palavras isoladas, os pesquisadores perceberam que expressões usualmente encontradas em tweets de drag queens foram consideradas fortemente tóxicas como
“BITCH – 98.18%; FAG – 91.94%; SISSY – 83.20%; GAY – 76.10%; LESBIAN –
60.79%; QUEER – 51.03%; TRANSVESTITE – 44.48%” (GOMES; ANTONIALLI;
OLIVA, 2019).
A partir dessas observações, os pesquisadores indicam que existem vieses no
Perspective, uma vez que as palavras acima foram consideradas tóxicas, independentemente do contexto em que se encontravam (GOMES; ANTONIALLI;
OLIVA, 2019):
Isso significa que, independentemente do contexto, palavras como gay,
lesbian e queer já são consideradas como significativamente tóxicas, o
que aponta a existência de vieses no Perspective. Adicionalmente, muito
embora outras palavras como fag, sissy e bitch possam ser usualmente
consideradas “tóxicas”, estudos queer sobre linguística indicam como o
uso de palavras como essas por membros da comunidade LGBTQ desempenham um papel relevante e positivo.
O uso de ferramentas de moderação automática de conteúdo, como o Perspective
ou similares, pode colocar em risco o próprio exercício da liberdade de expressão
de membros de comunidades específicas, uma vez que tais ferramentas de inteligência artificial ainda não estariam suficientemente desenvolvidas para analisar
o contexto social e cultural de um discurso (GOMES; ANTONIALLI; OLIVA, 2019):
Considerando os códigos de comunicação da comunidade LGBTQ, particularmente das drag queens, o uso do Perspective – bem como de outras tecnologias similares – para moderação de conteúdo nas plataformas de internet poderia prejudicar o exercício da liberdade de expressão
de membros da comunidade. Isso porque a inteligência artificial ainda
não consegue analisar o contexto social do discurso, muitas vezes falhando em reconhecer o seu valor – como na prática da comunidade
LGBTQ de reapropriação de palavras consideradas tóxicas e de seu uso
para desenvolver uma “casca grossa” nos membros da comunidade com
o objetivo de protegê-los contra quem deseja atacá-los.
A análise do caso do Perspective ilustra a dificuldade de se interpretar certo discurso. Comunidades podem ressignificar palavras tradicionalmente utilizadas
como ofensivas e passar a usá-las como um linguajar próprio e positivo. No entanto, paralelamente, outras pessoas podem continuar a usar esses termos de
uma maneira pejorativa, fazendo com que uma mesma expressão circule pelas
26
mídias com significados diametralmente opostos: tanto positivos, como fortemente
insultuosos.
Realizar essa avaliação é uma tarefa complexa e, se feita de maneira incorreta,
pode colocar em xeque direitos fundamentais dos usuários. Por um lado, quando
certo conteúdo é removido injustamente, pode ocorrer a restrição indevida da liberdade de expressão. Em casos mais sérios, quando ocorre o over-removal (remoção excessiva de conteúdo) pode-se prejudicar e invisibilizar uma comunidade
inteira no ambiente online. Por outro lado, as plataformas digitais também atuam
dentro de uma lógica de responsabilidade corporativa (KLONICK, 2018), na qual
elas devem agir proativamente para coibir correntes de discurso de ódio e desinformação, sob pena de permitirem a perpetuação de discursos nocivos a certas
comunidades ou à própria democracia.
Perspectivas para a garantia de direitos online
Observados alguns desafios que o subjetivismo linguístico e cultural pode gerar
na moderação de conteúdo, vale apontar algumas direções que podem ajudar na
proteção de direitos online e na construção de uma moderação de conteúdo mais
justa. Além do contínuo aperfeiçoamento de técnicas de identificação de conteúdo
e capacitação dos moderadores, três caminhos parecem fundamentais: (i) transparência, (ii) diálogo e (iii) a construção de uma arquitetura online voltada para a
garantia de direitos dos usuários.
Seja na moderação de conteúdo realizada por seres humanos, seja na moderação
por meio de ferramentas de inteligência artificial, é fundamental que as plataformas digitais atuem com transparência. Um exemplo é a adoção de relatórios periódicos de transparência, com informações sobre quais tipos de conteúdo foram
removidos, sua quantidade e os motivos que levaram a sua exclusão. Países e
blocos econômicos como União Europeia (EUROPEAN COMISSION, 2017) e
Reino Unido (REINO UNIDO, 2020) já se manifestaram reiterando a importância
de tais relatórios.
A construção de um diálogo transparente e aberto é necessária para se pensar
em soluções e melhorias na moderação de conteúdo. Empresas, academia, sociedade civil e órgãos reguladores devem trabalhar em conjunto, de modo a criar
27
um leque de visões complementares que possam auxiliar no desenvolvimento de
políticas e princípios para a moderação de conteúdo online.
Por fim, a arquitetura do ambiente online deve ser construída de maneira a gerar
mais segurança e garantir ao máximo proteção de direitos dos usuários. Um
exemplo são os mecanismos para denunciar conteúdos supostamente danosos,
que devem ser estruturados para que a outra parte também possa realizar seu
direito de defesa e não ter seu conteúdo removido, caso ele não viole as políticas
de comunidade da plataforma.
A moderação de conteúdo é extremamente complexa e os desafios só aumentam
quando pensamos no subjetivismo linguístico e cultural que permeiam todo o diálogo humano. Somente com transparência e um diálogo contínuo será possível
aumentar a garantia de direitos aos usuários de plataformas digitais.
Referências bibliográficas
ALONSO, L. Países recomendam masturbação e vodca como medidas para contenção do coronavírus. Folha de S. Paulo, 2020. Disponível em: https://www1.folha.uol.com.br/mundo/2020/03/paises-recomendam-masturbacao-e-vodca-comomedidas-para-contencao-do-coronavirus.shtml. Acesso em: nov. 2021
EUROPEAN COMISSION. Tackling Illegal Content Online: Towards an enhanced
responsibility of online platforms. European Comission, 2017. Disponível em:
https://digital-strategy.ec.europa.eu/en/library/communication-tackling-illegal-content-online-towards-enhanced-responsibility-online-platforms. Acesso em: nov.
2021.
GOMES, A.; ANTONIALLI, D.; OLIVA, T. D. Drag queens e Inteligência Artificial:
computadores devem decidir o que é ‘tóxico’ na internet? InternetLab, 2019. Disponível em: https://www.internetlab.org.br/pt/liberdade-de-expressao/drag-queens-e-inteligencia-artificial-computadores-devem-decidir-o-que-e-toxico-na-internet. Acesso em: nov. 2021.
GRIMMELMANN, J. The Platform is the Message. Cornell Legal Studies Research Paper No. 18-30, 2018. Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3132758. Acesso em: jun. 2021.
28
KLONICK, K. The New Governors: The People, Rules, and Processes Governing
Online Speech. Harvard Law Review, Cambridge, vol. 131:1598, 2018. Disponível
em:
https://harvardlawreview.org/wp-content/uploads/2018/04/15981670_Online.pdf. Acesso em: nov. 2021.
PENNAFORT, R. É #FAKE que beber vodca ou uísque mate o coronavírus na
garganta. G1, 2020. Disponível em: https://g1.globo.com/fato-ou-fake/noticia/2020/07/10/e-fake-que-beber-vodca-ou-uisque-mate-o-coronavirus-na-garganta.ghtml. Acesso em: nov. 2021.
REINO UNIDO. Online Harms White Paper: Full Government Response to the
consultation. Government of the United Kingdom, 2020. Disponível em:
https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/944310/Online_Harms_White_Paper_Full_Government_Response_to_the_consultation_CP_354_CCS001_CCS1220695430-001__V2.pdf.
Acesso em: nov. 2021
RODRIGUES, G.; KURTZ, L. Transparência sobre moderação de conteúdo em
políticas de comunidade. Instituto de Referência em Internet e Sociedade, Belo
Horizonte,
2020.
Disponível
em:
https://irisbh.com.br/wp-content/uploads/2020/10/Transpar%C3%AAncia-sobre-modera%C3%A7%C3%A3o-deconte%C3%BAdo-em-pol%C3%ADticas-de-comunidade-IRIS.pdf. Acesso em:
nov. 2021.
TUSHNET, R. Content Moderation in an age of extremes. Case Western Reserve
Journal of Law, Technology & the Internet, vol. 10, n. 1, 2019. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3503169. Acesso em: 31
mai. 2021.
VINCENT, J. YouTube brings back more human moderators after AI systems overcensor.
The
Verge,
2020.
Disponível
em:
https://www.theverge.com/2020/9/21/21448916/youtube-automated-moderation-ai-machine-learning-increased-errors-takedowns. Acesso em: nov. 2021.
29
FACEBOOK PAPERS E A TRANSPARÊNCIA DE ALGORITMOS A
FAVOR DO DEBATE REGULATÓRIO: ESTUDO DE CASO
Giovanna Wolf Tadini1
RESUMO: Com o fortalecimento de discussões sobre desinformação e discurso
de ódio em plataformas digitais, gigantes de tecnologia passaram a ser cobradas
pela saúde dos espaços virtuais. Sendo assim, este artigo objetiva discutir de que
modo informações sobre o funcionamento de redes sociais – principalmente detalhes relacionados ao trabalho dos algoritmos de classificação do feed de notícias
e a mecanismos de moderação de conteúdo – poderiam contribuir para o avanço
do debate regulatório no setor de tecnologia, melhorando, assim, a segurança das
plataformas digitais. Esta pesquisa caracteriza-se como sendo do tipo bibliográfica
e documental, de natureza qualitativa, e adota como método o estudo de caso. O
caso em questão, que ficou conhecido como Facebook Papers, teve início em
setembro de 2021 com o vazamento de documentos internos da Meta e ganhou
nova dimensão quando Frances Haugen, ex-funcionária da empresa, identificouse como a fonte dos vazamentos. O artigo conclui que o episódio descrito trouxe
uma nova camada de informação a apontamentos já feitos na literatura sobre possíveis efeitos tóxicos do Facebook, como o favorecimento de conteúdos inflamatórios no feed de notícias. O caso reforça a importância da transparência de algoritmos na construção de plataformas digitais saudáveis, por meio de regulações
condizentes com as entranhas da operação de empresas de tecnologia.
PALAVRAS-CHAVE: Facebook Papers; Transparência; Algoritmos; Regulação;
Rede Social
1 Jornalista
formada pela Escola de Comunicações e Artes da Universidade de São Paulo. Repórter de Tecnologia e Inovação do jornal O Estado de S. Paulo.
30
Introdução
Com o fortalecimento de discussões sobre desinformação e discurso de ódio em
plataformas digitais, gigantes de tecnologia passaram a ser cobradas pela saúde
dos espaços virtuais. Nesse processo, as companhias entraram na mira de agentes regulatórios no mundo todo, que estudam como garantir a segurança dos usuários em plataforma digitais e também como preservar a concorrência em um mercado cujas empresas criaram impérios nas últimas décadas.
De acordo com Almeida, Filgueiras e Doneda (2021), plataformas digitais como
Facebook, Twitter, YouTube, WhatsApp e Instagram têm sido culpadas por causar
turbulências sociais e políticas em diferentes partes do globo.
Seus motores são executados por algoritmos proprietários que classificam grandes quantidades de conteúdo dos usuários e organizam sua
exposição online. Como as plataformas e serviços de rede social permeiam a vida de 3,8 bilhões de pessoas ou 49% da população mundial,
é esperado que eles criem mecanismos para garantir a disponibilidade
de conteúdos seguros e proteger os usuários e comunidades contra conteúdos nocivos (ALMEIDA; FILGUEIRAS; DONEDA, 2021, p. 13).
A Meta, por ser dona de vários aplicativos (Facebook, WhatsApp e Instagram),
está na berlinda dos debates regulatórios. Além disso, a companhia de Mark Zuckerberg esteve no centro de escândalos como o caso Cambridge Analytica, em
2018, em que foram usados indevidamente dados de 87 milhões de usuários da
rede social para influenciar as eleições americanas.
Assim, este artigo objetiva discutir de que modo informações sobre o funcionamento de redes sociais como o Facebook – principalmente detalhes relacionados
ao trabalho dos algoritmos de classificação do feed de notícias e a sistemas de
moderação de conteúdo – poderiam contribuir para o avanço do debate regulatório no setor de tecnologia, melhorando, assim, a segurança das plataformas digitais.
Em termos metodológicos, esta pesquisa caracteriza-se como sendo do tipo bibliográfica e documental, de natureza qualitativa, e adota como método o estudo de
caso. O artigo toma como base o episódio dos Facebook Papers, que teve início
em setembro de 2021 com o vazamento de documentos internos da empresa de
Mark Zuckerberg.
31
Facebook Papers
Os arquivos da Meta vieram à tona em setembro de 2021 com reportagens do
jornal americano Wall Street Journal. Uma das pesquisas internas da empresa
trazida pela publicação mostrou que 32% das meninas que se sentiam mal com o
próprio corpo tinham essa situação agravada ao acessar o Instagram (WELLS;
HORWITZ; SEETHARAMAN, 2021).
As denúncias ganharam nova dimensão quando Frances Haugen, ex-funcionária
da Meta, veio a público se identificar como a fonte dos vazamentos. O pacote de
arquivos, apelidado de Facebook Papers pela cobertura midiática, foi enviado à
Securities and Exchange Commission, órgão regulador das empresas listadas em
bolsa nos Estados Unidos, e analisado por um consórcio internacional de veículos
jornalísticos. A partir do dia 22 de outubro, a imprensa passou a divulgar quase
que diariamente reportagens com conteúdos de documentos internos da Meta.
Uma das matérias, publicada no Washington Post em 26 de outubro de 2021,
mostra como a fórmula do Facebook usada para hierarquizar publicações no feed
de notícias estimulou o ódio e a desinformação na plataforma. De acordo com o
jornal, a partir de 2017, os algoritmos de classificação da rede social passaram a
tratar reações de emojis, incluindo o botão de “raiva”, com valores cinco vezes
maiores que o botão “curtir”. Os próprios pesquisadores do Facebook suspeitaram
que o mecanismo levaria conteúdos mais emocionais e provocativos aos feeds de
notícias dos usuários (MERRILL; OREMUS, 2021).
Ainda sobre o funcionamento de algoritmos, uma reportagem da NBC News, publicada em 22 de outubro, trouxe detalhes do relatório “Carol’s Journey to QAnon”,
elaborado pela empresa em 2019. Pesquisadores da Meta criaram uma conta fictícia de uma usuária chamada Carol Smith, descrita no perfil como uma mãe politicamente conservadora residente do Estado da Carolina do Norte. A pesquisa
mostra que, embora a pessoa imaginária nunca tenha expressado interesse em
teorias da conspiração, em apenas dois dias o Facebook recomendou que ela
participasse de grupos dedicados ao QAnon, movimento conspiratório criado pela
extrema-direita americana pró-Trump (ZADROZNY, 2021).
Além disso, os Facebook Papers mostram que os sistemas da empresa são “mal
equipados” para combater conteúdo nocivo viral. De acordo com reportagem do
jornal O Estado de S. Paulo, publicada em 14 de novembro, a empresa de Mark
32
Zuckerberg atua de forma reativa ao mau uso da plataforma e não garante o
mesmo nível de moderação de conteúdo para todos os seus usuários ao redor do
mundo (ARIMATHEA; ROMANI; WOLF, 2021).
Debate regulatório
Os Facebook Papers atestaram, com documentos internos da empresa, questionamentos levantados há algum tempo. Já era sabido, por exemplo, que, além de
gerar cliques e visualizações, “o feed do Facebook privilegia conteúdos inflamatórios, criando um ciclo de estímulo-resposta onde a expressão de indignação se
torna mais fácil e até normalizada” (MUNN, 2020, p. 8). Também já eram discutidas questões problemáticas nos modelos de moderação de conteúdo da rede social, incluindo decisões tomadas pelo Facebook em Mianmar e a circulação de
conteúdos maliciosos relacionados à covid-19, como mostram Sablosky (2021) e
Velásquez et al. (2021), respectivamente.
Com os arquivos vazados, porém, há detalhes sobre o design da plataforma.
Trata-se de um avanço na transparência de algoritmos, amplamente discutida na
literatura, como defendem Katzenbach e Ulbricht (2019).
Viés e justiça, transparência e agência humana são questões importantes que devem ser abordadas sempre que os sistemas algorítmicos estão profundamente integrados aos processos organizacionais, independentemente do setor ou aplicação específica (KATZENBACH; ULBRICHT, 2019, p. 11).
Tendo em vista a importância de empresas como o Facebook se envolverem mais
ativamente em “cidadania corporativa” (GRYGIEL; BROWN, 2019, p. 13), detalhes sobre o desenho da plataforma e seus algoritmos se mostram um caminho
de resposta para a pressão regulatória. É nisso que se baseiam os argumentos
da delatora Frances Haugen (HAO, 2021), que, em depoimento no Senado americano em 5 de outubro de 2021, defendeu que a saída para consertar o Facebook
está na mudança dos algoritmos – e nas informações sobre eles. Ela afirma que
não é necessário desmembrar a Meta, mas sim transformar a lógica de classificação algorítmica – uma das bandeiras de Frances é a volta do feed de notícias em
ordem cronológica. Esse movimento de transparência poderia inclusive reverberar
em toda a indústria da tecnologia (ARIMATHEA; WOLF, 2021).
33
Considerações finais
O episódio dos Facebook Papers trouxe uma nova camada de informação a apontamentos já feitos na literatura sobre possíveis efeitos tóxicos do Facebook, como
o favorecimento de conteúdos inflamatórios no feed de notícias. O caso reforça a
importância da transparência de algoritmos na construção de plataformas digitais
saudáveis, por meio de regulações condizentes com as entranhas da operação
de empresas de tecnologia.
Referências bibliográficas
ALMEIDA, V.; FILGUEIRAS, F.; DONEDA, D. The ecosystem of digital content
governance. IEEE Internet Computing, v. 25, n. 3, p. 13-17, maio/jun. 2021. Disponível em: https://ieeexplore.ieee.org/document/9351745. Acesso em: 30 nov.
2021.
ARIMATHEA, B.; ROMANI, B.; WOLF, G. Facebook Papers: sistemas da empresa
são ‘mal equipados’ para combater conteúdo nocivo viral. O Estado de S. Paulo,
São Paulo, 14 nov. 2021. Link Estadão. Disponível em: https://link.estadao.com.br/noticias/empresas,facebook-pap
ers-sistemas-da-empresa-sao-mal-equipados-para-combater-conteudo-nocivoviral,70003896808. Acesso em: 30 nov. 2021.
ARIMATHEA, B.; WOLF, G. Nova crise do Facebook deve forçar indústria da tecnologia a sair das sombras. O Estado de S. Paulo, São Paulo, 10 out. 2021. Link
Estadão. Disponível em: https://link.estadao.com.br/noticias/empresas,novacrise-do-facebook-deve-forcar-industria-da-tecnologia-a-sair-das-sombras,70003863836. Acesso em: 30 nov. 2021.
GRYGIEL, J.; BROWN, N. Are social media companies motivated to be good corporate citizens? Examination of the connection between corporate social responsibility and social media safety. Telecommunications Policy, v. 43, n. 5, p. 445460, 2019. Disponível em: https://doi.org/10.1016/j.telpol.2018.12.003. Acesso
em: 30 nov. 2021.
HAO, K. The Facebook whistleblower says its algorithms are dangerous: here’s
why. MIT Technology Review, Cambridge, 5 out. 2021. Disponível em:
34
https://www.technologyreview.co
m/2021/10/05/1036519/facebook-whistleblower-frances-haugen-algorithms/.
Acesso em: 30 nov. 2021.
KATZENBACH, C.; ULBRICHT, L. Algorithmic governance. Internet Policy Review, v. 8, n. 4, p. 1-18, 2019. Disponível em: http://policyreview.info/concepts/algorithmic-governance. Acesso em: 30 nov. 2021.
MERRILL, J. B.; OREMUS, W. Five points for anger, one for a ‘like’: how Facebook’s formula fostered rage and misinformation. The Washington Post, Washington, 26 out. 2021. Technology. Disponível em: https://www.washingtonpost.com/technology/2021/10/26/facebook-a
ngry-emoji-algorithm/. Acesso em: 30 nov. 2021.
MUNN, L. Angry by design: toxic communication and technical architectures. Humanities and Social Sciences Communications, v. 7, n. 1, artigo 53, p. 1-11,
2020. Disponível em: https://www.nature.com/articles/s41599-020-00550-7.
Acesso em: 30 nov. 2021.
SABLOSKY, J. Dangerous organizations: Facebook’s content moderation decisions and ethnic visibility in Myanmar. Media, Culture & Society, v. 43, n. 6, p.
1017-1042,
2021.
Disponível
em:
https://journals.sagepub.com/doi/abs/10.1177/0163443720987751. Acesso em: 30 nov. 2021.
VELÁSQUEZ, N. et al. Online hate network spreads malicious COVID-19 content
outside the control of individual social media platforms. Scientific Reports, v. 11,
n. 1, artigo 11549, 2021. Disponível em: https://www.nature.com/articles/s41598021-89467-y. Acesso em: 30 nov. 2021.
WELLS, G.; HORWITZ, J.; SEETHARAMAN, D. Facebook knows Instagram is
toxic for teen girls, company documents show. The Wall Street Journal, Nova
York, 14 set. 2021. Disponível em: https://www.wsj.com/articles/facebook-knowsinstagram-is-toxic-for-teen-girls-company-doc
uments-show-11631620739. Acesso em: 30 nov. 2021.
ZADROZNY, B. ‘Carol’s Journey’: what Facebook knew about how it radicalized
users. NBC News, Nova York, 22 out. 2021. Tech News. Disponível em:
https://www.nbcnews.com/tech/tech
-news/facebook-knew-radicalized-users-rcna3581. Acesso em: 30 nov. 2021.
35
LIBERDADE DE OPINIÃO AINDA É PERMITIDA NA INTERNET?
Humberto Sturiale Sartini1
RESUMO: Apresentar alguns pontos das políticas de utilização das redes sociais
com o intuito de cercear o direito de liberdade de expressão e opinião dos usuários.
PALAVRAS-CHAVE: Liberdade de opinião; Internet; Redes sociais; Transparência; Conflito.
Liberdade de opinião
Contextualizando liberdade de opinião
No ano de 1948, quando foi adotada e proclamada pela Assembleia Geral das
Nações Unidas (resolução 217 A III) a Declaração Universal dos Direitos Humanos (ORGANIZAÇÃO DAS NAÇÕES UNIDAS, 2021), já externava a preocupação
de assegurar o direito à liberdade de opinião ao ser humano, conforme visto no
artigo 19:
Todo ser humano tem direito à liberdade de opinião e expressão; esse
direito inclui a liberdade de, sem interferência, ter opiniões e de procurar,
receber e transmitir informações e ideias por quaisquer meios e independentemente de fronteiras.
Mas afinal de contas, o que é liberdade de opinião? É um direito inerente à pessoa
humana que garante a permissão de exteriorização do pensamento, independente
da forma e canal utilizado para esse fim. É importante ressaltar que existem limites
para essa liberdade, como descrito no artigo 5º, inciso X da Constituição:
Profissional da Internet com mais de 20 anos de experiência, tendo passagem por provedores,
operadoras e empresa de consultoria de Internet. Bacharel em Informática, formado pela UEPG,
especialização em Gestão Pública Municipal pela UFPR. Possui diversas certificações e cursos
relativos à área de atuação.
1
36
X - são invioláveis a intimidade, a vida privada, a honra e a imagem das
pessoas, assegurado o direito a indenização pelo dano material ou moral
decorrente de sua violação;
Com o conceito apresentado fica a pergunta: atualmente na Internet é possível
exercer essa liberdade de opinião?
Utilização da Internet no Brasil
O projeto TIC Domicilio (Cetic.BR, 2021), do ano de 2020, nos mostra que no
Brasil mais de 81% da população possuí acesso à internet, o que representa mais
de 152 milhões de usuários. Dentre as atividades mais realizadas foram elencadas:
•
•
•
Envio de mensagens instantâneas (93% dos usuários)
Conversa por chamada de voz ou vídeo (80% dos usuários)
Uso de redes sociais (72%)
Com o conhecimento desses números, fica mais claro de entender o poder de
influência e persuasão que as redes sociais, utilizadas por 72% dos usuários de
internet, pode possuir sobre as pessoas.
Nesse mesmo estudo foi apresentado que nos últimos anos, com destaque nos
últimos anos devido a pandemia de Covid 19, vem crescendo o uso da Internet
pelos brasileiros e por consequência o uso das redes sociais. Mais especificamente do Brasil onde ocorre uma polarização política cada vez maior, as redes
sociais, além de outros meios, refletem esse cenário.
Redes sociais
Com essa massificação das redes sociais, que usualmente são ou fazem parte de
grandes conglomerados empresariais, tornaram-se uma nova fonte de informação
para os usuários. É importante ressaltar que muito da informação que divulgada
nessas plataformas não necessariamente possuem uma fonte ou a geração ocorreu por alguma fonte fidedigna. Esse cenário criou um espaço para as redes sociais iniciarem a moderação do conteúdo publicado.
37
No estudo Transparência na moderação de conteúdo – Tendencias regulatórias
nacionais, desenvolvido pelo Instituto de Referência em Internet e Sociedade
(IRIS), explora de uma forma prática os padrões, lacunas e tendências nas obrigações de transparência sobre moderação de conteúdo, utilizando não somente
o Brasil como modelo, mas também diversos outros países.
Um ponto importante apresentado na pesquisa são os 04 fatores que impactam
diretamente na moderação de conteúdo, que são “Filosofia da empresa”, “Conformidade regulatória”, “Maximização de lucros” e “Opinião pública”.
Os fatores apresentados podem ser conflitantes entre si em algumas áreas, porém
um que poderia trazer o maior impacto é a filosofia da empresa. Esse tipo de conceito é muito difícil de ser entendido e apresentado aos usuários, uma vez que
varia de cada uma das plataformas e sempre é necessário lembrar que o interesse
dos fundadores, conselhos ou outros responsáveis pelas empresas devem ser
atendidos.
Para não terem associadas suas imagens ao conteúdo categorizado por essas
empresas como danoso, criaram algumas práticas de intervenção no conteúdo,
tais como:
•
•
•
•
•
Remoção: remoção completo do conteúdo publicado;
Indisponibilização: permitir o acesso de forma limitada temporal ou geograficamente;
Restrição: ocultar o conteúdo ou criar restrição por algum parâmetro;
Sinalização: sinalizar que determinado conteúdo está associado a algo;
Ranqueamento: apresentar conteúdos mais “relevantes” para os usuários;
Essas práticas não devem ser consideradas negativas, porém o ponto importante
a ser questionado é a transparência que cada plataforma tratar o conteúdo. Importante ressaltar que em muitos casos temos termos genéricos ou abrangentes
para servir como base dessas práticas.
38
Casos práticos
Se o usuário quiser tentar entender como as grandes empresas lidam com as
práticas de intervenção é possível acessar páginas com explicação de como operar, porém nesses sites existem textos conflitantes e com termos genéricos.
Na página de transparência do Facebook temos a seguinte frase:
Reconhecemos que as pessoas às vezes compartilham conteúdos que
incluem discursos de ódio de outra pessoa para condená-la ou aumentar
a conscientização. Em outros casos, o discurso que poderia violar nossas normas pode ser usado de forma autorreferencial ou empoderadora.
(FACEBOOK, [2021?])
No Instagram, que também possui uma página explicando a transparência aplicado, temos o seguinte texto:
Queremos promover uma comunidade diversificada e positiva. Removemos conteúdo que contenha ameaças reais ou discurso de ódio, conteúdo que ataque indivíduos privados com a intenção de degradá-los ou
constrangê-los. Também removemos informações pessoais com o intuito de chantagear ou assediar alguém e mensagens indesejadas enviadas repetidamente. Geralmente, permitimos discussões fortes sobre
pessoas que são noticiadas na mídia ou que possuem um público mais
amplo devido à profissão ou às atividades de sua escolha. (INSTAGRAM, [2021?])
O Twitter, outra grande plataforma de rede social, no texto sobre elaboração de
políticas e filosofias de medidas corretivas, temos:
Para ajudar a garantir que as pessoas tenham a oportunidade de ver
todos os lados de uma questão, pode haver ocasiões raras em que permitimos que um conteúdo ou comportamento controverso, que de outra
forma violaria as Regras do Twitter, permaneça em nosso serviço porque
acreditamos que exista um interesse público legítimo em sua disponibilidade. Cada situação é avaliada caso a caso e por fim decidida por uma
equipe interfuncional. (TWITTER, [2021?])
Por outro lado, temos ferramentas que possuem uma política mais permissiva de
publicações, como são os casos do Telegram e GETTR. Na página inicial do GETTR é possível visualizar a temática da referida rede social:
Uma nova plataforma de rede social fundamentada nos princípios da liberdade de expressão, pensamento independente e na rejeição de censuras políticas e da “cultura de cancelamento”. (GETTR, [2022?])
39
Já o Telegram, o qual vem sofrendo tentativas de bloqueio por parte de autoridades brasileiras, também possui uma política mais aberta para as publicações, inclusive permitindo grupos maiores que seus concorrentes e funções complementares que diversas outras plataformas não possuem. Essa ferramenta, que começou a ser mais utilizada no país depois do “Apagão do WhatsApp”, em outubro de
2021 (G1, 2021), está sofrendo grandes pressões de determinados grupos para
que seja bloqueada.
Um dos pontos preocupantes, é que nas notícias veiculadas informam que o Telegram também é bloqueado em 11 países e quando procuramos a relação de
países, que se diga de passagem é muito difícil de encontrar, temos diversos países ditatoriais ou que possuem um forte desejo de controlar o pensamento e a
expressão de seu povo, tais como: Irã, China, Bahrein, Cuba e outros países que
estavam passando por forte pressão popular para que os direitos humanos fossem validos nesses países. (WIKIPEDIA, 2022).
Aqui é válido um questionamento que todos devem se fazer: é isso que queremos
para o Brasil?
É de extrema importância relembrar que no Marco Civil da Internet (Brasil, 2014)
temos diversos pontos explícitos que visam garantir a liberdade de expressão,
como visto abaixo:
Art. 2º A disciplina do uso da internet no Brasil tem como fundamento o
respeito à liberdade de expressão, bem como:
II - os direitos humanos, o desenvolvimento da personalidade e o exercício da cidadania em meios digitais;
III - a pluralidade e a diversidade;
Art. 3º A disciplina do uso da internet no Brasil tem os seguintes princípios:
I - garantia da liberdade de expressão, comunicação e manifestação de
pensamento, nos termos da Constituição Federal;
Art. 8º A garantia do direito à privacidade e à liberdade de expressão nas
comunicações é condição para o pleno exercício do direito de acesso à
internet.
40
Não se pode confundir liberdade de expressão como um salvo conduto que irá
permitir a propagação de informações não verdadeiras, ofensas, ataques a honra
ou a dignidade da pessoa humana.
Também pode-se pensar que o uso gratuito das redes sociais dá o direito as referidas empresas de executarem as ações da forma que melhor convir, sem a
obrigatoriedade de atender os termos de uso das plataformas ou legislações específicas de cada localidade. É necessário relembrar que “quando um serviço é
gratuito, você é o produto” nos remete ao caráter de relação de consumo entre as
plataformas e os usuários.
Diante desses pontos fica claro que as referidas empresas estão criando situações em que o cerceamento prévio da liberdade de expressão, seja através de
algoritmos, agencias de checagem, denúncias de usuários ou outros meios, caracteriza uma forma de não permitir uma manifestação de pensamento plural e
diversa do viés das empresas.
Conclusão
A liberdade de opinião é um direito adquirido da pessoa humana e deve ser respeitado em qualquer cenário. Em alguns casos a opinião apresentada em uma
rede social pode ir contra as políticas daquela plataforma e com isso ser moderada.
É louvável que as redes sociais possuam políticas de moderação de conteúdo
para que seja possível aplicar ações visando a diminuição ou extinção de danos
a qualquer pessoa, porém a forma que utilizam essas ferramentas não são transparentes.
Para garantir uma maior liberdade de opinião é necessário que as plataformas
possuem uma transparência maior em suas políticas, para evitar entendimentos
incorretos, dúbios ou que se aplicam em certos cenários que não possuem definição.
41
Referências bibliográficas
BRASIL. Constituição (2014). Lei nº 12965, de 23 de abril de 2014. Lei: Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil. Brasília,
Disponível
em:
http://www.planalto.gov.br/ccivil_03/_ato20112014/2014/lei/l12965.htm. Acesso em: 16 jan. 2022.
FACEBOOK. Discurso de ódio. [2021?]. Disponível em: https://transparency.fb.com/pt-br/policies/community-standards/hate-speech/. Acesso em: 11
dez. 2021.
G1. Telegram registra mais de 70 Milhões de usuários novos durante pane do
Whatsapp. G1, 05 out. 2021. Disponível em: https://g1.globo.com/tecnologia/noticia/2021/10/05/telegram-registra-mais-de-70-milhoes-de-usuarios-novos-durante-pane-do-whatsapp.ghtml. Acesso em: 06 fev. 2022.
GETTR. Página Inicial. [2022?] Disponível em: https://www.gettr.com/onboarding. Acesso em: 06 fev. 2022.
INSTAGRAM. Diretrizes da Comunidade. [2021?]. Disponível em:
https://help.instagram.com/477434105621119/?helpref=hc_fnav. Acesso em: 11
dez. 2021
KURTZ, L. P.; DO CARMO, P. R. R.; VIEIRA, V. B. R. Transparência na moderação
de
conteúdo:
tendências
regulatórias
nacionais. Belo Horizonte: Instituto de Referência em Internet e Sociedade, 2021.
Disponível em: https://bit.ly/3xjAUka. Acesso em: 11 dez. 2021.
NÚCLEO DE INFORMAÇÃO E COORDENAÇÃO DO PONTO BR (NIC.br). Publicado em 18/08/2021. Pesquisa sobre o uso das tecnologias de informação e comunicação nos domicílios brasileiros: pesquisa TIC Domicílios (Edição COVID-19
- Metodologia adaptada), ano 2020. Disponível em: https://cetic.br/pt/arquivos/domicilios/2020/domicilios/. Acesso em: 08 dez. 2021
ORGANIZAÇÃO DAS NAÇÕES UNIDAS. Declaração Universal dos Direitos
Humanos, 1948. Disponível em: https://www.unicef.org/brazil/declaracao-universal-dos-direitos-humanos. Acesso em: 11 dez. 2021.
42
TWITTER. Abordagem de elaboração de políticas e filosofia de medidas corretivas do Twitter. [2021?]. Disponível em: https://help.twitter.com/pt/rules-andpolicies/enforcement-philosophy. Acesso em: 11 dez. 2021.
WIKIPEDIA. Government censorship of Telegram Messenger. 2022. Disponível em: https://en.wikipedia.org/wiki/Government_censorship_of_Telegram_Messenger. Acesso em: 06 fev. 2022.
43
MODERAÇÃO DE CONTEÚDO NA INTERNET – UMA BREVE
AVALIAÇÃO DOS TERMOS DE USO DO INSTAGRAM
Rodrigo Jae Hyun Yu1
RESUMO: A moderação de conteúdo tem tido cada vez mais relevância, principalmente pelo crescimento do uso das redes sociais, com seu potencial de influenciar opiniões, divulgação de informação em massa, entre outros fatores. Sendo
assim, o tema tem sido objeto de regulação e estudo por parte de governos e
órgãos dedicados ao assunto. Como condição para a utilização das redes sociais,
os provedores dessas aplicações de internet exigem a adesão dos usuários aos
Termos de Uso da rede, que governam a utilização dos serviços, incluindo a delimitação dos materiais que poderão ser compartilhados nelas. Esses Termos devem ser claros sobre suas políticas de moderação de conteúdo, identificando os
materiais passíveis de remoção, bem como os procedimentos e mecanismos de
recursos para usuários que tiveram conteúdos removidos com base nesses Termos. Assim, neste pequeno ensaio, será feita uma breve avaliação dos Termos
de Uso de uma das maiores redes sociais da atualidade, o Instagram, a fim de se
observar quão transparente suas regras são em relação a esses quesitos.
PALAVRAS-CHAVE: Moderação; Conteúdo; Internet; Instagram; Diretrizes
Introdução
A recente edição da Medida Provisória nº 1.068 em setembro de 2021 acendeu
discussões sobre a moderação de conteúdo feita por provedores de aplicações
de internet, como as redes sociais. A medida, que modificava o Marco Civil da
Internet, foi rejeitada alguns dias depois e trazia entre suas principais previsões a
Aluno da Graduação da Escola de Direito de São Paulo da Fundação Getulio Vargas. Este ensaio
foi produzido como fechamento do Curso Livre “Estrutura e Funcionamento da Internet: Aspectos
Técnicos, Políticos e Regulatórios”, promovido pelo Centro de Ensino e Pesquisa em Inovação
(CEPI) da FGV Direito SP, com apoio do Twitter Brasil.
1
44
de que “em observância à liberdade de expressão, comunicação e manifestação
de pensamento, a exclusão, a suspensão ou o bloqueio da divulgação de conteúdo gerado por usuário somente poderá ser realizado com justa causa e motivação” (art. 8-C). O dispositivo ainda elencava, em seu inciso II, as hipóteses do que
pode ser considerado como justa causa. Entre elas, alguns exemplos são: conteúdos que contenham nudez ou representações de atos sexuais (alínea a), que
fazem apologia ao crime (alíneas b e c) ou à violência (alínea d e f), que possuam
material discriminatório e preconceituoso (alínea d), que ameacem a segurança
pública (alínea h), que violem propriedade intelectual (alínea i); além da hipótese
de cumprimento de determinações judiciais (inciso IV) e do requerimento de ofendidos (ou representantes legais e até mesmo herdeiros), quando se verificar violação à privacidade, intimidade ou honra, entre outras causas (inciso III).
Vale apontar que mesmo antes da edição dessa Medida Provisória, o Marco Civil
já possuía previsões sobre moderação de conteúdo de provedores de aplicações
de internet, dentro da seção sobre responsabilidade por danos decorrentes de
conteúdo gerado por terceiros. Em seu art. 19, sob a premissa de que a liberdade
de expressão deve ser assegurada e a censura impedida, é estabelecido que o
provedor de aplicações só será responsabilizado se não tomar providências dentro do prazo para remover conteúdo apontado como infringente por determinação
judicial. O art. 21, por sua vez, determina que o provedor de aplicações de internet
que disponibilize conteúdo gerado por terceiros (o que é o caso das redes sociais),
será responsabilizado subsidiariamente pela violação da intimidade decorrente da divulgação, sem autorização de seus participantes, de imagens, de vídeos ou de outros materiais contendo cenas de nudez ou de
atos sexuais de caráter privado quando, após o recebimento de notificação pelo participante ou seu representante legal, deixar de promover, de
forma diligente, no âmbito e nos limites técnicos do seu serviço, a indisponibilização desse conteúdo.
Tendo em vista a relevância desse tema, deve-se fazer uma análise da atuação
desses provedores de aplicações de internet, mais especificamente, das redes
sociais (em que a adição de conteúdo por usuários é mais acentuada), na moderação dos conteúdos divulgados em suas plataformas, observando o tipo de prática exercida por elas, bem como sua interação com a legislação nacional e recomendações de órgãos como o Internet Society. Assim, nesse ensaio será objeto
de estudo o Instagram, uma das maiores redes sociais atualmente, que conta com
cerca de 500 milhões de usuários diários (DEAN, 2021), e sua política de moderação de conteúdo.
45
1. Moderação de conteúdo nas redes sociais
De modo geral, as redes sociais, assim como outros serviços digitais, apresentam
Termos de Uso com os quais os usuários devem concordar para utilizar os serviços prestados. Esses Termos costumam descrever algumas regras que regerão
os limites do comportamento dos usuários, identificar seus direitos, entre outros
fatores, de modo que a construção desses termos de maneira apropriada é essencial para o bom funcionamento e organização da rede social e também para a
garantia dos direitos dos usuários, evitando abusos. Para isso, vale a observação
de recomendações feitas por órgãos relacionados ao tema como a Internet Society, bem como a legislação do país em que a rede social for utilizada.
1.1. Recomendações – Internet Society
No Decálogo de Recomendações sobre o Modelo Brasileiro de Responsabilidade
de Intermediários (ISOC, 2021), o Capítulo Brasil do Internet Society trouxe como
um dos principais apontamentos a necessidade de os provedores de aplicações
de internet garantirem o acesso à informação e medidas de devido processo em
seus termos de uso e serviço. Assim, esses termos devem prever (i) “informações mais claras sobre regras de moderação de conteúdos, que proporcionem ao
usuário o direito de conhecer os motivos da remoção e quais cláusulas foram violadas com o conteúdo de sua autoria”, além de (ii) “mecanismos claros e robustos
de recursos para usuários que tenham tido seus conteúdos ou perfis removidos
com base em violações aos termos de uso e políticas de moderação”.
1.2. Políticas do Instagram
Os Termos de Uso do Instagram (INSTAGRAM, [2021?a]) (bem como outras políticas da plataforma), com os quais todo e qualquer usuário da plataforma deve
concordar para poder utilizar os serviços oferecidos, estabelece algumas diretrizes que definem que tipos de atitudes um usuário pode ou não ter. Entre elas: se
passar por outras pessoas; fazer algo ilícito ou fraudulento; violar outras regras da
plataforma (Diretrizes da Comunidade, Termos da Plataforma do Facebook e Políticas do Desenvolvedor, Diretrizes de Música, Políticas de Conteúdo de Marca);
publicar informações privadas ou confidenciais de outra pessoa sem permissão;
46
violar direitos de outra pessoa (incluindo direitos de propriedade intelectual), entre
outros. Essas outras regras e políticas, como as Diretrizes da Comunidade, estabelecem exigências adicionais, como o cumprimento da lei e a proibição de materiais que contenham nudez (com exceção de casos em que o conteúdo compartilhado tem natureza de protesto, pinturas, esculturas ou diz respeito a situações
relacionadas à saúde).
Os Termos definem que, se o Instagram acreditar que o conteúdo publicado na
plataforma viola qualquer uma das políticas da rede, ou se o Instagram for autorizado ou obrigado por lei, o material compartilhado poderá ser removido, ou a conta
do usuário pode ser encerrada, caso haja violações repetidas ou seja criada uma
“exposição legal” para a plataforma.
1.2.1. Procedimentos de remoção
Quanto à forma pela qual o Instagram decide quais conteúdos devem ser removidos, conforme a Central de Ajuda da rede (INSTAGRAM, [2021?b]), é usada uma
combinação de tecnologia e de denúncias feitas por usuários para determinar se
o conteúdo viola as Diretrizes da Comunidade e, depois, a tecnologia ou uma
equipe de análise remove o conteúdo. Pouco se diz sobre a tecnologia utilizada e
sobre os critérios que ela leva em conta para tomar suas decisões. Assim, eventuais vícios nas tomadas de decisão de sistemas de inteligência artificial podem
ocorrer, gerando resultados parciais ou enviesados (KURTZ, 2021), sem que possam ser verificados e fiscalizados, o que seria negativo tanto no âmbito da moderação de conteúdo quanto em relação aos direitos fundamentais das pessoas, já
que essa falta de transparência abre espaço para diversas formas de discriminação.
1.2.2. Apelação de decisões tomadas
Em relação aos procedimentos para apelação de decisões tomadas pela plataforma, a Central de Ajuda da plataforma (INSTAGRAM, [2021?c]) informa que,
caso o usuário discorde da decisão tomada, é possível que ele solicite uma análise da decisão. Assim, a decisão é avaliada novamente (não se diz propriamente
47
como, os critérios utilizados, nem mesmo se essa reavaliação é feita por tecnologia ou por humanos). É informado, ainda, que caso o usuário discorde da decisão
reavaliada, ela pode ser submetida a um Comitê de Supervisão através de uma
apelação, que deve ser qualificada (ou seja, nem todos os casos podem ser submetidos). Um regulamento interno sobre o Comitê (FACEBOOK, 2022) é disponibilizado para informações sobre os procedimentos específicos, em inglês.
1.3. Relação com legislação
Quanto à sua relação com a legislação, o Instagram inclui em suas Diretrizes da
Comunidade a exigência de cumprimento da lei por parte dos usuários, além de
apontar em seus Termos de Uso a possibilidade de remoção de conteúdo quando
exigido por lei. Isso revela a submissão à jurisdição e conformidade regulatória da
plataforma, como apontado pelo Instituto de Referência em Internet e Sociedade
(KURTZ, 2021), pela qual existe uma pressão para o cumprimento das normas
vinculantes.
Conclusão
Assim, em relação às recomendações feitas pelo Internet Society, se observa que
o Instagram não as cumpre de maneira integral e adequada, na medida em que,
apesar de apontar conteúdos que não devem ser compartilhados na plataforma,
não é transparente quanto às técnicas, tecnologias e critérios utilizados para a
tomada de decisão sobre a remoção de um conteúdo.
Além disso, apesar de haver informações sobre a apelação ao Comitê de Supervisão, procedimentos anteriores a essa etapa são pouco claros, não sendo informado como são feitas as reavaliações das decisões, os critérios utilizados para
fundamentá-las, e nem mesmo os procedimentos necessários para requerê-las
estão disponíveis na Central de Ajuda. Assim, o usuário só terá acesso a esse tipo
de informação depois que seu conteúdo já foi removido (as instruções são enviadas junto com a notificação de remoção de conteúdo (INSTAGRAM, [2021?d]), e
não antes.
48
Dessa maneira, observa-se que, no que se refere à transparência em seus Termos de Uso, o Instagram ainda tem muito o que melhorar para que se adeque às
recomendações, evite situações discriminatórias, tomadas de decisão parciais ou
enviesadas e melhore o entendimento do usuário acerca de suas políticas de moderação de conteúdo. Apesar de ser claro quanto aos tipos de conteúdo que configurariam violações aos Termos ou que seriam considerados inadequados, e,
portanto, suscetíveis à remoção e outras penalidades, as regras são pouco transparentes quanto aos procedimentos a serem tomados, os “direitos” dos usuários
e o funcionamento interno da plataforma
Referências bibliográficas
DEAN, B. Instagram Demographic Statistics: how many people use instagram
in 2021?. How Many People Use Instagram in 2021?. 2021. Updated Sep. 10,
2021. Disponível em: https://backlinko.com/instagram-users#instagram-stats-toppicks. Acesso em: 24 nov. 2021.
FACEBOOK. Oversight Board Bylaws. Janeiro 2022. Disponível em:
https://about.fb.com/wp-content/uploads/2020/01/Bylaws_v6.pdf. Acesso em: 13
abr. 2022.
INSTAGRAM. Termos de Uso. [2021?a]. Disponível em: https://www.facebook.com/help/instagram/581066165581870. Acesso em: 25 nov. 2021.
______. Como o Instagram decide o que remover? Central de Ajuda. [2021?b].
Disponível
em:
https://help.instagram.com/623395918520872/?helpref=search&query=removed%20post&search_session_id=475678d1287bf1738bd845620d4156ef&sr=2. Acesso em: 25 nov. 2021.
______. Acho que o Instagram não deveria ter removido minha publicação.
[2021?c]
Central
de
Ajuda.
Disponível
em:
https://help.instagram.com/280908123309761. Acesso em: 25 nov. 2021.
______. Um conteúdo que publiquei no Instagram foi removido por causa de
uma denúncia de violação de propriedade intelectual. Quais são os próximos
49
passos?
[2021?d].
Disponível
em:
https://help.instagram.com/244286600038698/?helpref=search&query=apelação&search_session_id=13f7ff9dcb0359a04e9a02fc69150879&sr=3. Acesso em: 25 nov. 2021.
ISOC BRASIL – SOCIEDADE DA INTERNET NO BRASIL. Decálogo de Recomendações sobre o Modelo Brasileiro de Responsabilidade de Intermediários. São Paulo: ISOC Brasil, 2021. Disponível em: https://isoc.org.br/files/Decálogo_de_Recomendações_sobre_o_Modelo_Brasileiro_de_Responsabilidade_de_Intermediários.pdf
KURTZ, L. P.; DO CARMO, P. R. R.; VIEIRA, V. B. R. Transparência na moderação de conteúdo: tendências regulatórias nacionais. Belo Horizonte: Instituto de Referência em Internet e Sociedade, 2021. Disponível em:
https://bit.ly/3xjAUka. Acesso em: 25 nov. 2021
50
ESTRUTURA E
FUNCIONAMENTO DA INTERNET
ASPECTOS TÉCNICOS, POLÍTICOS E REGULATÓRIOS
DESINFORMAÇÃO
51
O IMPACTO DA “PL DAS FAKE NEWS” NA LIBERDADE DE EXPRESSÃO
Amanda Cristina Alves Silva1
RESUMO: Considerando as mudanças geradas pela revolução digital, o presente
trabalho buscou abordar brevemente a questão da liberdade de expressão no
ambiente virtual, analisando o impacto do Projeto de Lei popularmente conhecido
como “PL das Fake News” – projeto dedicado ao combate à desinformação – na
liberdade de expressão. Para realizar tal análise, abordamos primeiramente o
conceito de liberdade de expressão sob a ótica de cultura democrática. Na
sequência, abordamos as formas de regulação da liberdade de expressão. E, por
fim, analisamos o projeto de lei em questão, e o impacto dos seus dispositivos
para a liberdade de expressão no ambiente virtual.
PALAVRAS-CHAVE: Liberdade de Expressão; Regulação da Liberdade de
Expressão; “PL das Fake News”.
Introdução
A revolução digital cria um ambiente em que frequentemente se observam conflitos entre interesses individuais e empresariais e, por conta disso, diferentes regulações surgem na tentativa de conciliar tais conflitos. Como exemplo, podemos
citar os projetos de lei que buscam combater a desinformação no ambiente virtual,
ao mesmo tempo em que se busca resguardar direitos fundamentais, como a liberdade de expressão. No Brasil, o projeto de lei mais avançado sobre o tema
trata-se do PL 2630/2020, o chamado PL das Fake News.
1
Advogada. Graduada em Direito pelo Instituto Brasiliense de Direito Público – IDP/EDB.
52
A partir deste contexto, então, o presente trabalho busca analisar a questão da
liberdade de expressão no ambiente virtual, estudando em que medida o “PL das
Fake News” impacta na liberdade de expressão no ambiente digital?
Para realizar tal análise, abordamos brevemente o conceito de liberdade de expressão sob a ótica de cultura democrática, bem como as formas de regulação da
liberdade de expressão. Por fim, analisamos de forma pontual o projeto de lei em
questão, e o impacto dos seus dispositivos para a liberdade de expressão no ambiente virtual.
Liberdade de expressão na era da informação digital
O desenvolvimento tecnológico ao longo dos anos vem gerando diferentes impactos na sociedade e nas formas de interação, Jack Balkin nomeia este marco de
mudanças de “revolução digital”, que ele considera como sendo a criação e a
vasta disponibilização de tecnologias que permitem a cópia, modificação, anotação, colagem, transmissão, e distribuição de conteúdo digital. Para o autor, essas
mudanças impactam a organização social e as práticas de liberdade de expressão
de quatro formas em especial (BALKIN, 2004).
A primeira delas se relaciona com o custo de copiar e distribuir informações, que
caiu drasticamente, de modo que um grande número de pessoas agora tem
acesso à possibilidade de compartilhar e distribuir suas opiniões de forma barata
e com largo alcance. O segundo diz respeito ao alcance do conteúdo compartilhado, uma vez que agora as informações atravessam fronteiras culturais e geográficas de forma fácil e barata. Em terceiro lugar está a facilidade de inovar a
partir de um conteúdo já existente no ambiente virtual. O quarto impacto trata-se
da democratização do discurso, uma vez que as tecnologias de distribuição e
transmissão são disponibilizadas para um grande número de pessoas, de diferentes segmentos da sociedade, e de diferentes partes do mundo (BALKIN, 2004).
Ao mesmo tempo em que as características da revolução digital empoderam pessoas comuns e democratizam o discurso, também empodera empreendimentos,
possibilitando a inovação a partir das novas dinâmicas criadas. Dessa forma,
Balkin aponta que a revolução digital é também uma revolução econômica e tecnológica, pois mais tipos de mídia e produtos de informação podem ser vendidos
53
para mais pessoas, em mais lugares. Consequentemente, a informação passa a
ser fonte de riqueza e, da mesma forma, a estrutura necessária para distribuir a
informação também se constitui fonte de riqueza (BALKIN, 2004).
Então, a partir da democratização dos conteúdos digitais e com o crescimento da
importância desses conteúdos enquanto fonte de riqueza e poder econômico, surgem diferentes conflitos característicos da era digital, e que envolvem diferentes
direitos e garantias como, por exemplo, a liberdade de expressão (BALKIN, 2004).
A partir desses conflitos surgem diferentes formas de interpretar a liberdade de
expressão no contexto digital. Balkin apresenta, então, a sua perspectiva, a qual
ele baseia na ideia de cultura democrática. Para o autor, a liberdade de expressão
no ambiente digital não pode ser interpretada apenas sob a ótica da democracia,
mas deve considerar toda a expressão cultural, desde os debates mais corriqueiros até os mais complexos (BALKIN, 2004).
Para Balkin, então, a liberdade de expressão possui uma natureza popular que
envolve a criatividade, a interatividade, a importância para comunidade e autoformação, de modo que sua interpretação apenas do ponto de vista de deliberações
políticas e de assuntos públicos seria extremamente limitante. Desse modo, a leitura da liberdade de expressão a partir da democracia deve ser feita considerando
a democracia em seu sentido mais amplo, no sentido de cultura (BALKIN, 2004).
Assim, ao interpretar a liberdade de expressão a partir da ideia de cultura democrática, Balkin aponta que esse princípio apresenta quatro componentes, quais
sejam: i) o direito de publicar, distribuir e alcançar uma audiência; ii) o direito de
interagir com outros, trocar ideias, influenciar e ser influenciado, transmitir e absorver cultura; iii) o direito de se apropriar de material cultural disponível, modificar
e criar algo novo, e compartilhar os resultados com os outros; e iv) o direito de
participar e produzir cultura e, portanto, o direito de ter voz no desenvolvimento
da cultura e das forças comunicacionais que moldam o ser (BALKIN, 2004).
A proteção prática dessas liberdades, no entanto, envolve diferentes aspectos.
Balkin aponta que as evoluções mais importantes no tema de liberdade de expressão não ocorrem a partir de discussões constitucionais, mas sim através de
decisões relacionadas a regulação da tecnologia (BALKIN, 2008). Nesse contexto,
tem-se que a liberdade de expressão não está relacionada apenas com a ausência de censura, mas também com uma infraestrutura de livre expressão. Nessa
54
infraestrutura estão incluídos tanto os meios de comunicação e propagação de
informação, quanto a possibilidade de criação de novos meios de comunicação,
ou seja, a liberdade de inovação (BALKIN, 2008).
Regulando a liberdade de expressão no ambiente digital
Quando abordamos a temática de regulação da liberdade de expressão na era da
informação digital, faz-se necessário analisar outras ideias também trabalhadas
por Balkin, sobre o que é chamado de “triângulo de Balkin”. O autor leciona que
existem dois sistemas que envolvem a regulação da liberdade de expressão. O
primeiro sistema trata-se de uma dinâmica dualista, onde tem-se de um lado o
Estado que restringe ou limita a manifestação do emissor, que está do outro lado
(BALKIN, 2018).
No entanto, em um contexto marcado pela revolução digital, tal sistema não se
configura mais suficiente para lidar com as questões relacionadas à liberdade de
expressão. Assim, Balkin entende que o sistema que protege a liberdade de expressão hoje é pluralista, o qual envolve a participação não apenas do Estado e
do emissor do discurso, mas também das empresas que disponibilizam a infraestrutura onde ocorre essa comunicação digital (BALKIN, 2018).
Para ilustrar tal relação, Balkin propõe um triângulo composto por i) os Estados e
entidades supranacionais, ii) os emissores, dentre os quais se inclui a sociedade
civil e também a mídia de massa; e iii) as empresas de infraestrutura de internet
(BALKIN, 2018). A dinâmica de regulação entre eles ocorre da seguinte forma: os
Estados regulam os emissores e os meios de comunicação em massa tradicionais
através de uma abordagem “oldschool”; os Estados regulam, tentam cooperar e
coagir a infraestrutura da internet através de uma abordagem “newschool”; e, por
fim, a infraestrutura da internet regula os emissores utilizando-se da governança
privada (BALKIN, 2018).
A abordagem de regulação da liberdade de expressão que o autor chama de “oldschool”, ou tradicional, trata-se da relação em que o Estado se utiliza de sanções
e outras formas de punição ou de retribuição para controlar o discurso de pessoas,
55
associações ou empresas de comunicação. Já a abordagem “newschool”, por outro lado, trata-se da regulação direcionada às empresas responsáveis pela infraestrutura da internet (BALKIN, 2018).
A nova abordagem de regulação da liberdade de expressão, todavia, apresenta
problemas. O principal deles a ser abordado aqui, trata-se da “censura colateral”.
Tal problema ocorre quando o Estado faz com que A controle o discurso de B, sob
ameaça de punição, dessa forma, o ente privado passa a regular o discurso online
em nome do Estado (BALKIN, 2018).
Neste cenário, o desdobramento mais provável é que o ente privado opte pela
precaução e, portanto, bloqueie ou filtre mais conteúdos na tentativa de evitar
sanções, bem como retire conteúdos que possam ser questionados de alguma
forma, com a mesma finalidade. Isto porque, o responsável pela infraestrutura tem
o interesse de que a maioria de seus usuários se sinta confortável, de modo que
restringir o discurso de poucos não vai ser prejudicial para o seu modelo de negócio, diferentemente de repetidas responsabilizações governamentais pelo discurso de terceiros, o que pode ser um risco à sua atividade (BALKIN, 2018).
Nesse contexto, o autor destaca a necessidade de que as empresas de infraestrutura sejam enxergadas não apenas como facilitadoras da comunicação digital,
mas sim como governantes dos espaços sociais, uma vez que possuem cada vez
mais capacidade de vigilância e controle, constituindo-se, portanto, como governança privada (BALKIN, 2018).
PL das fake news e a liberdade de expressão
Assim como outros países, nos últimos anos o Brasil passou a visualizar o crescimento da desinformação no ambiente virtual, em especial no que se refere aos
56
temas relacionados ao período eleitoral e possíveis candidatos.2 As consequências desse crescimento têm sido vistas na sociedade, de modo que parece inegável a necessidade de legislar a respeito.
É sob essa motivação que é editado o Projeto de Lei nº 2630/2020, o qual se
intitula como Lei Brasileira de Liberdade, Responsabilidade e Transparência na
Internet, e pretende estabelecer as “normas, diretrizes e mecanismos de transparência para provedores de redes sociais e de serviços de mensageria privada a
fim de garantir a segurança e ampla liberdade de expressão, comunicação e manifestação do pensamento”3.
A proposta elenca em seu art. 4º quatro objetivos: I) o fortalecimento do processo
democrático por meio do combate ao comportamento inautêntico e às redes de
distribuição artificial de conteúdo e do fomento ao acesso à diversidade de informações na internet no Brasil; II) a defesa da liberdade de expressão e o impedimento da censura no ambiente online; III) a busca por maior transparência das
práticas de moderação de conteúdos postados por terceiros em redes sociais,
com a garantia do contraditório e da ampla defesa; e IV) a adoção de mecanismos
e ferramentas de informação sobre conteúdos impulsionados e publicitários disponibilizados para o usuário.
O projeto de lei em questão é alvo de diversas críticas, que se dirigem à diferentes
aspectos da proposta, tanto do que está previsto quanto do que não foi abordado.4
Um dos pontos criticados diz respeito a imposição de que os provedores de redes
sociais e de serviços de mensageria adotem medidas para vedar o funcionamento
de contas inautênticas (art. 6º, I).
De igual modo, o art. 7º ao prever que “os provedores de redes sociais e de serviços de mensageria privada poderão requerer dos usuários e responsáveis pelas
Ver mais em “A desinformação é a protagonista da crise institucional brasileira”. Disponível
em: https://www.agazeta.com.br/editorial/a-desinformacao-e-a-protagonista-da-crise-institucionalbrasileira-0921. Acesso em: novembro, 2021.
3 Projeto de Lei 2630/2020. Disponível em: https://www.camara.leg.br/proposicoesWeb/prop_mostrarintegra;jsessionid=node05gpyflzixn1k1pan27l1izv0r16960225.node0?codteor=1909983&filename=PL+2630/2020. Acesso em: novembro, 2021.
4 Algumas das críticas podem ser vistas em “PL das Fake News: Recomendações”. Disponível
em: https://www.jota.info/opiniao-e-analise/artigos/pl-das-fake-news-recomendacoes-04112021.
Acesso em: novembro, 2021.
2
57
contas, em caso de denúncias por desrespeito a esta Lei, no caso de indícios de
contas automatizadas não identificadas como tal, de indícios de contas inautênticas ou ainda nos casos de ordem judicial, que confirmem sua identificação, inclusive por meio da apresentação de documento de identidade válido” gerou questionamentos a respeito da razoabilidade e necessidade da medida.5
Apesar dos pontos questionáveis, o projeto também estabelece previsões que
buscam dar maior transparência na aplicação dos termos de uso das plataformas.
Como exemplo tem-se o art. 12, que dispõe que “os provedores de aplicação de
internet submetidos a esta Lei devem garantir o direito de acesso à informação e
à liberdade de expressão de seus usuários nos processos de elaboração e aplicação de seus termos de uso, disponibilizando mecanismos de recurso e devido
processo”.
Percebe-se, de forma clara, que o projeto utiliza uma a abordagem que Balkin
chamou de “newschool”, uma vez que estabelece diversas medidas a serem adotadas pelos provedores de redes sociais e pelos provedores de serviços de mensageria privada, a fim de regular o discurso de particulares. Como consequência,
portanto, é possível vislumbrar a eventual concretização da “censura colateral”,
também abordada por Balkin.
Analisando o projeto sob a luz dos conceitos apresentados nos tópicos anteriores,
em busca de verificar em que medida o PL das Fake News restringe a liberdade
de expressão no ambiente digital, é possível fazer alguns apontamentos.
Percebe-se, de forma clara, que o projeto utiliza uma a abordagem que Balkin
chamou de “newschool”, uma vez que estabelece diversas medidas a serem adotadas pelos provedores de redes sociais e pelos provedores de serviços de mensageria privada, a fim de regular o discurso de particulares. Como consequência,
portanto, é possível vislumbrar a eventual concretização da “censura colateral”,
também abordada por Balkin.
Ver mais em “Comentários ao PL nº 2630/2020”. Disponível em: https://itsrio.org/wp-content/uploads/2021/03/Adalthon-de-Paula-Souza_COMENTARIOS-AO-PL-N-2.630_2020-O-PLDAS-FAKE-NEWS-%E2%80%93-CONTAS-INAUTENTICAS-IDENTIFICACAO-DE-USUARIOSE-RASTREABILIDADE-DE-MENSAGENS.pdf. Acesso em: novembro, 2021.
5
58
Note-se, como exemplo, que a exigência de que os provedores verifiquem a identidade dos usuários em determinados casos, pode acarretar no estabelecimento
– por parte dos provedores – de critérios de verificação da identidade para todos
os usuários, o que, a princípio, aparenta ser uma medida excessiva e desnecessária.
Tem-se que em diferentes dispositivos o projeto de lei ressalta a necessidade de
proteção à liberdade de expressão, à livre manifestação do pensamento, à liberdade cultural e outros aspectos que se englobam na visão da democracia cultural
de Balkin. Assim, a norma não limita de forma expressa a liberdade de expressão
interpretada sob este contexto.
Por outro lado, conforme já exposto acima, as imposições colocadas sob os provedores de aplicações e de serviços de mensageria apresentam potencial de gerar a censura colateral, uma vez que estabelecem ônus relevantes aos entes privados e, ainda, em razão do texto ter incompletudes de conceituação, deixando à
cargo dos entes privados interpretar os significados da norma.
Cabe destacar, por fim, que não há garantias de que o objetivo precípuo do projeto
de lei em questão será alcançado, ou seja, que a desinformação seja embarreirada. Em razão da configuração e da dinâmica do ambiente virtual, o rápido desenvolvimento e crescimento das redes sociais, em conjunto com a dificuldade de
se colocar freios em tais mecanismos, o projeto – se aprovado – pode não ser
eficaz. Ao mesmo tempo, pode vir a estimular de forma indireta uma limitação às
liberdades individuais na internet. Além disso, o problema da desinformação não
se restringe ao Brasil, de modo que observar a repercussão de regulações em
outros países se faz necessário, a fim de que se perceba a eficácia ou não de tais
normas.
Conclusão
Ao tentar verificar em que medida o projeto de lei estudado impacta a liberdade
de expressão na internet, percebemos que seus dispositivos não representam um
risco direto à liberdade de expressão conforme definida ao longo do texto. No
entanto, é possível notar que diferentes dispositivos abrem espaço para a possibilidade de ocorrer a censura colateral. Isso porque, o normativo como um todo
59
impõe diversas obrigações para os provedores, e, ao mesmo tempo, deixa em
aberto diferentes conceitos, o que pode dar às empresas uma “zona cinzenta” o
suficiente para adotar regulações privadas que melhor prestigiem os seus interesses, e não o interesse da sociedade. Todavia, tal projeto ainda está pendente de
aprovação e pode sofrer diferentes alterações em seu texto, de modo que sane
as fraquezas em sua redação ou, inclusive, amplie as problemáticas já encontradas.
Referências bibliográficas
BALKIN, J. M. Digital speech and democratic culture: A theory of freedom of expression for the information society. New York University Law Review, v. 79,
2004. Disponível em: http://digitalcommons.law.yale.edu/fss_papers/240/. Acesso
em: nov. 2021.
______. Free Speech is a Triangle. SSRN, 2018. Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3186205. Acesso em: nov. 2021.
______. The future of free expression in a digital age. Pepperdine Law Rev., v.
36, 2008. Disponível em: http://digitalcommons.law.yale.edu/fss_papers/223/.
Acesso em: nov.2021.
MACHADO, C.; DURIGAN, V. PL das Fake News: Recomendações. JOTA, 04
nov. 2021. Disponível em: https://www.jota.info/opiniao-e-analise/artigos/pl-dasfake-news-recomendacoes-04112021. Acesso em: nov. 2021.
Opinião Gazeta. A desinformação é a protagonista da crise institucional brasileira. Publicado em 16 de setembro de 2021. Disponível em: https://www.agazeta.com.br/editorial/a-desinformacao-e-a-protagonista-da-crise-institucional-brasileira-0921. Acesso em: nov. 2021.
Projeto de Lei 2630/2020. Congresso Nacional. Disponível em: https://www.camara.leg.br/proposicoesWeb/prop_mostrarintegra;jsessionid=node05gpyflzixn1k1pan27l1izv0r16960225.node0?codteor=1909983&filename=PL+2630/2020. Acesso em: nov. 2021.
60
SOUZA, A. de P. Comentários ao PL nº 2630/2020. ITS Rio, mar. 2021. Disponível
em:
https://itsrio.org/wp-content/uploads/2021/03/Adalthon-de-PaulaSouza_COMENTARIOS-AO-PL-N-2.630_2020-O-PL-DAS-FAKE-NEWS%E2%80%93-CONTAS-INAUTENTICAS-IDENTIFICACAO-DE-USUARIOS-ERASTREABILIDADE-DE-MENSAGENS.pdf. Acesso em: nov. 2021.
61
FORMAS DE COMBATE À DESINFORMAÇÃO SOBRE
A PANDEMIA DE COVID-19 ADOTADAS PELO TWITTER
Jéssica Guedes Santos1
RESUMO: A desinformação é um grande problema atinente à relação entre sociedade, tecnologia e direito. A sociedade se comunica massivamente pelas redes
sociais, o que faz as plataformas serem um locus atual de disseminação de campanhas desinformativas, conduta que não foi diferente durante a pandemia de covid-19, inclusive, organizações internacionais de saúde destacaram a importância
de combater a desinformação para proteger a saúde pública. Assim, o presente
artigo investigou como o Twitter - rede importante no debate público - tratou a
desinformação sobre a pandemia na sua plataforma analisando os relatórios de
transparência, a política de moderação de conteúdo e os comunicados sobre o
tema. Com base no estudo, foi possível obter três conclusões principais, quais
sejam, i) a plataforma deve ter a responsabilidade de apresentar dados atualizados para a sociedade, ii) a plataforma deve seguir a sua própria política de moderação e iii) o uso da IA foi intensificado e aprimorado durante a pandemia.
PALAVRAS-CHAVE: Desinformação; Twitter; IA; Covid-19.
Introdução
A desinformação consiste em “todas as formas de informações falsas, imprecisas
ou enganadoras criadas, apresentadas e promovidas para causar prejuízo de maneira proposital ou para fins lucrativos” (RAIS, 2020). Assim, a desinformação é
construída estrategicamente com objetivo de falsear a realidade e gerar algum
Mestranda em Direito pela Universidade de Brasília (UnB). Advogada em privacidade e proteção
de dados. Cofundadora do Portal “Bot Jurídico”.
1
62
prejuízo social. O tema passou a participar mais frequentemente do debate público por meio das eleições de Donald Trump para a Presidência dos Estados
Unidos em 2016.
O uso da internet e das plataformas de redes sociais são fatores fundamentais
para pensar no atual cenário da desinformação diante da importância que detém
para a comunicação. Neste sentido, dados da pesquisa TIC Domicílios 2020, organizada pelo CGI.br divulgada em agosto de 2021, informam que o Brasil tem
152 (cento e cinquenta e dois) milhões de usuários da internet e que 72% (setenta
e dois por cento) desses usuários acessa as redes sociais. Esses números demonstram o amplo alcance que as redes sociais possuem na sociedade.
Desde o aumento no uso das redes sociais e da crescente onda de desinformação, existe uma discussão patente sobre a moderação de conteúdo, tanto de
forma direta pelas plataformas quanto de forma indireta pelo Judiciário, e recebe
novos contornos por conta da pandemia de covid-19.
Neste sentido, o presente artigo parte da pergunta de pesquisa: “Como o Twitter
enfrentou a desinformação em conteúdos que tratassem sobre a pandemia de
covid-19?” com o objetivo geral de identificar o uso de mecanismos de IA pela
plataforma para combater a desinformação disseminada na plataforma durante a
pandemia.
Desinformação e plataformas de redes sociais
As redes sociais são um importante locus para a disseminação de desinformação
diante da criação de bolhas que direcionam o conteúdo específico para grupos de
interesse que já estão polarizados em certos assuntos (PARISER, 2011).
As redes sociais permitem que o conteúdo desinformativo seja disseminado rapidamente tanto na rede originária na qual é postada como em outras redes sociais,
sempre direcionando o formato da mensagem para as bolhas de comunicação.
Sendo que, o engajamento da desinformação pode ser feito organicamente ou
artificialmente por meio de bots com o intuito de criar, por vias artificiais, aparência
de espontaneidade por parte de movimentos sociais de base (DOURADO, 2021,
p. 98).”
63
A ligação entre desinformação, redes sociais e efeitos políticos somente foi mais
amplamente discutida após a exposição do chamado “escândalo da Cambridge
Analytica”, empresa britânica de mineração e análise de dados que utilizou dados
de aplicações da rede social Facebook para direcionar notícias falsas que possivelmente influenciaram em diversos processos eleitorais, entre eles, nas eleições
americanas de 2016 (AMER, 2019).
Após a comprovação de que os dados e preferências pessoais estavam sendo
utilizados sem qualquer ciência dos usuários, foi iniciado um amplo debate sobre
a necessidade das redes sociais protegerem os dados dos usuários e desenvolverem formas de enfrentar a desinformação, tanto no aspecto estatal relacionado
com a regulação do tema, como no aspecto interno com alterações na moderação
de conteúdo.
É claro que o tema apresenta desafios, uma vez que a desinformação é multifacetada e vai ser espalhada em diversos tipos de conteúdos e plataformas buscando atingir o maior número de destinatários possíveis, uma vez que a repetição
do conteúdo desinformativo é peça chave para permitir a maior amplitude e engajamento social desse tipo de conteúdo (BACHUR, 2021).
Por si só, essa estrutura gera dificuldades para pensar em uma estrutura única de
combate à desinformação, tanto por conta das peculiaridades de cada plataforma,
quanto pela autonomia no funcionamento. Esse cenário permite inferir que se houver posturas que restrinjam e/ou limitem a desinformação em alguma plataforma,
ocorra a migração dos agentes e da mensagem desinformativa para outra, como,
por exemplo, no Brasil, após a adoção de algumas medidas específicas pelo
WhatsApp, foi constatada a migração de agentes desinformativos para o Telegram (SPAGNUOLO, 2021).
Assim, buscando estabelecer medidas centrais sobre o tema, o debate acerca da
moderação de conteúdo é necessário para apresentar diretrizes que possam ser
utilizadas pelas plataformas. Atualmente, existem termos de uso específicos que
estabelecem as hipóteses pelas quais as plataformas podem excluir conteúdos
desinformativos. Para além da exclusão, por exemplo, o Twitter e o Facebook
também moderam conteúdo de outras formas, como a limitação do alcance e a
sinalização das postagens.
64
Mas toda essa discussão tem um conteúdo interno multo forte, já que as plataformas definem as suas políticas e a executam da forma que acharem mais conveniente para a empresa. A ausência de transparência e equidade na moderação
de conteúdo (RODRIGUES, KURTZ, 2020) levou a participação da sociedade civil
nesse debate, tanto com construções acadêmicas sobre o assunto, quanto com
iniciativas práticas.
O próprios usuários e organizações começaram a estudar e estruturar ações de
combate à desinformação nas redes. Uma dessas ações é a criação e fortalecimento das agências de checagem de fatos que permitem a averiguação da veracidade de discursos públicos (SANTANA, SIMEÃO, 2019). Mas, existem ocasiões
que as próprias plataformas apresentam algum tipo de dificuldade para a continuidade dessa medida, como no caso da Fátima, bot criado pela agência de checagem Aos Fatos, que tinha funções conversar com o usuário, enviar notícias checadas e ensinar o usuário a checar notícias, mas foi banido pelo Twitter em agosto
de 2021, já que a plataforma impediu o acesso da Fátima a sua application programming interface (API).
Medidas adotadas pelo twitter
Em março de 2020, o Twitter anunciou a sua estratégia de combate à desinformação sobre a pandemia informando que “continuaremos a remover conteúdo comprovadamente falso ou potencialmente enganoso que tem maior risco de causar
danos às pessoas (GADDE, DERELLA, 2020)”. Interessante destacar que nesse
comunicado o Twitter anunciou que aumentaria o uso de machine learning e automação quanto às medidas de moderação de conteúdo relacionada com a pandemia.
Em maio de 2020, o Twitter fez um aditivo ao comunicado informando que seriam
adicionados avisos e alertas nas postagens sobre o covid-19 fazendo a análise
sobre três categorias, quais sejam, i) informações enganosas - “declarações ou
afirmação que tenham sido confirmadas como falsas ou enganosas por especialistas no tema em questão, como autoridades em saúde pública” com aviso e remoção, ii) informações enganosas - “declarações ou afirmações cuja precisão,
veracidade ou credibilidade é genuinamente contestável ou desconhecida” com
aviso e alerta e iii) afirmações não confirmadas - “informações (que podem ser
65
verdadeiras ou falsas) que ainda não foram verificadas e confirmadas no momento
que são compartilhadas (ROTH, PICKLES, 2020).”
O Twitter também editou a “Política de informações enganosas sobre a covid-19”
proibindo que a plataforma fosse usada para disseminar informações falsas ou
enganosas sobre a covid-19. Para fundamentar a política, a empresa apontou
que foi preciso adotar tal postura diante do surgimento de teorias da conspiração
e disseminação de boatos não confirmados que poderiam colocar as pessoas em
risco.
Em dezembro de 2020, o Twitter divulgou novo comunicado sobre o assunto informando abordagem com as informações enganosas sobre a vacina destacando
que priorizaria a remoção e a adição de rótulos em conteúdo que alegassem que
as vacinas eram usadas para causar dano ou controlar populações.
Assim, em um quadro geral, o Twitter fez uma gradação com base na gravidade,
no tipo de violação e no histórico de violações anteriores por meio da contagem
de transgressão e, assim, estabeleceu três punições nos termos indicados nas
tabelas abaixo:
Transgressão
Consequência
Informações enganosas so- Remoção do tweet após duas transgressões e impebre a natureza ou tratamento dimento temporário em acessar a conta
da covid ou sobre a pandemia ou vacinas
Conteúdo que viola a polí- Aplicação do aviso, redução da visibilidade do tweet,
tica, mas que o Twitter pre- desativação de curtidas/respostas/retweets e fornefere não remover
cimento de link para mais explicações. Se os tweets
marcados forem considerados como nocivos conta
como uma transgressão
Bloqueio da conta e suspen- Identificação de conta que é dedicada a espalhar a
são permanente
desinfomação sobre o covid-19
Tabela 1 – Elaboração própria
66
Punição
Números de transgressões
Não há
1
Bloqueio da conta por 12 horas
2
Bloqueio da conta por 12 horas
3
Bloqueio da conta por 7 dias
4
Bloqueio ou suspensão permanente
5 ou mais
Tabela 2 – Elaboração própria
Em janeiro de 2021, o Twitter divulgou uma página na qual concentra diversas
informações acerca das iniciativas da plataforma sobre o combate ao covid-19,
sendo que, até 12.01.2021, a plataforma teria removido 8493 (oito mil, quatrocentos e noventa e três) tweets e contestado 11,5 (onze milhões e quinhentos mil
contas).
Mas, foi possível observar que a adoção formal dessas regras não foi capaz de
gerar envolvimento direto equânime da plataforma. No Brasil, foram observados
casos nos quais indivíduos e conteúdos cometiam seguidas transgressões sobre
as políticas de moderação da covid-19 e não tinham nenhuma punição aplicada
pela plataforma (ELY et al, 2021).
Neste sentido, considerando o debate global do tema e a inobservância dos critérios adotados pelo Twitter em outras partes do mundo no Brasil, o Ministério Público Federal (MPF), em sede de inquérito civil público que investiga as possíveis
violações de direitos fundamentais causadas pela atuação nos provedores sobre
a desinformação e violência no mundo digital, em 06 janeiro de 2022, requisitou
que a plataforma prestasse informações detalhadas sobre (i) a plataforma de denúncia de conteúdos desinformativos sobre a covid-19 e os motivos pelos quais
outros países possuíam essa plataforma e o Brasil não e (ii) os critérios adotados
pela plataforma para conferir a verificação de usuários.
O questionamento do MPF foi impulsionado em grande medida diante da reação
da sociedade civil da usuária Bárbara Destefani, que era popular na plataforma
por espalhar desinformação sobre a covid-19 e instituições político-democráticas.
67
Diante da repercussão do caso, o Twitter divulgou nota em 17 de janeiro de 2022
informando a adoção do mecanismo de denúncia de informações potencialmente
enganosas para o Brasil, Espanha e Filipinas. Antes, essa ferramenta somente
funcionava nos Estados Unidos, Austrália e Coreia do Sul. Igualmente, em 25 de
janeiro de 2022, o Twitter divulgou uma atualização da central de transparência
atualizando pedidos de informação e remoção e, consequentemente, as aplicações das regras do Twitter, mas sem fazer um recorte específico para desinformação.
Conclusão
A propagação de desinformação passou a ser estratégia de sucesso para prejudicar indivíduo, causa ou organização, ultrapassando o âmbito eleitoral e encontrando lastro também na pandemia de covid-19.
Organizações internacionais de saúde destacaram às campanhas de desinformação que foram realizadas contra a conscientização sobre a gravidade do coronavírus, assim como contra as medidas de proteção da população, entre elas, a
vacinação.
Os instrumentos estudados no presente artigo permitem dizer que o Twitter adotou medidas institucionais para impedir que a desinformação sobre a pandemia
se espalhasse na sua plataforma criando a política específica de moderação de
conteúdo nesses casos e informando medidas relacionadas com o aprimoramento
da IA para remoção e marcação de conteúdos desinformativos.
Contudo, ainda é possível identificar dois problemas sérios que a plataforma tem
que enfrentar sobre o tema. O primeiro é a ausência de dados atualizados sobre
a conduta do Twitter. O segundo é a possível ausência de cumprimento efetivo
das próprias políticas da plataforma.
Os dois problemas supracitados culminam na percepção que a plataforma não
adota todas as medidas necessárias para combater a desinformação e que adota
medidas mais específicas sobre o assunto quando provocado por contextos político-sociais ou por autoridades públicas, o que vai de encontro à imagem que a
plataforma quer passar para os seus usuários e para a opinião pública.
68
Referências bibliográficas
AOS FATOS. Após suspensão, Fátima, robô checadora do Aos Fatos, é bloqueada pelo Twitter. Publicado em: 03 ago. 2021. Disponível em:
https://www.aosfatos.org/noticias/apos-suspensao-fatima-robo-checadora-doaos-fatos-e-bloqueada-pelo-twitter/. Acesso em: fevereiro de 2022.
BACHUR, J. P. Desinformação política, mídias digitais e democracia: Como e por
que as fake news funcionam?. Direito Público, [S. l.], v. 18, n. 99, 2021. Disponível em: https://www.portaldeperiodicos.idp.edu.br/direitopublico/article/view/5939
Acesso em: fevereiro de 2022.
ELY, D. et al. Posts antivacina contrariam regra do Twitter alcançam mais de
147 mil interações. Jun/2021 Disponível em: https://www.aosfatos.org/noticias/posts-antivacina-contrariam-regra-do-twitter-e-alcancam-mais-de-147-mil-interacoes/. Acesso em: fevereiro de 2022.
COMITÊ GESTOR DA INTERNET NO BRASIL (CGI.br). Pesquisa sobre o uso
das tecnologias da informação e comunicação no Brasil: pesquisa TIC Domicílios, ano 2020: Apresentação dos principais resultados. São Paulo: CGI.br,
2021. Disponível em: https://cetic.br/media/analises/tic_domicilios_2020_coletiva_imprensa.pdf. Acesso em: dezembro de 2021.
DOURADO, T. Fake News: quando mentiras viram fatos políticos. Porto Alegre:
Zouk, 2021. Op.cit. p. 98.
GADDE, V.; DERELLA, M. Uma atualização sobre nossa estratégia contínua
durante a covid-19. Jul/2020. Disponível em: https://blog.twitter.com/pt_br/topics/company/2019/uma-atualizacao-sobre-nossa-estrategia-continua-durante-ocovid-19. Acesso em: dezembro de 2021.
PARISER, E. Cuidado com as “bolhas de filtro” online. TED Talk, TED 2011,
março de 2011. Disponível em: https://www.ted.com/talks/eli_pariser_beware_online_filter_bubbles?language=pt#t-261802. Acesso em: dezembro de 2021.
PRIVACIDADE HACKEADA. Direção:
2019.
Karim Amer, Jehane Noujaim. Netflix,
69
ROTH, Y.; PICKLES, N. Atualizando nossa abordagem a informações enganosas. Mai/2020.
Disponível em: https://blog.twitter.com/pt_br/topics/company/2019/atualizando-nossa-abordagem-a-informacoes-enganosas. Acesso em:
dezembro de 2021.
RAIS, D. Capítulo 11. Desinformação no contexto democrático. In: Abboud, G.;
JR, N.; CAMPOS, R. Fake News e Regulação – Ed. 2020. São Paulo: Editora
Revista dos Tribunais. Disponível em: https://thomsonreuters.jusbrasil.com.br/doutrina/1197132515/fake-news-e-regulação-ed-2020. Acesso em: fevereiro de 2022.
RODRIGUES, G.; KURTZ, L. Transparência sobre moderação de conteúdo em
políticas de comunidade. Belo Horizonte: Instituto de Referência em Internet e
Sociedade, 2020. Disponível em: https://irisbh.com.br/wp-content/uploads/2020/10/Transpar%C3%AAncia-sobre-modera%C3%A7%C3%A3o-deconte%C3%BAdo-em-pol%C3%ADticas-de-comunidade-IRIS.pdf. Acesso em:
fevereiro de 2022.
SPAGNUOLO, S. Telegram, o novo refúgio da extrema direito no Brasil.
Fev/2021. Disponível em: https://brasil.elpais.com/brasil/2021-02-21/telegram-onovo-refugio-da-extrema-direita.html. Acesso em: fevereiro de 2022.
SANTANA, G. P.; SIMEÃO, E. L. M. S. Notícias falsas: origens, meios de disseminação, contextos e enfrentamento. In: Seminário Hispano-Brasileño de Investigación en Información, Documentación y sociedad, 8, 2019, São Paulo.
TWITTER. Coronavírus: fique seguro e informado no twitter. 2021. Disponível
em:
https://blog.twitter.com/en_us/topics/company/2020/covid-19#metrics.
Acesso em: dezembro de 2021.
______. Política de informações enganosas sobre a covid-19. 2021. Disponível em: https://help.twitter.com/pt/rules-and-policies/medical-misinformation-policy. Acesso em: dezembro de 2021.
TWITTER SAFETY. Covid-19: nossa abordagem para informações enganosas
sobre vacinas. 2020. Disponível em: https://blog.twitter.com/en_us/topics/company/2020/covid19-vaccine. Acesso em: dezembro de 2021.
70
ESTRUTURA E
FUNCIONAMENTO DA INTERNET
ASPECTOS TÉCNICOS, POLÍTICOS E REGULATÓRIOS
ALGORITMOS E USO ÉTICO DE
INTELIGÊNCIA ARTIFICIAL
71
UTILIZAÇÃO DE INTELIGÊNCIA ARTIFICIAL NA TOMADA DE
DECISÕES EM DIFERENTES CENÁRIOS: ASPECTOS POSITIVOS E NEGATIVOS, O PAPEL DA ATUAÇÃO HUMANA NESSE
CONTEXTO E O GRAU DE TRANSPARÊNCIA NAS DECISÕES
Beatriz Stefani Castro1
RESUMO: Sabe-se que, atualmente, a sociedade se encaminha cada vez mais
para um cenário em que a Inteligência Artificial e as inovações tecnológicas ganham um espaço relevante na vida das pessoas nos mais diversos âmbitos.
Tendo isso em vista, o artigo procura estudar e analisar algumas formas de atuação da Inteligência Artificial na esfera das tomadas de decisão em alguns possíveis contextos. Com isso, buscou-se mostrar de que maneira isso é realizado na
prática - a partir de três principais grandes exemplos: no contexto da saúde, em
processos de recrutamento de empresas e no judiciário; os principais aspectos
positivos; os principais pontos de atenção e quais seriam as ferramentas para que
seja um processo benéfico às partes envolvidas. Sendo assim, para a análise das
três situações mencionadas, ponderou-se tanto os aspectos incentivadores para
a utilização de Inteligência Artificial, quanto os prováveis obstáculos que poderão
ser enfrentados. Em conclusão, constatou-se a importância da transparência e
accountability quando se trata da disposição dos algoritmos, a fim de que aqueles
que não possuem conhecimento sobre a Inteligência Artificial estejam o mais cientes possível de como a máquina chegou a determinada conclusão. Além disso,
explora-se a importância da atuação humana em conjunto com a tecnologia, com
o objetivo de garantir que a resolução seja bastante precisa.
PALAVRAS-CHAVE: Inteligência Artificial; Transparência; Tomada de decisão;
Atuação Humana
Beatriz Stefani Castro, estudante da Graduação em Direito pela Escola de Direito de São Paulo
da Fundação Getulio Vargas.
1
No decorrer das últimas décadas, faz-se cada vez mais evidente o espaço que o
avanço tecnológico ocupa no cotidiano, de maneira a estar inserido desde em
coisas mais simples, como algum novo recurso nos smartphones, até em cenários
como facilitação de diagnóstico médico. Se antigamente era difícil visualizar um
futuro em que as máquinas ou robôs seriam responsáveis por auxiliar em tomadas
de decisão, por exemplo, sabe-se que esse cenário se torna cada vez mais comum e próximo. Certamente, atrelado às modificações recorrentes na contemporaneidade, urge que o correto e acessível manuseio dessas tecnologias também
seja prioridade em sua aplicação nas mais diversas situações enfrentadas.
No processo em que a Inteligência Artificial é utilizada em determinadas tecnologias, o que se tem é um processamento intenso de informações, dados pessoais
e atuação de algoritmos justamente a fim de otimizar o serviço a ser oferecido.
Isso porque a máquina precisa possuir alto grau de confiabilidade e precisão em
processos de tomada de decisão, principalmente em casos nos quais a atuação
humana em conjunto é minimizada. Contudo, por vezes não é explicado pelos
desenvolvedores como funciona a tomada de decisão baseada em algoritmos, o
que dificulta a devida accountability nesse processo. Ora, principalmente pelas
novas tecnologias terem tamanha e ascendente influência na vida das pessoas é
que se é preciso entender o procedimento por trás de algo que não possui fácil
tradução.
Nesse sentido, a Recomendação do Parlamento Europeu nº 12, de fevereiro de
20172 dispõe que se faz necessário esclarecimento sobre o processo por trás da
tomada de decisão que envolve Inteligência Artificial. Além disso, mais recentemente a Portaria GM nº 4.617 de 2021 aborda a aplicação do referido recurso
tecnológico mediante à Estratégia Brasileira de Inteligência Artificial (EBIA), estabelecendo diversas diretrizes e objetivos para tal. Resta evidente, por conseguinte, a relevância da ética e maior transparência possível, a fim de que as tecnologias não acabem fomentando decisões estabelecidas a partir de algum viés
sem explicação lógica para tanto. Isto considerado, vale reiterar os diversos contextos em que a tomada de decisão com interferência de Inteligência Artificial é
2
Disponível em: https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_PT.html
73
inserida atualmente, a exemplo da área da saúde, processos seletivos de empresas e na atuação do judiciário.
Atualmente, a utilização de tecnologia avançada no contexto da saúde cresce
constantemente, com a finalidade de não somente facilitar procedimentos, mas
também de aumentar a acurácia e precisão da atuação médica. Isso porque, uma
vez combinadas a expertise do médico com a Inteligência Artificial, estima-se que
os resultados possuam bastante acurácia. Voltando-se para alguns exemplos de
aplicabilidade da referida tecnologia para otimização de procedimentos da área
da saúde, tem-se a utilização de Inteligência Artificial na relação médico-paciente,
de maneira que a máquina realiza uma avaliação do atendimento médico por meio
de um estudo de elementos como fala e resposta do profissional, a fim de que a
consulta seja sempre aprimorada. Ademais, há a utilização de Inteligência Artificial
para potencializar de maneira benéfica o diagnóstico médico e leitura de exames.
Percebe-se que os referidos sistemas, e outras várias exemplificações de como
as tecnologias vêm auxiliando nesse setor, necessitam da observância de alguns
elementos para seu efetivo funcionamento da maneira mais positiva possível tanto
para o médico, quanto para o paciente. Primeiramente, é imprescindível que os
algoritmos envolvidos no processo contem com um grau de confiabilidade, no sentido de operar com poucas falhas, e com um sistema que seja capaz de constatar
esses possíveis erros por parte da máquina. Para além disso, como já mencionado anteriormente, outro princípio fundamental que deve ser orientador dessa
relação entre a tecnologia e a saúde é a transparência, no sentido de que os algoritmos possam ser explicados e auditáveis quando necessário.
Passando para a análise da tomada de decisão com interferência da máquina em
um contexto diverso, os softwares desenvolvidos para processos seletivos de empresas, por exemplo, também apresentam pontos controversos. Certamente, não
se pode negar os benefícios desse método para a empresa contratante, uma vez
que se faz possível um acompanhamento mais detalhado de todas as etapas, bem
como alta acurácia de análise do comportamento dos candidatos durante o recrutamento. Entretanto, um ponto a se prestar atenção é se há algum viés presente
na tomada de decisão da máquina, como já observado em alguns casos anteriores.
74
Fica claro que a referida tecnologia lida com diversos dados dos candidatos, inclusive com dados pessoais sensíveis3 em alguns casos, o que apresenta, por si
só, um potencial discriminatório de certa forma. Ao passo que a Inteligência Artificial consegue, nesse contexto, criar processos de recrutamento mais personalizados de acordo com o que a empresa preza em seus funcionários, também pode
atuar como um fomento à discriminação nesse mesmo cenário. Diante de uma
lacuna jurídica no que tange à regulação específica para a Inteligência Artificial,
alguns outros mecanismos de regulação podem ser acionados, haja vista a governança. Reitera-se, portanto, a importância ainda da presença humana por trás
do procedimento, a fim de operar como supervisora das decisões que são tomadas pela máquina. Ressalta-se, aqui, que anteriormente a LGPD previa a obrigatoriedade de supervisão humana para as decisões tomadas com base na máquina, contudo, a Mensagem nº 288, de 8 de julho de 2019, vetou essa disposição.
Ainda assim, reitera-se a importância ainda da presença humana por trás do procedimento, a fim de operar como inspetora dessas decisões.
Ademais, a governança de algoritmos também pode exercer um papel fundamental na prevenção contra práticas discriminatórias no âmbito da utilização de Inteligência Artificial. De acordo com os professores Danilo Doneda e Virgílio Almeida,
a partir do estudo da natureza do algoritmo, de análises de risco ou até mesmo
agindo em cima dos dados que o algoritmo utiliza para seu funcionamento, a governança poderá ser realizada de maneira a buscar a minimização dos riscos trazidos pela tecnologia e incrementar sua eficiência. (DONEDA, ALMEIDA, 2016)
Um outro cenário possível em que a Inteligência Artificial pode desempenhar auxílio na tomada de decisão é no âmbito jurídico. Sabe-se que há grande quantidade de processos judiciais em trâmite atualmente e o incontestável congestionamento da justiça nesse sentido. Dessa forma, pode-se pensar o uso da tecnologia
como auxiliadora em alguns contextos, tanto no momento de classificação das
ações judiciais, indicando similaridade das causas, por exemplo, mas também em
decisões de casos complexos, algo que apresenta maiores entraves como será
explorado posteriormente. Ainda que não seja uma prática comum ao redor do
A Lei Geral de Proteção de Dados define "dados pessoais sensíveis", em seu artigo 5º, inciso II,
como "dado pessoal sobre origem racial ou étnica, convicção religiosa, opinião política, filiação a
sindicato ou a organização de caráter religioso, filosófico ou político, dado referente à saúde ou à
vida sexual, dado genético ou biométrico, quando vinculado a uma pessoa natural".
3
75
mundo, alguns países, como a Estônia, já vêm implementando um sistema semelhante (RODAS, 2019).
Novamente, a problemática do viés da decisão por máquinas permanece. Ao
mesmo tempo em que há a possibilidade de a Inteligência Artificial elaborar uma
decisão que possa ser considerada válida, também não se pode negar uma possível formulação de decisão parcial, por exemplo. Dessa forma, parece ser difícil
a elaboração de um sistema que não precise contar com a atuação humana em
conjunto. A tomada de decisão, afinal, ainda estaria extremamente vinculada ao
pensamento humano e, possivelmente ainda por um período longo, não há que
se falar em substituição da atuação do ser humano pela máquina na tomada de
decisão, mas sim de uma execução em conjunto a fim de otimizar esse processo
nos mais diversos contextos.
O processo de tomada de decisão baseado em Inteligência Artificial pode ser definido, basicamente, como lógico-matemático. Percebe-se que não conta, portanto, com uma capacidade de interpretação que envolve as particularidades de
cada caso no que tange às sensibilidades que o ser humano possui. De certa
forma, quando se trata de decisões judiciais, há uma crítica ao envolvimento da
Inteligência Artificial nesse processo, uma vez que há o risco de gerar decisões
automáticas e “mecânicas”, a partir da estrutura lógico-matemática supramencionada. (ARAÚJO, SIMIONI, 2019)
De maneira geral, mediante a necessária supervisão, a atuação da Inteligência
Artificial no contexto de tomada de decisão pode ser benéfica. Há, no entanto, que
se pensar nas dificuldades de tornar esse processo auditável, considerando que
a capacidade de propagação de informações é intensa e o desenvolvimento e
funcionamento por trás das máquinas se torna cada vez mais complexo. Como
exemplo disso, por vezes, é um obstáculo para os humanos entenderem especificamente o que a máquina quis colocar com determinado resultado, considerando
que podem ser utilizados processamentos lógicos que são incompreendidos pelo
ser humano. (GUTIERREZ, 2019).
Em suma, resta indubitável: a Inteligência Artificial certamente ocupa e ocupará
cada vez mais espaço nos processos de tomada de decisão. O ponto de atenção
principal reside no monitoramento humano de decisões enviesadas e parciais que,
por vezes, podem resultar em uma perpetuação de discriminações e resultados
prejudiciais. Não se quer dizer com isso que a tomada de decisão baseada no
76
pensamento do ser humano seja privada de inclinações e parcialidade. Muito pelo
contrário, sabe-se que essas são características inerentes ao humano e que também influenciarão quando o processo de tomada de decisão contar exclusivamente com a sua atuação. A inserção da Inteligência Artificial nesse contexto
chega, portanto, para auxiliar esse processo, considerando que a tecnologia possui uma capacidade de processamento de dados que transpassa a capacidade
humana.
Referência bibliográficas
ARAÚJO, E. da S. e; SIMIONI, R. L. Decisão jurídica e inteligência artificial: um
retorno ao positivismo. Revista de Direito, Viçosa, v. 12, n. 2, p. 1-20, jun. 2019.
BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Dispõe sobre a proteção de
dados pessoais e altera a Lei nº 12.965, de 23 de abril de 2014 (Marco Civil da
Internet). Brasília, DF: Presidência da República; 2018. Disponível em:
http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/L13709.htm. Acesso
em 20. fev. 2022.
DONEDA, D.; ALMEIDA, V. A. F. O que é a governança de algoritmos? Politics.
Uma publicação do Instituto Nupef. Outubro de 2016. Disponível em:
https://www.politics.org.br/edicoes/o-que-%C3%A9-governan%C3%A7a-de-algoritmos. Acesso 11 dez. 2021.
GUTIERREZ, A. É possível confiar em um sistema de inteligência artificial?: práticas em torno da melhoria da sua confiança, segurança e evidências de accountability. In: FRAZÃO, A.; MULHOLLAND, C. (coord.). Inteligência artificial e direito: ética, regulação e responsabilidade. São Paulo: Revista dos Tribunais,
2019. p. 83-97.
MONTICELLI, J. M.; DOS SANTOS, J. G. Utilização e Aceitabilidade da Inteligência Artificial na Tomada de Decisão Médica, p. 1-18, 2021. Disponível em:
https://www2.faccat.br/portal/sites/default/files/Utiliza%C3%A7%C3%A3o%20e%20Aceitabilidade%20da%20Intelig%C3%AAncia%20Artificial%20na%20Tomada%20de%20Decis%C3%A3o%20M%C3%A9dica.pdf. Acesso em: 11 dez. 2021.
77
NOGAROLI, R.; SILVA, R. da G. Inteligência artificial na análise diagnóstica da
Covid-19: possíveis repercussões sobre a responsabilidade civil do médico. Migalhas Patrimoniais, [s. l.], 30 mar. 2020. Disponível em: https://www.migalhas.com.br/coluna/migalhas-patrimoniais/322941/inteligencia-artificial-na-analise-diagnostica-da-covid-19--possiveis-repercussoes-sobre-a-responsabilidadecivil-do-medico. Acesso em: 20 fev. 2022.
PINTO, H. A. A utilização da inteligência artificial no processo de tomada de decisões: por uma necessária accountability. Ril Brasília, Brasília, v. 225, n. 57, p. 4360,
nov.
2019.
Disponível
em:
https://www12.senado.leg.br/ril/edicoes/57/225/ril_v57_n225_p43.pdf. Acesso em: 11 dez. 2021.
RODAS, S. Algoritmos e IA são usados para que robôs decidam pequenas causas. Revista Consultor Jurídico, 27 de outubro de 2019. Disponível em:
https://www.conjur.com.br/2019-out-27/algoritmos-ia-sao-usados-robos-decidampequenas-causas. Acesso em: 12 dez. 2021.
ROQUE, A. V. Inteligência Artificial na tomada de decisões: três premissas básicas. Revista Eletrônica de Direito Processual – Redp, Rio de Janeiro, v. 22, n.
1, p. 58-78, abr. 2021. Quadrimestral.
SILVEIRA, S. A. da; SILVA, T. R. da. Controvérsias sobre danos algorítmicos:
discursos corporativos sobre discriminação codificada. Revista Observatório,
Palmas, v. 6, n. 4, p. 1-17, jul. 2020.
VALENTINI, R. S. Julgamento por computadores? As novas possibilidades da
juscibernética no século XXI e suas implicações para o futuro do Direito e do trabalho dos juristas. 2017. 152 f. Monografia (Especialização) - Curso de Direito,
Universidade Federal de Minas Gerais, Belo Horizonte, 2017.
WELCHEN, V. et al. Inteligência Artificial e a Tomada de Decisão na Saúde:
Estudos a Nível de Stricto Sensu no Brasil. In: XIX Mostra de iniciação científica,
pós-graduação, pesquisa e extensão programa de pós-graduação em Administração, 19., 2019, Caxias do Sul, 2019. p. 1-12.
78
TRANSPARÊNCIA E EXPLICABILIDADE DE ALGORITMOS: DA
CLUSTERIZAÇÃO AO INDIVÍDUO
Fabiana Faraco Cebrian1
RESUMO: A computação ubíqua e pervasiva tem transformado a vida em sociedade. Nesse processo, relevantes aspectos da vida cotidiana foram alterados
como a representação do indivíduo em espaços digitais, o uso rotineiro de algoritmos e a produção contínua de dados. Características que antes eram individualizadas, como a figura física do indivíduo e seus dados pessoais, passaram a ser
categorizadas, classificadas, agrupadas e correlacionadas por algoritmos. O indivíduo adquire novos atributos que extrapolam ou suprimem os traços de sua identidade física e dados pessoais convencionais. Surge a era da produção de sugestões e decisões automatizadas por meio de algoritmos de Inteligência Artificial que
refletem diretamente no tecido social. Novos direitos emergem como o direito fundamental à proteção de dados pessoais (CF, art. 5º, LXXIX) e a Lei Geral de Proteção de Dados (LGPD). Para a proteção do titular de dados, aspectos técnicos e
jurídicos passaram a fazer parte dos regulamentos e legislações sobre a proteção
de dados pessoais. O princípio da transparência e o dever de explicabilidade das
decisões automatizadas e perfis digitais ganham relevância na sociedade que vive
em vigilância e exposição. O artigo por meio do método dedutivo e pesquisa bibliográfica busca analisar brevemente as sugestões e decisões automatizadas que
orientam as decisões humanas. Estas são definidas a partir da construção de perfis digitais que podem ser formados por diversas bases de dados. Tal fator pode
conduzir a uma sociedade de decisões e sugestões incompletas e parcialmente
informadas sem a devida transparência e explicabilidade.
PALAVRAS-CHAVE: Transparência; Explicabilidade; Decisões Automatizadas;
Perfil Digital; Sociedade.
Advogada. Mestranda em Direito pela Pontifícia Universidade Católica do Paraná - PUCPR. Email: fabiana.cebrian@gmail.com.
1
79
Introdução
A revolução tecnológica proporcionada pelas Tecnologias da Informação e Comunicação (TICs) têm alterado aspectos essenciais da vida em sociedade. Novos
debates surgem sobre a utilização de algoritmos, o aumento exponencial da geração de dados e seus reflexos sociais. A sociedade por meio de sua exposição
digital e vigilância, por vezes involuntária, passou a gerar uma quantidade significativa de dados. Tal fator impulsionou o desenvolvimento de algoritmos para as
mais diversas finalidades e intensificou o modo de vida onlife. No mundo atual
torna-se inútil questionar se o indivíduo está online ou offline, pois a convergência
do analógico com o digital permitiu a convivência de modo híbrido. Este novo
modo de interação social abriu espaços para o desenvolvimento de soluções e
serviços que envolvem a produção de decisões automatizadas e sugestões por
meio de Inteligência Artificial. Para tanto, passou a ser necessária a definição do
perfil digital originado do cruzamento das mais variadas bases de dados. Não
existem garantias sobre a origem ou qualidade de tais bases de dados. Tais questões desafiam as noções tradicionais de direito e abrem caminho para o desenvolvimento de legislações tecnológicas. A fim de proteger o indivíduo titular de
dados, o direito fundamental à proteção de dados pessoais foi recentemente positivado na Constituição Federal em seu art. 5º, LXXIX. No mesmo escopo, a Lei
n°. 13.709/2018, também conhecida como Lei Geral de Proteção de Dados Pessoais (LGPD) regula de maneira ampla o tratamento de dados pessoais. Esta
apresenta a transparência como um dos princípios basilares e abarca de forma
direta a explicabilidade em algoritmos. Surge a defesa de um direito à explicação
clara e transparente sobre o caminho que levou o algoritmo à decisão que afete
interesses do titular e do seu perfil pessoal. Neste sentido, o artigo por meio do
método dedutivo e pesquisa bibliográfica busca analisar brevemente os reflexos
de sugestões e decisões automatizadas, bem como de perfis digitais gerados por
meio de dados que podem apresentar incompletudes e erros. Tais construções
não fidedignas, por vezes impostas pelas plataformas, geram uma sociedade digital de perfis parciais que tendem a conduzir a uma sociedade de decisões incompletas e parcialmente informadas. Ao mesmo tempo, sugestões e decisões
automatizadas atingem o seu objetivo final de orientar as decisões humanas na
sociedade sem a devida transparência e explicabilidade.
80
O desenvolvimento de algoritmos na sociedade de exposição e vigilância
Os algoritmos estão presentes em várias fases do desenvolvimento social. Antes
do advento dos computadores, os algoritmos foram utilizados pela sociedade com
a função de externalizar sua capacidade cognitiva no formato de instruções. Com
o advento dos computadores, os algoritmos passaram para uma nova fase em
que auxiliam o homem a ampliar sua capacidade cognitiva em busca de eficiência
e redução do tempo na execução de tarefas. Com o passar dos anos, o desenvolvimento de algoritmos sofreu modificações incentivadas pela transposição de barreiras científicas, tecnológicas e econômicas. Deu-se início a uma nova geração
de algoritmos baseada em aplicativos computacionais que se renovam a cada dia.
Essa geração abrange a popularização de dispositivos móveis, por vezes vestíveis e outros periféricos, como Internet das Coisas que permitiram à computação
alcançar o patamar de ubíqua2. Os algoritmos, que antes eram restritos a equipamentos fixos e instruções, atingem a mobilidade. Estes passam a caminhar junto
dos indivíduos, permeiam os espaços físicos da sociedade e inevitavelmente mediam as relações humanas e de seus perfis digitais conquistando, assim, posição
de relevância na sociedade. Observa-se o início de uma sociedade de exposição
e vigilância. Cada ato de rotina em notebooks e smartphones, transações com
cartão de crédito ou débito, pesquisas na web e mídia social, entrada em prédios
dentre outras movimentações, deixam um rastro que pode reconstituir as ações
do cotidiano. Cada rastro digital pode ser armazenado, minerado e agrupado e
passam a constituir uma nova identidade virtual: o perfil digital que pode ser mais
demonstrável e tangível do que o eu analógico (HARCOURT, 2015, p. 01 - 02).
No mesmo sentido, Han (2018, p. 122), afirma que “deixamos rastros digitais em
todo lugar. Nossa vida digital se forma de modo exato na rede”. O mesmo autor
esclarece que a sociedade atual vive um panóptico digital, ou seja, exposição e
vigilância digital em que a confiança cede lugar ao controle (HAN, 2018, p. 122).
Em relação ao perfil digital, Freitas (2017, p. 27) leciona que “a caracterização de
perfil refere-se aos métodos e técnicas computacionais aplicados aos dados pessoais ou não dos usuários. E, em tempos de Big Data, dados não faltam para
serem processados”. A mesma autora salienta que “estas técnicas auxiliam na
representatividade estatística, ou seja, na determinação da qualidade de uma
Vide WEISER, M. The Computer for the 21st Century. Scientific American, v. 265, n. 03, p. 7889, set. 1991.
2
81
amostra constituída de modo a corresponder à população no seio da qual ela é
escolhida (FREITAS, 2017, p. 27-28). Portanto, este perfil digital, mediante a combinação de diversas bases de dados, busca reconstituir o eu analógico e representar características de grupos e seus relacionamentos. Sem o desenvolvimento
de algoritmos embarcados em dispositivos móveis, provavelmente a vigilância e
exposição de perfis digitais seriam temas de difícil alcance.
A inteligência artificial e o processo de sugestões e tomada de decisões
automatizadas
No transcurso do desenvolvimento tecnológico, a sociedade passou a interagir
com sua inteligência natural, algoritmos não computacionais e algoritmos de Inteligência Artificial (IA). De acordo com Doneda (2018, p. 04), “não há dúvidas
quanto à relevância econômica e social das decisões tomadas com base em algoritmos, e seria mesmo difícil se pensar o funcionamento da sociedade contemporânea sem a utilização de algoritmos”. Embora o homem ainda detenha, em
grande parte, o seu poder de decisão, a ubiquidade permitiu que os algoritmos
iniciassem seu processo de organização da vida coletiva rotineiramente. Neste
momento, as decisões e sugestões originárias de algoritmos de IA baseadas em
perfis digitais passaram a orientar as decisões humanas. “Neste mundo, os sistemas de computador podem, em grande parte, libertar as pessoas da necessidade
de tomar decisões, ou seja, substituir as decisões humanas” (HOFFMANN-RIEM,
2020, p. 47). Ao refletir sobre a interferência humana no desenvolvimento de algoritmos de IA e a influência das decisões automatizadas na sociedade, pode-se
delinear um paralelo com a pirâmide do conhecimento. De acordo com a pirâmide
do conhecimento (Data-Information-Knowledge-Wisdom), para o conhecimento
ser alcançado, são necessários dados, que geram informações e seguidamente o
conhecimento. A partir do conhecimento, é possível alcançar a sabedoria que se
refere à capacidade de tomar decisões com base no conhecimento (ACKOFF,
1989). Logo, com a interpretação dessa pirâmide, pode-se traçar um comparativo
com a IA baseada em conhecimento. Nela a sabedoria é deixada para os homens
e estes decidem a forma como os dados de entrada e os resultados obtidos podem
ser utilizados e aplicados ao mundo real ou virtual. Nesse ponto existe uma via
dupla: o homem delega à IA a possibilidade de simular o pensamento humano e
a IA devolve o resultado para que o homem defina qual será a melhor decisão a
ser tomada. Na IA baseada em aprendizado estatístico, não se delega mais ao
82
homem a sabedoria, ou seja, o poder de decisão a partir do conhecimento adquirido. Com o uso do conhecimento, a IA toma decisões sobre qual caminho o algoritmo deve percorrer, ou seja, cria parcialmente os próprios procedimentos, pois
sempre haverá a fase de ajustes de hiperparâmetros de treinamento – que é realizada pelo homem –, existindo, assim, intervenção humana. Isso remete a um
ambiente híbrido, formado pela inteligência natural do programador e a inteligência artificial do algoritmo (CORTIZ, 2021, p. 48-55). Em ambos os casos, decisões
de IA baseadas em perfis digitais são dependentes de bases de dados. Tais bases
podem abarcar erros e incompletudes que interferem na geração do perfil digital
e consequentemente na decisão automatizada. Observa-se que mesmo com os
avanços da Internet das Coisas e dispositivos vestíveis, ainda não é possível coletar, vigiar ou expor todos os aspectos da vida humana. Outro ponto relevante é
que decisões automatizadas diferem de sugestões, a primeira refere-se a algo
que deve ser cumprido como, por exemplo, a análise de crédito. Esta ocorre de
maneira automatizada e o resultado é imediatamente informado ao indivíduo que
obterá ou não o crédito. Já a sugestão se relaciona aos sistemas de recomendações. Estes se apresentam como sistemas que visam auxiliar os indivíduos a lidar
com a infinidade de opções disponíveis (ZHANG; LU; JIN, 2021 p. 01). As sugestões não são obrigatoriamente acatadas pelo indivíduo, embora voluntariamente
podem ser aceitas. Por exemplo, em aplicativos de trânsito e entrega, estes sugerem o caminho mais rápido a ser percorrido. Em ambos os casos, o indivíduo
foi avaliado por meio de seu perfil digital que gerou a sugestão ou decisão automatizada, baseada em grupos que realizam o mesmo trajeto. Ou seja, para alguns
grupos o caminho apresentado pode diferente de outros. O problema central não
está nas sugestões apresentadas, mas na possibilidade de o aplicativo ocultar
outras opções existentes e viáveis para determinados grupos e isto influenciar na
decisão do indivíduo.
83
A explicabilidade e a transparência de sugestões e decisões automatizadas
No ambiente de rede, formado por uma variedade de aplicativos, os indivíduos
podem exibir e demonstrar comportamentos que não refletem a sua realidade pública no mundo real. O mundo onlife3 permite outras possibilidades, como a criação de características que não existem no mundo real. O perfil digital pode se
desprender da figura real do indivíduo em múltiplas pessoas. Logo, este perfil
pode ser composto por características distintas descritas pelo próprio homem,
bem como demais características impostas pelas plataformas e outras oriundas
de técnicas de clusterização efetuada por algoritmos de agrupamento. De acordo
com Freitas (2017, p. 29), “podem ser aplicados diferentes algoritmos tanto para
descobrir padrões quanto para determinar a correlação entre conjuntos de dados,
de modo a estabelecer um perfil, visto que tais padrões e correlações permitem
identificar ou representar pessoas ou grupos de pessoas”. Portanto, é um conjunto
de partes que constroem o perfil digital. Ou seja, perfis digitais parciais podem
definir sugestões e decisões baseadas em incompletudes capazes de serem acatadas pelos indivíduos. Salienta-se que de acordo com a LGPD são considerados
dados pessoais aqueles utilizados na composição de perfil pessoal. Como distinguir e encontrar o perfil digital que mais se assemelha ao indivíduo para a tomada
de decisão? Este aspecto merece destaque, pois será necessário um maior debate sobre a transparência na formação de perfis e decisões. De acordo com Rodotà (2014, p. 34-35), “o próprio corpo, então, apresenta um problema de limites
e mostra que é impossível conceber direitos e garantias tomando como referência
os espaços do passado, justamente aqueles espaços dessa dinâmica social, cultural e tecnológico que mudaram tão radicalmente”. Para tanto, legislações e regulamentos sobre proteção de dados, abordam aspectos técnicos e jurídicos para
a proteção do titular de dados. Neste aspecto, a transparência e explicabilidade
não se confundem. A primeira é um princípio jurídico presente na LGPD (Art. 6º,
VI) que visa fornecer informações claras e precisas sobre quais e como os dados
foram utilizados para determinada finalidade e quem são os agentes de tratamento. Este princípio apresenta como finalidade tutelar direitos fundamentais por
meio do tratamento ético dos dados. Já a explicabilidade presente na LGPD (Art.
Vide FLORIDI, L. The Onlife Manifesto: Being Human in a Hyperconnected Era. [S.l.]: Springer
Open, 2015 (edição digital).
3
84
20, § 1 º), refere-se à descrição do percurso realizado pelo algoritmo para a tomada de decisões ou sugestões, portanto, uma forma de fomentar e reforçar a
transparência em algoritmos. Resta claro que, quanto mais complexos são os modelos de IA utilizados para a representação de perfil digital e decisões automatizadas, mais custosa será a transparência e explicabilidade da influência do algoritmo em sua construção. É notório que obter apenas a explicabilidade da decisão
automatizada, não implicará diretamente na transparência e explicabilidade do
perfil digital. Outro ponto relevante trata-se da forma de apresentação da explicabilidade algorítmica de modo claro e interpretável pelo indivíduo. São necessários
estudos sobre formas de explicar, por exemplo, modelos complexos de IA para
usuários não especializados. Tais respostas, sob os critérios de clareza e interpretáveis, podem tornar a explicabilidade ineficaz ou até mesmo criar a expectativa de um direito exercido. Por meio da explicabilidade, pode-se eventualmente
convencer o titular de dados que o resultado está correto, ao invés de explicar
como o algoritmo alcançou a decisão.
Considerações finais
Isso posto, resta evidente a correlação entre homens, computadores, algoritmos,
inteligência artificial. As atuais demandas da sociedade tornam o homem incapaz
de conviver fora deste novo ecossistema híbrido, de inteligência natural e artificial.
Este ambiente fomenta a amplificação da sociedade de exposição e vigilância. O
desenvolvimento de todos os envolvidos, inclusive do homem, passa a introduzir
novos paradigmas sobre o uso de algoritmos. Estes incluem as decisões automatizadas e sugestões tomadas por inteligência artificial com base na definição do
perfil digital. Este perfil, composto por diversas bases de dados podem levar a
uma representação não fidedigna do indivíduo. Porém, como é sabidamente inviável vigiar todos os aspectos da vida, restam questionamentos sobre se a sociedade de exposição e vigilância seria uma sociedade baseada em sugestões e
decisões incompletas e parcialmente informadas que refletem no tecido social.
Neste sentido, a Lei Geral de Proteção de Dados, aborda o princípio da transparência e o dever de explicabilidade, a fim de proteger o titular de dados. Este poderá contestar inclusive características de seu perfil digital que considere pejorativas em relação aos aspectos de sua personalidade, visto que essa caracterização também é originária de uma decisão automatizada. A efetividade jurídica dos
85
dispositivos da LGPD que versam sobre transparência e explicabilidade são desafios contemporâneos que podem revelar novos aspectos sociais, ainda não descobertos, mas que merecem proteção.
Referências bibliográficas
ACKOFF, R. L. From Data to Wisdom. New York: John Wiley & Sons, p. 170172, 1989. Disponível em: http://faculty.ung.edu/kmelton/Documents/DataWisdom.pdf. Acesso em: 06. dez. 2021.
CORTIZ, D. Inteligência Artificial: Conceitos fundamentais. In: Inteligência Artificial: Sociedade, Economia e Estado. São Paulo: Thomson Reuters. 2021, p. 45
– 49.
DONEDA, et al. Considerações iniciais sobre inteligência artificial, ética e autonomia pessoal. Revista Pensar, Fortaleza, v. 23, n. 4, p. 01-17, out./dez. 2018. Disponível em: https://periodicos.unifor.br/rpen/article/view/8257/pdf. Acesso em: 04.
dez. 2021.
FLORIDI, L. The Onlife Manifesto: Being Human in a Hyperconnected Era. [S.l.]:
Springer Open, 2015 (edição digital).
FREITAS, C. O. A. A Obscuridade dos Algoritmos e a LGPD. São Paulo: O Estado
de
São
Paulo.
ago.
2020.
Disponível
em:
https://politica.estadao.com.br/blogs/fausto-macedo/a-obscuridade-dos-algoritmos-e-a-lgpd/.
Acesso em: 05. dez. 2021.
FREITAS, C. O. A. Tratamento de dados pessoais e a legislação brasileira frente
ao profiling e à discriminação a partir das novas tecnologias. Rev. de Direito, Governança e Novas Tecnologias, Maranhão, v. 3, n. 2, p. 18–38, jul/dez. 2017.
HAN, Byung-Chul. No enxame: perspectivas do digital. Trad. Lucas Machado. Petropolis-RJ: Vozes, 2018, 134 p.
HARCOURT, B. E. The expository society. In: Exposed: Desire and Disobedience in the Digital Age. Cambridge: Harvard University Press, 2015. p. 1-28.
86
HOFFMANN-RIEM, W. Teoria Geral do Direito Digital: Transformação Digital:
Desafios para o Direito. 1. ed. Rio de Janeiro: Forense, 2020, 240 p.
RODOTÀ, S. El Derecho a Tener Derechos. 1. ed. Madri: EditoriaTrotta, 2014.
392 p.
WEISER, M. The Computer for the 21st Century. Scientific American, v. 265, n.
03, p. 78-89, set. 1991. Disponível em: http://web.stanford.edu/class/cs240e/papers/weiser.pdf. Acesso em: 07. dez. 2021.
ZHANG, Q.; LU, J.; JIN, Y. Artificial intelligence in recommender systems. Complex & Intelligence Systems, n. 7, p. 439 – 457, 2021.
87
TRANSPARÊNCIA DE ALGORITMOS E GIG ECONOMY: DISCUSSÕES ACERCA DA VIABILIDADE DE REALIZAÇÃO DE PERÍCIA
ALGORÍTMICA
Gabriela Marcassa Thomaz de Aquino1
RESUMO: A expansão das plataformas digitais de intermediação de trabalho (gig
economy) tem propiciado diversas discussões no âmbito legislativo, judiciário e
acadêmico. Uma das mais recentes discussões pauta-se na viabilidade de
realização de perícia algorítmica. Considerando esse cenário, o presente ensaio
tem o objetivo de contribuir com essas discussões, a partir da abordagem da
transparência algorítmica, discutindo sobre a definição e função dos algoritmos,
como esse sistema se insere dentro da gig economy, quais as principais
discussões acerca da perícia algorítmica no Poder Judiciário e quais as
possibilidades para efetivação da transparência nesse ambiente. Para verificação
dos principais pontos de discussão acerca da perícia algorítmica no judiciário foi
realizado um levantamento, no site do Tribunal Superior do Trabalho (TST), e os
resultados foram tabulados em uma planilha do Excel. Dessa forma, considerando
as discussões acerca da transparência, as justificativas para a realização de
perícia algorítmica nos processos analisados e o modelo de negócios das
plataformas digitais de intermediação de trabalho, o ensaio propõe que outras
estratégias de auditoria podem ser implementadas, tanto pela academia quanto
pelo próprio judiciário, a fim de garantir a efetivação da transparência e a garantia
de manutenção de segredo de negócios das empresas.
PALAVRAS-CHAVE: Gig economy; Perícia algorítmica;
algorítmica; Auditoria algorítmica; Plataformas digitais.
Transparência
Doutoranda e Mestra em Direito do Trabalho pela Faculdade de Direito da Universidade de São
Paulo. Pesquisadora do Centro de Ensino e Pesquisa em Inovação (CEPI/FGV-SP). E-mail: gabrielaquino01@hotmail.com.
1
88
Os algoritmos podem ser definidos como um conjunto de funções lógicas, inseridas no código de um sistema, que preveem uma sequência finita de ações para a
resolução de um problema ou a execução de uma tarefa, ou seja, os algoritmos
não são o programa, mas a sequência de ações realizadas para que o problema
seja resolvido ou a tarefa seja realizada (GOGONI, 2019).
Os algoritmos agem considerando dados de entrada, feedback, efeitos de suas
decisões e outros componentes do sistema, por isso também podem ser chamados de sistemas algorítmicos. Tais sistemas podem criar suas operações com
base nos dados que recebem e não em regras fixadas (SILVEIRA; SILVA, 2020,
pp. 1-2), o que faz com que suas ações sejam complexas.
Além disso, com a expansão dos processos de inteligência artificial, decisões que
antes eram tomadas por seres humanos (reflexão humana) agora são feitas automaticamente. O software codifica uma infinidade de regras e instruções e as computa em poucos segundos (PASQUALE, 2015, p. 8).
Essa expansão tem trazido diversas discussões, uma delas está relacionada com
a falta de transparência desses sistemas algorítmicos e eventuais processos discriminatórios. Por conta dessa discussão, há um movimento que busca a transparência dos códigos e o reconhecimento de que esses sistemas possuem vieses e
definições prévias embutidas em seus modelos (DIAKOPOULOS, 2016).
Para Sérgio Rodrigo de Pádua, cabe ao direito buscar regular o desenvolvimento
de inteligências artificiais, de modo a preservar a possibilidade de pesquisa e desenvolvimento dessas tecnologias sem, no entanto, deixar de fomentar os debates
de explicações acerca das decisões tomadas por sistemas baseados em inteligência artificial, decisões estas que impactam a vida das pessoas. (NISHIYAMA
et al., 2020, p. 912).
Carlos Araya Paz enfatiza ainda que, embora haja um número grande de aplicações de inteligência artificial bem sucedidas, em alguns casos as decisões tomadas pelo algoritmo são opacas, de modo que só são compreendidas pelos cientistas ou projetistas do modelo. (PAZ, 2021). Nesses modelos, a transparência é
comprometida.
89
Essa discussão sobre a transparência nos algoritmos alcançou, recentemente, as
atividades de gig economy, resultando em pedidos de realização de perícia algorítmica.
Gig economy é um conceito ainda em construção e é entendido neste ensaio
como o ambiente de negócios em que há intermediação de trabalho humano (geograficamente localizado ou baseado na web) por meio de plataformas digitais, no
qual prevalecem contratos flexíveis, de curta duração e o pagamento dos trabalhadores se dá por tarefas realizadas (CEPI, 2021a).
Nesse modelo de negócios, a plataformas estabelece, de forma unilateral, os termos e condições aplicáveis às partes e distribui tarefas, fixa o valor da remuneração, indica o tempo para a realização da tarefa distribuída, estabelece padrões
mínimos de qualidade e eventuais sanções etc. (KALIL, 2020, pp. 121-124/CEPI,
2021b, p.3).
Para que a intermediação de trabalho seja possível, as plataformas se utilizam de
recursos tecnológicos de geolocalização, gerenciamento de tempo e de execução
do trabalho, distribuição/alocação de trabalhadores, pagamento online e perfilização2 (KALIL, 2020, p. 92). O emprego de algoritmos pelas plataformas digitais
levou a literatura a desenvolver o conceito de gerenciamento algorítmico, que é
caracterizado por “práticas de supervisão, governança e controle conduzidas por
algoritmos de software” sobre trabalhadores remotos (MÖHLMAN; ZALMANSON,
2017, p.4).
Esse gerenciamento algorítmico se caracteriza, segundo os autores, sobretudo,
por cinco características: rastreamento constante do comportamento do trabalhador, avaliação constante do desempenho dos trabalhadores, decisões automatizadas, ausência de interação humana e pouca transparência. (CEPI, 2021b, pp.
3-4).
Com o aumento de ações trabalhistas visando o reconhecimento de vínculo empregatício entre as plataformas digitais (principalmente plataformas de transporte
e de delivery) e os trabalhadores, um dos questionamentos surgidos foi sobre a
2
Desenvolvimento de perfis baseados nos padrões comportamentais dos usuários.
90
configuração da subordinação3 nessa relação, subordinação essa que poderia ser
verificada mediante perícia algorítmica.
Visando identificar quais são os pedidos relacionados a perícia algorítmica das
plataformas de intermediação de trabalho e quais os argumentos para a realização ou não realização da perícia, foi feito um levantamento de jurisprudência no
site do Tribunal Superior do Trabalho (TST)4. Os termos utilizados para a buscar
foram “perícia algorítmica” e “algoritmo” que resultaram em: 5 acórdãos, 16 decisões monocráticas e 9 decisões da Corregedoria Geral. Após a análise de pertinência, os documentos que se relacionavam com a temática estavam distribuídos
da seguinte forma: 1 acórdão5, 9 decisões monocráticas6 e 5 decisões da Corregedoria Geral7.
Todas as decisões analisadas envolviam ou a plataforma Uber ou a plataforma
99, sendo que em todos os processos houve o pedido de reconhecimento de vínculo empregatício e realização de perícia algorítmica para provar a existência de
subordinação entre trabalhador e plataforma. Todas as decisões suspenderam a
realização da perícia algorítmica, aguardam ainda o julgamento do órgão competente para que se possa definir se haverá ou não o procedimento.
Entre os argumentos favoráveis à realização da perícia estavam a necessidade
de comprovação da existência de subordinação, sendo a perícia o único procedimento apto a comprovar tal tese e o interesse social público em conhecer como
se dá a tomada de decisão do algoritmo da plataforma digital.
As plataformas, no entanto, alegam que a realização de perícia algorítmica é uma
medida desproporcional, que viola regras concorrenciais e afeta os segredos de
O requisito da subordinação é analisado em conjunto com os outros requisitos aptos a configurarem o vínculo empregatício: pessoa física, pessoalidade, não eventualidade e onerosidade.
4 Levantamento realizado em 08 de dezembro de 2021.
5 CorPar - 1001652-15.2020.5.00.0000.
6 ROT - 0103519-41.2020.5.01.0000, CorPar - 1001223-14.2021.5.00.0000, CorPar - 100114787.2021.5.00.0000, TutCautAnt - 1000825-67.2021.5.00.0000, CorPar - 100082215.2021.5.00.0000, CorPar - 1000215-02.2021.5.00.0000, CorPar - 1002165-80.2020.5.00.0000,
CorPar - 1002164-95.2020.5.00.0000 e CorPar - 1001652-15.2020.5.00.0000.
7 CorPar - 1001223-14.2021.5.00.0000, CorPar - 1001147-87.2021.5.00.0000, CorPar - 100082215.2021.5.00.0000, CorPar - 1000215-02.2021.5.00.0000 e CorPar - 1001652-15.2020.5.00.0000.
3
91
negócios das plataformas digitais. Segundo as plataformas, os segredos de negócio seriam violados ainda que a perícia fosse realizada sob sigilo judicial, tendo
em vista que o perito teria acesso às informações.
Acerca dessa vantagem competitiva que as empresas buscam proteger (segredo
de negócio), Nicholas Diakopoulos (2016) argumenta que a transparência do código-fonte dos algoritmos não precisa ser total, sendo um exagero na maioria dos
casos. Para o autor, a divulgação de determinadas informações seria suficiente
para garantir a transparência algorítmica.
Além disso, Sandvig, Hamilton, Karahalios e Langbort propuseram um conjunto
de cinco abordagens possíveis para a auditoria de sistemas algorítmicos: auditoria
de usuário não-invasiva; auditoria colaborativa, sock-puppet audit; auditoria de
raspagem e auditoria de código (SANDVIG et al., 2014, p.16).
A primeira abordagem - auditoria de usuário não-invasiva - consiste no uso de
entrevistas em profundidade e observação não-participante com o objetivo de investigar os modos, as dinâmicas e as percepções dos usuários quanto ao sistema
estudado.
A segunda - auditoria colaborativa - relaciona-se com a construção de sistemas
colaborativos com o objetivo de avaliar determinados pontos do sistema por meio
do uso, relato e codificação distribuída. Já a terceira abordagem - sock-puppet
audit - envolve a simulação de usuários com variáveis controladas pelo projeto de
pesquisa.
Por fim, as duas últimas abordagens relacionam-se com aspectos estritamente
técnicos, sendo que a auditoria de raspagem consiste na coleta de dados nos
sistemas (acesso por meio de APIs, captura de tela e afins), enquanto a auditoria
de código se propõe a analisar a cadeia de decisões, escolhas metodológicas,
datasets, pacotes e módulos de programação. A abordagem de auditoria de código esbarra nas discussões de segredo de negócio, conforme identificado nos
processos analisados no Tribunal Superior do Trabalho (TST).
Percebe-se, portanto, que a discussão acerca da transparência algorítmica não é
uma questão meramente teórica, sendo, inclusive, judicializada nos casos das
plataformas de intermediação de trabalho.
92
Considerando o crescimento das discussões acerca da necessidade e viabilidade
de realização de perícias algorítmicas em plataformas digitais de intermediação
de trabalho para identificação de caracterização da subordinação e, consequentemente, do vínculo empregatício, e levando em conta as estratégias de abordagem para a auditoria de sistemas algorítmicos, tem-se que este instrumento (perícia algorítmica) não é a única estratégia que pode ser adotada para maior compreensão dos sistemas algorítmicos.
Pesquisas acadêmicas que adotem métodos de abordagem como a auditoria de
usuário não-invasiva, auditoria colaborativa ou sock-puppet audit podem auxiliar
na discussão, identificando pontos essenciais para o debate público acerca dos
limites da transparência algorítmica. Além disso, essas eventuais pesquisas podem identificar pontos importantes a serem observados em eventual abordagem
de auditoria estritamente técnica, propondo quesitos a serem analisados em uma
auditoria de raspagem, de modo a garantir a transparência dos algoritmos sem
corromper segredos de negócio.
Além disso, para se pensar em um caminho regulatório de questões envolvendo
desenvolvimento de inteligências artificiais e transparência é importante considerar a participação das empresas no debate, de modo a possibilitar uma maior segurança e transparência dos algoritmos, sem impactar, no entanto, nas pesquisas
que buscam o desenvolvimento tecnológico.
Referências bibliográficas
CEPI. Centro de Ensino e Pesquisa em Inovação da FGV Direito SP. Gig economy e trabalho em plataformas no Brasil: do conceito às plataformas. São
Paulo: FGV Direito SP, 2021a. Disponível em: https://bibliotecadigital.fgv.br/dspace/handle/10438/31523. Acesso em: dez. 2021.
CEPI. Centro de Ensino e Pesquisa em Inovação da FGV Direito SP. Briefing
temático #9: Dados, Algoritmos e Trabalhos em Plataforma, versão 01. São
Paulo: FGV Direito SP, 29 de setembro de 2021b. Disponível em: https://bibliotecadigital.fgv.br/dspace/bitstream/handle/10438/31435/BT9_Briefing_tematico_9_Dados_Algoritmos.pdf?sequence=1&isAllowed=y. Acesso em: mar. 2022.
93
DIAKOPOULOS, N. Accountability in Algorithmic Decision Making. Communications of the ACM, February 2016, Vol.59, pg. 56-62. Disponível em:
https://cacm.acm.org/magazines/2016/2/197421-accountability-in-algorithmic-decision-making/fulltext. Acesso em: dez. 2021.
GOGONI, R. O que é algoritmo?. Tecnoblog. Americana, dezembro 2019. Disponível em: https://tecnoblog.net/311612/o-que-e-algoritmo/. Acesso em: dez.
2021.
KALIL, R. B. A regulação do trabalho via plataformas digitais. São Paulo: Blucher,
2020.
Disponível
em: https://openaccess.blucher.com.br/articlelist/9786555500295-476/list#undefined. Acesso em: dez. 2021.
MÖHLMANN, M.; ZALMANSON, L. Hands on the wheel: navigating algorithmic
management and Uber drivers’ autonomy. In: International Conference on Information
Systems.
Seoul: December 2017,
10-13. Disponível em: https://www.researchgate.net/publication/319965259_Hands_on_the_wheel_Navigating_algorithmic_management_and_Uber_drivers%27_autonomy. Acesso em: dez. 2021.
NISHIYAMA, A. M. et al. Interdisciplinaridade e direitos humanos. Rio de Janeiro: Pembroke Collins, 2020. v. 2; 952 p. Disponível em: https://www.caedjus.com/wp-content/uploads/2020/11/interdisciplinaridade-e-direitos-humanosvol2.pdf#page=911. Acesso em: mar. 2022.
PASQUALE, F. The black box society: the secret algorithms that control money
and information. Harvard University Press: Cambridge, 2015.
PAZ, C. A. Transparencia algorítmica ¿un problema normativo o tecnológico?.
CUHSO, vol. 31, Temugo, dezembro, 2021. Disponível em: https://scielo.conicyt.cl/scielo.php?pid=S2452-610X2021005000002&script=sci_arttext. Acesso
em: mar. 2022.
SANDVIG, C. et al. Auditing algorithms: Research methods for detecting discrimination on internet platforms. Data and discrimination: converting critical concerns
into productive inquiry, v. 22, 2014. Disponível em: http://www-personal.umich.edu/~csandvig/research/Auditing%20Algorithms%20-%20Sandvig%20--%20ICA%202014%20Data%20and%20Discrimination%20Preconference.pdf. Acesso em: dez. 2021.
94
SILVEIRA, S. A. DA; SILVA, T. R. DA. Controvérsias sobre danos algorítmicos:
discursos corporativos sobre discriminação codificada. Revista Observatório, v.
6, n. 4, p. a1pt, 1 jul. 2020. Disponível em: https://sistemas.uft.edu.br/periodicos/index.php/observatorio/article/view/11069/17889. Acesso em: dez. 2021.
95
INTELIGÊNCIA ARTIFICIAL E MODERAÇÃO DE CONTEÚDO:
ANÁLISE DO PROJETO DE LEI Nº 4120/2020
Matheus Felipe Sales Santos1
RESUMO: A moderação de conteúdo na internet, por si só, já é um tema bastante
sensível, visto que envolve direitos e garantias fundamentais, assim como princípios balizadores da internet aberta, como, por exemplo, neutralidade da rede, liberdade, privacidade e direitos humanos. Ao se associar a moderação de conteúdo à tomada de decisão automatizada por sistemas de inteligência artificial,
emergem, ainda, questões relacionadas à supervisão, transparência e explicabilidade algorítmica, tendo em vista o risco de que as decisões tomadas por tais sistemas sejam enviesadas, preconceituosas e discriminatórias. Considerando esse
contexto, o Deputado Bosco Costa apresentou o projeto de lei nº 4120/2020, que
objetiva disciplinar o uso de algoritmos na internet, o qual será objeto de análise
neste artigo levando em consideração as controvérsias e problemáticas que circundam o tema.
PALAVRAS-CHAVE: Inteligência Artificial; Discriminação Algorítmica; Decisão
Automatizada; Explicabilidade; Moderação de Conteúdo.
Embora não haja consenso com relação à definição de inteligência artificial, tendo
em vista que há pouca concordância sobre o que é, em si, inteligência e se a
inteligência verificada em máquinas e programas guarda alguma relação com a
inteligência humana, os autores costumam convergir na ideia de que inteligência
artificial se traduz na criação de programas de computador ou máquinas que são
capazes de se comportar de forma que consideraríamos inteligente se exibida por
Graduado em Direito pela Universidade Federal de Minas Gerais – UFMG. Pós-Graduado em
Direito da Mineração pelo Centro de Estudos em Direito e Negócios – CEDIN. Pós-Graduando em
Gerenciamento de Projetos pela Pontifícia Universidade Católica de Minas Gerais – PUCMG. Mestrando em Inovação Tecnológica e Propriedade Intelectual pela Universidade Federal de Minas
Gerais – UFMG.
1
96
humanos (KAPLAN, 2016, p. 01). A essência da inteligência artificial está na capacidade de fazer generalizações apropriadas, em tempo hábil, com base em dados limitados (KAPLAN, 2016, p. 05).
Não obstante seja possível perceber os múltiplos benefícios da adoção de inteligência artificial em muitos setores da economia, ao propiciar maior eficiência, produtividade e confiabilidade, há também algumas problemáticas que surgem nesse
contexto, como deslocamento de trabalho devido à automação, ausência de transparência no tratamento de dados, lesão a direitos autorais, discriminação algorítmica, entre inúmeros outros (DWIVEDI et al., 2021).
Os desafios concernentes especificamente à tomada de decisão automatizada por
sistemas de inteligência artificial são diversos, sobretudo no contexto da internet,
quando esses sistemas são utilizados para fins de moderação com o intuito de
identificar e mapear conteúdos veiculados na internet que podem ser entendidos
como tóxicos ou danosos. A decisão sobre o que deve permanecer nas plataformas e o que deve ser removido envolve questões bastante sensíveis e também
políticas, que perpassam por direitos e garantias fundamentais, especialmente a
liberdade de expressão. Por esse motivo, o debate em torno da moderação de
conteúdo por sistemas de inteligência artificial na internet se intensificou com o
passar dos anos. Por exemplo, algumas expressões e palavras que, conforme
estudos queer sobre linguística, são utilizadas pela comunidade LGBTQIA+ dentro de uma perspectiva relevante e positiva, são interpretadas por alguns sistemas
de inteligência artificial como ofensivas e tóxicas, tendo em vista que as decisões
automatizadas tomadas por tais sistemas por vezes desconsideram a função social do discurso ao se apoiarem, principalmente, no significado isolado das palavras e expressões ao invés de analisarem as ideias ou ideologias subjacentes a
partir de uma avaliação contextual (GOMES; ANTONIALLI; OLIVAS, 2019).
Há também casos em que palavras e expressões utilizadas por pessoas gordas
para problematizar questões e combater a violência gordofóbica são interpretadas
por tais sistemas como interesse em produtos de emagrecimento, na contramão
do que intentavam com o discurso adotado (ARRUDA, 2021).
Outra questão que se verifica nesse cenário é quanto às “bolhas de filtro”, em que
as plataformas de mídias sociais, ao utilizarem algoritmos que, a partir dos dados
do usuário, fazem indicações de assuntos reputados como de seu interesse, evi-
97
denciam apenas as informações que estão alinhadas com as preferências do usuário. Nesse contexto, o enviesamento provocado pelas “bolhas de filtro” resulta
em prejuízos ao processo eleitoral, visto que notícias que deveriam chegar ao
eleitor de forma neutra são contornadas por algoritmos que visam apenas atender
as suas predileções (PEDROSA; BARACHO JÚNIOR, 2021).
É importante ressaltar que, em se tratando de sistemas de inteligência artificial de
aprendizado profundo, por vezes não é possível compreender, de forma clara, os
procedimentos e passos do algoritmo que resultaram em decisões enviesadas,
preconceituosas ou discriminatórias. A utilização desses sistemas é ainda mais
preocupante em determinadas camadas da sociedade, que, tal como na moderação de conteúdo na internet, podem colocar em risco direitos e liberdades civis,
como o uso para reconhecimento facial pela polícia e órgãos de controle, que,
entre outras questões, tem o potencial de ocasionar em perseguição e discriminação de grupos socialmente marginalizados (SILVEIRA; SILVA, 2020).
Diante dos desafios impostos pelos sistemas de inteligência artificial no que diz
respeito, principalmente, aos efeitos das decisões automatizadas na sociedade,
há autores que defendem a necessidade de que, para enfrentar eventuais decisões enviesadas, preconceituosas e discriminatórias, seja estabelecido um dever
de transparência, explicabilidade e supervisão por responsáveis (SILVEIRA;
SILVA, 2020).
Nesse sentido, cabe destacar que, em 21/05/2019, o Brasil, junto a outros diversos países, assinou a Recommendation of the Council on Artificial Intelligence da
Organização para a Cooperação e Desenvolvimento Econômico (OECD), primeiro
padrão intergovernamental sobre inteligência artificial, que tem como intuito promover inovação e segurança por meio de uma condução responsável da inteligência artificial, pautada no respeito aos direitos humanos e valores democráticos
(OECD, 2022, p. 03).
Como signatário, o Brasil se comprometeu a seguir os princípios enunciados,
quais sejam, crescimento inclusivo, desenvolvimento sustentável e bem-estar, valores centrados no ser humano e equidade, transparência e explicabilidade, robustez, segurança e proteção e responsabilidade (OECD, 2022, p. 03). Além
disso, comprometeu-se a adotar políticas públicas em observância também das
cinco recomendações estipuladas: investir em pesquisa e desenvolvimento de in-
98
teligência artificial, fomentar um ecossistema digital para inteligência artificial, moldar um ambiente político favorável à inteligência artificial, fortalecer a capacitação
humana e a preparação de pessoas para a transformação do mercado de trabalho
e cooperação internacional para uma inteligência artificial confiável (OECD, 2022,
p. 03).
Após a assinatura da Recommendation of the Council on Artificial Intelligence,
foram apresentados no Congresso Nacional diversos projetos de lei visando regular a inteligência artificial no Brasil e, no que se refere especificamente ao uso
de algoritmos pelas plataformas digitais na internet, tem-se o projeto de lei nº
4120/2020, de autoria do Deputado Bosco Costa.
Conforme justificativa apresentada, o objetivo da regulação proposta no projeto
de lei nº 4120/2020, em síntese, é disciplinar o uso de algoritmos na internet com
o intuito de garantir transparência em decisões que induzem a tomada de decisão
ou interferem nas preferências dos usuários, para, com isso, fomentar no Brasil
uma cultura de ética e transparência na construção e funcionamento dos algoritmos computacionais (BRASIL, 2020). Enquanto no art. 1º do projeto há a previsão
do objetivo anteriormente mencionado, no art. 2º são definidos alguns conceitos
para os fins da lei proposta, como o conceito de sistema de decisão automatizada:
Sistema de decisão automatizada: processo computacional, incluindo os
derivados de aprendizado de máquina, estatística ou outras técnicas de
processamento de dados ou inteligência artificial, que facilita a tomada
de decisões humanas ou toma decisões em nome de pessoas de forma
automatizada (BRASIL, 2020).
Além desse conceito geral, é apresentado no projeto também o conceito de sistema de decisão automatizada de elevado risco, que se caracteriza como o sistema, com o poder de afetar decisões humanas, que apresenta risco significativo
de disponibilizar informação que seja reputada como imprecisa, tendenciosa ou
discriminatória. Também se enquadram nesse conceito os sistemas que tomam
ou facilitam a tomada de decisões humanas tendo como base avaliações sistemáticas e extensas do comportamento de pessoas, assim como aqueles que realizam o tratamento sistemático de dados pessoais sensíveis, a partir do conceito
indicado na Lei Federal nº 13.709/2018, também nomeada de Lei Geral de Proteção de Dados Pessoais – LGPD (BRASIL, 2020).
99
O projeto prevê que os provedores de aplicação deverão obedecer, durante a
operação de sistemas de decisão automatizada, os princípios de boa-fé, transparência, responsabilidade social, segurança, proteção de valores éticos e morais,
assim como os direitos à privacidade e à intimidade dos cidadãos, os direitos humanos e a democracia. Também deverão produzir anualmente relatórios de impacto de seus sistemas de decisão automatizada de elevado risco, com a respectiva publicação na internet. É disposto ainda que os provedores de aplicação deverão informar aos usuários, em sendo o caso, quanto ao uso de sistema de decisão automatizada de elevado risco e elaborar e publicar na internet guia de orientação para os usuários com informações sobre o uso de sistemas que induzem
a tomada de decisão ou interferem nas suas preferências, bem como os riscos
que estão associados ao uso desses sistemas. Além disso, o projeto dispõe, de
forma taxativa, que é ilícito o uso de sistemas de decisão automatizada para a
realização de práticas discriminatórias ou abusivas e estabelece, sem prejuízo de
outras sanções cíveis, criminais ou administrativas, penalidades que poderão ser
aplicadas de forma isolada ou cumulativa em caso de descumprimento das normas previstas (BRASIL, 2020).
O projeto de lei nº 4120/2020, ao elencar princípios e fundamentos e estabelecer
regras específicas para o uso de algoritmos na internet, representa, em linhas
gerais, uma proposta benéfica para lidar com alguns dos desafios que circundam
o tema (PEDROSA; BARACHO JÚNIOR, 2021).
Por outro lado, é preciso destacar também alguns pontos do projeto que podem
ser mais bem estruturados para uma futura legislação, como o valor da multa,
fixado em 10% do faturamento do grupo econômico no Brasil, percentual bastante
superior, por exemplo, ao previsto para a multa estipulada no art. 52, II, da LGPD.
Cabe frisar também que o projeto de lei nº 4120/2020 não traz disposição que
interaja com o art. 20 da LGPD, que já regula, dentro da perspectiva de proteção
de dados pessoais, questões referentes à tomada de decisão automatizada. Outro
ponto do projeto que merece atenção é o período de vacatio legis, fixado em 90
dias após a publicação, que, considerando a complexidade das novas obrigações
que são propostas, pode ser demasiadamente curto, estando, comparativamente,
bastante inferior ao período definido, por exemplo, para a entrada em vigor da
LGPD (PARENTONI; VALENTINI; ALVES, 2020).
100
Por mais que essas questões ainda não estejam normatizadas no Brasil, assim
como em outros países, é possível verificar a movimentação de algumas plataformas para compatibilizar os seus sistemas de inteligência artificial com deveres de
transparência, explicabilidade e supervisão. O Twitter, por exemplo, compartilhou
informações sobre a iniciativa Responsible ML, que consiste em medidas para
melhorar os seus algoritmos de machine learning, centradas em pilares de assunção de responsabilidade pelas decisões algorítmicas, transparência sobre as decisões e como se chegou a elas; equidade e justiça de resultados; e habilitação
de agência e escolha algorítmica (WILLIAMS; CHOWDHURY, 2021). É provável
que essas medidas se tornem cada vez mais presentes ao longo dos próximos
anos diante das diversas questões que estão emergindo da utilização de sistemas
de inteligência artificial na sociedade, sobretudo no contexto de moderação de
conteúdo na internet, que possui elevada capacidade de impacto sobre diversos
usuários.
Referências bibliográficas
ARRUDA, A. Algoritmos da gordofobia: por que ser feliz e plena como mulher
gorda soa incompatível para a publicidade na internet?. Revista AzMina, [s.l.], 9
ago. 2021. Disponível em: https://azmina.com.br/colunas/algoritmos-da-gordofobia/. Acesso em: 19 nov. 2021.
BRASIL. Câmara dos Deputados. Projeto de Lei nº 4120/2020 de 07 de agosto
de 2020. Disciplina o uso de algoritmos pelas plataformas digitais na internet, assegurando transparência no uso das ferramentas computacionais que possam induzir a tomada de decisão ou atuar sobre as preferências dos usuários. Brasília:
Câmara dos Deputados, 2020. Disponível em: https://www.camara.leg.br/proposicoesWeb/fichadetramitacao?idProposicao=2259721. Acesso em: 19 nov. 2021.
DWIVEDI, Y. K. et al. Artificial Intelligence (AI): Multidisciplinary perspectives on
emerging challenges, opportunities, and agenda for research, practice and policy.
International Journal of Information Management, v. 57, 1 abr. 2021.
GOMES, A.; ANTONIALLI, D.; OLIVAS, T. D. Drag queens e Inteligência Artificial:
computadores devem decidir o que é ‘tóxico’ na internet?. InternetLab, [s.l.], 28
101
jun. 2019. Disponível em: https://www.internetlab.org.br/pt/liberdade-de-expressao/drag-queens-e-inteligencia-artificial-computadores-devem-decidir-o-que-e-toxico-na-internet/. Acesso em: 19 nov. 2021.
KAPLAN, J. Artificial Intelligence: What everyone needs to know. Oxford: Oxford University Press, 2016.
OECD. OECD/LEGAL/0449. Recommendation of the Council on Artificial Intelligence. [s.l.]. OECD Legal Instruments: 2022. Disponível em: https://legalinstruments.oecd.org/api/print?ids=648&lang=en. Acesso em: 19 nov. 2021.
PARENTONI, L. N.; VALENTINI, R. S.; ALVES, T. C. O. e. Panorama da regulação
da inteligência artificial no Brasil: com ênfase no PLS n. 5.051/2019. Revista Eletrônica do Curso de Direito da UFSM, Santa Maria, v. 15, n. 2, p. 1-29, mai./ago.
2020.
PEDROSA, C. B.; BARACHO JÚNIOR, J. A. de O. Algoritmos, bolha informacional
e mídias sociais: desafios para as eleições na era da sociedade da informação.
Revista Thesis Juris – RTJ, São Paulo, v. 10, n. 1, p. 148-164, jan./jun. 2021.
SILVEIRA, S. A. da; SILVA, T. R. da. Controvérsias sobre danos algorítmicos:
discursos corporativos sobre discriminação codificada. Revista Observatório,
Palmas, v. 6, n. 4, p. 1-17, jul.-set. 2020.
WILLIAMS, J.; CHOWDHURY, R. Introducing our Responsible Machine Learning
Initiative. Twitter Blog, [s.l.], 14 abr. 2021. Disponível em: https://blog.twitter.com/en_us/topics/company/2021/introducing-responsible-machine-learninginitiative. Acesso em: 19 nov. 2021.
102
ESTRUTURA E
FUNCIONAMENTO DA INTERNET
ASPECTOS TÉCNICOS, POLÍTICOS E REGULATÓRIOS
PRIVACIDADE E
PROTEÇÃO DE DADOS PESSOAIS
103
OS DADOS SÃO DE QUEM?
Rodrigo Duarte Guedes1
RESUMO: O fluxo internacional de dados é uma questão que vem se colocando
para além da discussão das características da Internet, pois os dados não são o
novo petróleo, na medida em que não são recursos naturais, mas dentro da
conjuntura atual da sociedade possibilitam a criação de fluxos de poder e dinheiro.
O presente artigo destacará como os dados se tornaram centrais e a necessidade
dos Estados intervirem para a construção de soluções locais para armazenamento
dos seus dados.
PALAVRAS-CHAVE: Dados; Fluxo Internacional de Dados; Regulação da
Internet; Internet; Economia Política da Internet.
Rotina de produção de dados
Ao se imaginar uma rotina diária, é possível vislumbrar o quanto estamos
compartilhando o dia com diferentes ambientes digitais que intermediam distintas
relações por meio de tecnologias: as plataformas. Por exemplo, ao acordar e
buscar as informações sobre o que ocorre no mundo, abre-se o Twitter. Para
saber das novidades do círculo de amizades, utiliza-se o Facebook e o Instagram.
Para diminuir o tédio no caminho para o trabalho ou a fim de dar aquela força nos
exercícios matinais, utiliza-se o Spotify. O próprio trabalho, em tempos atuais,
pode se dar dentro de plataformas como Uber, Ifood e/ou ser permeado pelas
outras citadas.
Assim, sem prestar muita atenção, o dia foi compartilhado com o uso de distintos
ambientes digitais que funcionam como espaços que oferecem acesso a outras
pessoas e agentes em vários lados, conectando vendedores e compradores,
Graduado em Ciências Sociais pela Universidade Federal do Rio de Janeiro (UFRJ), mestre em
Políticas Públicas, Estratégia e Desenvolvimento pelo Instituto de Economia da UFRJ. É
doutorando em Ciência da Informação pelo Instituto Brasileiro de Informação em Ciência e
Tecnologia em parceria com a Escola de Comunicação da UFRJ.
1
anunciantes e usuários, produtores audiovisuais e públicos. Sendo necessário
destacar que a intermediação realizada pelas plataformas possibilita também a
transformação da rotina em dados.
Segundo a pesquisa TIC Domicílios 20192, no Brasil estima-se que 133,8 milhões
de pessoas, com dez anos ou mais, estão conectadas à rede. Destas, quase a
totalidade (99% da amostra), tem no telefone celular o dispositivo mais utilizado
para uso da Internet. Esses dados gerais, quando transpostos para rotina descrita
anteriormente, fornecem uma noção da quantidade de dados gerados e
apropriados pelas diferentes plataformas utilizadas pelas pessoas (NICBR, 2020).
O presente ensaio investigará a questão dos dados, mais especificamente a
discussão sobre o fluxo internacional de dados. Inicialmente vislumbrou-se a
quantidade de pessoas que em 2019 estavam conectadas à Internet, assim,
atrelada a esta estimativa temos o artigo de Viola (2019, p. 18), onde o autor
pontua que atualmente “um mero armazenamento de dados na nuvem – desde
que envolva um servidor localizado no exterior – pode ser suficiente para
configurar uma transmissão transfronteiriça, a exigir o cumprimento de diversas
obrigações”. Assim, ao longo do ensaio defenderemos a necessidade da
intervenção dos Estados na construção de soluções locais para o armazenamento
dos dados de seus cidadãos.
Onde os dados da nuvem ficam armazenados?
A quantidade de dados possíveis de serem gerados pelo montante de 133,8
milhões de pessoas conectadas e a utilização de serviços de plataformas digitais
que podem colocar seus servidores em países do exterior compõem o cenário
destacado na introdução e que será aprofundado neste tópico para a discussão
sobre a localização dos dados e o consequente fluxo internacional dos mesmos.
Inicialmente é importante destacar o que são esses dados, a Lei Geral de
Proteção de Dados (LGPD) destaca que dados pessoais são as informações
relacionadas à pessoa natural identificada ou identificável. Assim, os dados
2
TIC – Tecnologias da Informação e Comunicação.
105
identificados são, por exemplo, o CPF que possibilita através de seus números
identificar uma pessoa específica. Os dados identificáveis são aqueles que
utilizados de forma isolada não possibilitam a identificação de uma pessoa, porém,
sua utilização em conjunto com outros dados pode levar a identificação. Um
exemplo desta situação são os dados de CNPJ, que apesar de serem dados sobre
uma esfera de pessoa jurídica podem levar até o CPF e assim aos dados
pessoais. Por outro lado, temos os dados não pessoais que são aqueles possíveis
de serem anonimizados.
Outro ponto interessante que emerge da utilização da Internet é que as conexões
feitas para utilização da mesma implicarão trânsito de dados. Isto ocorre, pois a
lógica da rede das redes é ser interoperável e de possibilitar o fluxo de
informações. Tendo em vista tal característica a questão sobre a localização dos
dados, em inglês data localization, se coloca em discussão, pois como destacado
por Brandão (2020), os dados para além da classificação anterior também têm
uma dimensão física. Logo, quando se aborda a localização dos dados o que está
em debate é em qual território os dados estarão retidos.
Entrando um pouco mais no debate sobre a territorialidade Brandão (2020),
salienta que existem diversos critérios para a localização dos dados, em geral, a
autora aponta que as escolhas se centram em aspectos lógicos, como a
quantidade de tráfego e o clima. Contudo, existem casos em que ocorre uma
localização mandatória, isto é, determinado país através das suas previsões
legais e regulatórias determinam que os dados fiquem armazenados em seu
território.
Ao abordarmos os dados e sua localização é nevrálgico que não nos
desconectemos do cenário que vivemos, assim, conforme Silveira (2021, p. 35)
destaca estamos em uma conjunta de um capitalismo cada vez mais
informacional. Os dados e sua organização não escapam deste contexto, porém
algumas questões passam a ficar encobertas e ofuscadas, tornando-se assim em
não-questões, na medida em que não figuram mais nas discussões. Silveira
(2021, p. 35) aponta quatro pontos, contudo para o presente ensaio, destacarei
em específico o segundo. Neste o autor salienta que não se tem um
questionamento maior sobre as “consequências negativas tanto locais quanto
nacionais na utilização das estruturas tecnológicas das plataformas, uma vez que
elas respeitariam os contratos”.
106
A falta deste tipo de questionamento nos leva a situações como a exposta por
Lucena (2021) que destaca a situação onde empresas nacionais menores nem
chegam a pensar sobre os aspectos que envolvem a transferência internacional
de dados, pois pelo seu porte ficam à mercê de empresas dominantes do
segmento como Amazon e Google, logo seus dados são transferidos
internacionalmente sem que as empresas tenham prestado atenção para tal fato.
Outro ponto importante é a observação de Lucena (2021), destacando que as
grandes empresas são muito afeitas à globalização quando se trata de expandir
o modelo de negócios e conteúdo, porém em contrapartida defendem com maior
vigor sua operação segundo uma jurisdição específica. Este fato fica bem visível
com a defesa das plataformas sediadas nos Estados Unidos da América (EUA)
da sua jurisdição quando se trata de colaboração com entidades policiais.
Cabe relembrar que após o final da Segunda Guerra Mundial, dentro do plano
diplomático, os EUA, através do seu Departamento de Estado, se dedicam a
legitimar a doutrina de livre fluxo da informação. Para além da proximidade desta
doutrina com a de livre troca, também defendida pelos EUA, há uma relação com
os insumos necessários para as máquinas de comunicação que entre outras
coisas demandam uma livre circulação da informação. Neste contexto o acesso
livre a informação é defendido justamente sob os termos exclusivos de venda e
compra, logo a busca não é atingir o potencial de libertação da informação, mas
sim a construção de oligopólios.
Essa recapitulação histórica e o exemplo das empresas nacionais menores são
importantes na medida em que desvelam a existência de mais do que aspectos
lógicos na definição dos critérios de localização dos dados. Como veremos a
seguir com a plataformização e a dataficação, existem aspectos econômicos que
influenciam diretamente nesta territorialidade dos dados.
A utilização dos dados em negócios é anterior as plataformas digitais, porém com
estas seu uso ganha escala de tal forma que o conceito de plataformização surge
e segundo Helmond (2015, p. 1) representa “a extensão das plataformas de mídia
social para o resto da web e seu esforço para tornar os dados da web externos
‘prontos para a plataforma’”. Assim, para compreendermos esta mudança é
interessante destacar que desde 1991 a web se tornou o principal meio para
acesso e utilização da Internet, contudo desde 2010 as plataformas digitais
assumem este lugar. Em suma, por meio da plataformização se vislumbra como
107
ocorreu a mudança dos sites de redes sociais para plataformas de redes sociais,
a transformação está centrada na ascensão da web 2.03 e na utilização de API’s4
que possibilitam a comunicação entre os serviços das plataformas e
desenvolvedores terceiros.
Essa modificação com a concentração nas plataformas como meio para utilização
da web desemboca na dataficação definida por José Van Dijck (2014, p. 198), se
apoiando em Mayer-Schoenberger e Cukier (2013), como “a transformação da
ação social em dados quantificados online, permitindo o rastreamento em tempo
real e a análise preditiva”5. Poell, Nieborg, e Van Dijck (2020, p. 5) reforçam que
a noção de dataficação se refere “às maneiras pelas quais as plataformas digitais
se transformam em dados, práticas e processos que historicamente escaparam à
quantificação”. Porém, ampliam o escopo ao salientarem que os dados
capturados pelas plataformas não são apenas aqueles relacionados a “dados
demográficos ou de dados de perfil oferecidos pelos usuários ou solicitados por
meio de pesquisa online, mas principalmente a metadados comportamentais”.
Vislumbramos que os dados podem ser classificados em pessoais, estes sendo
identificados e identificáveis, e em não pessoais, assim como não ficam voando
em nuvens, mas possuem uma dimensão física, logo demandam seu
armazenamento em alguma localidade. Abre-se assim a indagação sobre onde
os mesmos deveriam ser armazenados, se tal escolha fica a cargo das empresas
e da sua lógica capitalista, ou se caberia aos Estados a regulamentação do
armazenamento em seus territórios. Frisamos que atualmente as empresas
definem onde os dados coletados por elas serão armazenados.
“Tim O’Reilly cunhou o termo Web 2.0 que popularizou-se rapidamente a partir da publicação do
artigo intitulado ‘What is Web 2.0: Design Patterns and Business Models for the Next Generation
of Software’ (O’Reilly, 2005)”. (BOMFIM; SAMPAIO, 2008, p. 1)
4 Application Programming Interfaces (APIs), em português pode ser traduzida como Interface de
Programação de Aplicativos
5 Texto original: “[…] the transformation of social action into online quantified data, thus allowing for
real-time tracking and predictive analysis”. (VAN DICJK, 2014, p. 198)
3
108
A escolha de onde armazenar os dados
Apesar da resolução desta questão não ser simples, pois envolve diversos
aspectos e pode, dependendo do ponto de análise, impactar na lógica da Internet
de ser interoperável e permitir o fluxo de informações, defendemos que cabe uma
maior regulação do Estado. Tal posição se assenta na leitura de que neste novo
cenário composto pelo crescimento no volume de dados e no desenvolvimento de
novas tecnologias que possibilitam a contínua “geração” de dados há um rearranjo
na lógica de negócios e as empresas, ao perceberem o potencial da exploração
dos dados para extração de valor e controle passam a se reestruturar buscando
acumular e reter o máximo de dados possível.
Assim, a partir do exposto, pontua-se que o caminho para resolução da questão
sobre o fluxo internacional de dados é que os países, em especial do Sul, centrem
sua atenção na utilização dos dados pelo prisma econômico, ao oposto do que se
verifica na atualidade onde países como o Brasil, segundo Silveira (2021, p. 38),
compram “os melhores produtos e serviços pelo menor preço. O uso é
subentendido como o passaporte para o avanço econômico”. É central a criação
de soluções próprias que abranjam desde o armazenamento até o
desenvolvimento de aprendizagem de máquinas utilizando os dados produzidos
no seu país.
Sadowski (2019, p. 2), em seu artigo, reforça essa compreensão de que os dados
não são um recurso natural e são transformados em capital. Dentro desta lógica,
os dados assumem tamanha centralidade que permeiam o funcionamento de
casas inteligentes até cidades inteligentes, das finanças até a governança, da
produção até a distribuição e de dispositivos de consumo até os sistemas
empresariais. Esses são alguns exemplos trazidos pelo autor para retratar como
“os dados são uma forma fundamental de capital para tudo”6. Logo, “Sem dados,
muitas destas tecnologias e organizações não seriam capazes de funcionar, e
muito menos de gerar valor”7.
Vimos que os dados se tornaram em insumos centrais dentro da atual fase do
original: “data is a foundational form of capital for everything”. (SADOWSKI, 2019, p. 2)
Texto original: “Without data, many of these technologies and organisations would not be able to
operate, let alone be able to generate value”. (SADOWSKI, 2019, p. 2)
6 Texto
7
109
capitalismo e a disputa pela sua extração e armazenamento se configurou em
embates entre empresas e Estados. Até o momento com exceção de poucos
países a definição sobre o local de armazenamento dos dados se faz de acordo
com o interesse das empresas.
Portanto, partindo-se da premissa que os dados são insumos transformados em
fluxos de poder e dinheiro defende-se que a resolução da questão sobre o fluxo
internacional de dados perpassa uma compreensão de que à Internet no atual
cenário privilegia determinadas empresas e localidades. Logo, a criação de
soluções próprias que possibilitem tanto o armazenamento quanto a utilização dos
dados dentro do território dos Estados se avizinha como uma possibilidade para
busca de um novo desenvolvimento e avanço das forças produtivas.
Referências bibliográficas
BOMFIM, M. N. C.; SAMPAIO, F. F. A Web 2.0, suas tecnologias e aplicações
educacionais. [S. l.: s. n.], 2008.
[Entrevista] Data Localization: entre o nacional e o global, com Luiza Brandão
(IRIS). Centro de Ensino e Pesquisa em Inovação (CEPI FGV Direito SP). 07 out.
2020. Disponível em: PARTE 1 https://youtu.be/no0c4HiyZ-c (19min31s) PARTE
2 https://youtu.be/6EcXC1nOXoA (13min45s)
[Entrevista] Fragmentação da Internet e localização de dados: impasses e
externalidades, com Cláudio Lucena (UEPB / FCT / INPD). Centro de Ensino e
Pesquisa em Inovação (CEPI FGV Direito SP). 13 set. 2021(37min48s).
Disponível em: https://youtu.be/c0qBfr-cqBY.
HELMOND, A. The platformization of the web: Making web data platform ready.
Social Media+ Society, p. 1–11, 2015.
MAYER-SCHOENBERGER, V.; CUKIER, K.. Big Data: A Revolution that will
transform how we live, work, and think. London: John Murray Publishers. 2013
NIC.BR. Núcleo de Informação e Coordenação do Ponto BR. Pesquisa sobre o
Uso das Tecnologias de Informação e Comunicação nos Domicílios
Brasileiros – TIC Domicílios 2019. São Paulo: Conselho Gestor da Internet no
110
Brasil, 2020. Disponível em: https://cetic.br/pt/tics/domicilios/2019/individuos/.
Acesso em: 17/08/2020.
POELL, T.; NIEBORG, D.; VAN DIJCK, J. Plataformização. Revista Fronteiras –
estudos midiáticos, vol. 22, no. 1, 2020.
SADOWSKI, J. When data is capital: Datafication, accumulation, and extraction.
Big Data & Society, vol. 6, no. 1. 2019.
SILVEIRA, S. A; SOUZA, J. (Org.); Cassino (Org.). Colonialismo de dados: como
opera a trincheira algorítmica na guerra neoliberal. 1. ed. São Paulo: Autonomia
Literária, 2021. v. 1. 212p.
VAN DIJCK, J. Datafication, dataism and dataveillance: Big Data between
scientific paradigm and ideology. Surveillance & Society, vol. 12, no. 2, p. 197–
208, 2014.
VIOLA, M. Transferência de dados entre Europa e Brasil: Análise da Adequação
da Legislação Brasileira. Instituto Tecnologia e Sociedade, [s.l.], 2019.
Disponível
em:
https://itsrio.org/wpcontent/uploads/2019/12/Relatorio_UK_Azul_INTERACTIVE_Justificado.pdf.
111
ESTRUTURA E
FUNCIONAMENTO DA INTERNET
ASPECTOS TÉCNICOS, POLÍTICOS E REGULATÓRIOS
SOBERANIA DIGITAL
112
FLUXOS TRANSNACIONAIS E INTERNET ABERTA NO SÉCULO
XX
Jaqueline Trevisan Pigatto1
RESUMO: Este artigo busca analisar brevemente algumas das demandas e das
respostas normativas da governança da Internet, encontradas entre as décadas
de 2010 e 2020 para lidar com problemas transnacionais de fluxo de dados e a
manutenção de uma Internet aberta. Com um olhar internacional e institucional,
vê-se a necessidade de mecanismos de coordenação e cooperação entre os
atores, preservando o espírito multissetorial que está embutido nessa governança
desde o princípio. Ainda que haja uma presença mais forte nessas décadas da
figura estatal, práticas de corregulação mostram que são cada vez mais
necessárias respostas em conjunto, a fim de preservar os benefícios da rede
mundial de computadores e as adequações demandadas pelos atores que a
compõem.
PALAVRAS-CHAVE: Governança da Internet; Multissetorialismo; Soberania;
Dados pessoais; Instituições internacionais
Introdução
Internet aberta x Estados soberanos
Compreender a Governança da Internet é compreender a Internet em si, seu
funcionamento e o determinismo de sua construção que levou à criação e
manutenção de práticas, leis e atores que afetam as sociedades e a dependência
digital criada nelas. As características centrais da Internet que a acompanham
Doutoranda em Ciências Sociais pela Faculdade de Ciências e Letras (UNESP-Araraquara);
mestre em Relações Internacionais pelo Programa de Pós-graduação San Tiago Dantas (UNESP
- UNICAMP - PUC/SP); e pesquisadora e líder de projeto na Associação Data Privacy Brasil de
Pesquisa. Contato: jaqueline.t.pigatto@unesp.br
1
113
desde sua criação na década de 1970, até sua definitiva abertura para qualquer
usuário na década de 1990, como descentralização e composição multissetorial
(ou multistakeholder), são categorias também aplicáveis à sua governança: uma
pluralidade de atores (governos, setor privado, acadêmicos e sociedade civil)
descentralizados que compõem diversos arranjos, regimes e práticas
transnacionais, ao mesmo tempo em que evoluem em seus benefícios e
consequências multinível (desde o local, passando pelos níveis nacional, regional
e global).
Ainda que muitos Estados entrem em conflito com esse caráter aberto e universal
da Internet por conflitar com leis e princípios de soberania territorial, como coloca
Doneda (2020): “A existência de uma internet aberta e em escala global é o
elemento fundamental que torna possível a existência dos aplicativos e
ferramentas que são recursos ainda mais importantes em uma situação de
isolamento social como a atual”, referindo-se ao contexto recente da pandemia de
COVID-19.
O grande desafio imposto pelas atuais configurações da governança da Internet,
que parece impor a todo momento um conflito entre preferências dos atores
estatais e não-estatais, e um fluxo transnacional de dados, criou uma corrida
acirrada que envolve regulações, inovação e componentes socioeconômicos e até
mesmo políticos. Por um lado, o setor privado sai na frente com a inovação, os
conhecimentos e agilidades técnicas para lidar com problemas do dia a dia, em
dispositivos que estão nas mãos das pessoas a todo momento realizando trocas
de dados e informações de preferências pessoais, transações financeiras, etc. Por
outro, Estados tendem a ver esse fluxo concentrado em grandes corporações
estrangeiras como uma ameaça e, por vezes, como violação de sua soberania
estatal - preocupação que aumentou após interferências em campanhas políticas
e que também trazem cada vez mais desigualdades de trabalho e acesso, por
conta de algoritmos e processos pouco transparentes de muitos serviços digitais.
O caráter multissetorial se mostra, assim, cada vez mais necessário junto a
mecanismos de cooperação e corregulação - ou seja, o Estado não é mais o único
agente regulador de modo unilateral. Respostas em conjunto são cada vez mais
demandadas para que se possa aproximar um consenso não apenas técnico, mas
político, em torno de diversos temas da governança da Internet, em especial o
fluxo transnacional de dados e seus valores econômico e social.
114
Constitucionalismo digital
As respostas normativas da década de 2010
O Constitucionalismo Digital é uma corrente recente de estudos que advogam por
uma nova fase da governança da Internet, na qual não se considera mais o
ciberlibertarianismo de John Perry Barlow (BARLOW, 1996), nem mesmo é
defendido um caráter autoritário do Estado que poderia fragmentar a Internet.
Trata-se de uma ideologia, como visto por Celeste (2019), que enfatiza a
necessidade de se adaptar valores constitucionais para o ambiente digital, que ao
mesmo tempo que possibilita ao indivíduo o exercício de seus direitos
fundamentais, também aumenta os riscos de ameaça aos mesmos.
Nesse sentido, se faz necessário que noções de não-interferência - princípio
básico da soberania nas relações internacionais2 - seja revisto. Isto em certa
medida já vem sendo respondido com legislações nacionais e regionais que
apresentam algum grau de extraterritorialidade. O exemplo mais comum aqui é da
Regulação Geral de Proteção de Dados (GDPR) da União Europeia, que se impõe
sobre plataformas estrangeiras que tratam dados pessoais de cidadãos do bloco.
Outro exemplo até mesmo anterior e que se destaca pelo caráter multissetorial é
do Marco Civil da Internet (Lei n°12.965/2014), a “Internet Bill of Rights” brasileira,
aprovada em 2014 e baseada nos pilares da proteção de dados, neutralidade da
rede e responsabilidade de intermediários. Foi a primeira legislação desse tipo no
mundo e marcou um curto, porém bem sucedido período de liderança do Brasil
na governança global da Internet. Foi também em 2014 que o país sediou o
encontro NETMundial, por iniciativas do governo brasileiro e da Corporação da
Internet para Atribuição de Nomes e Números (ICANN), entidade global e
multissetorial que gerencia os nomes de domínio e protocolos de websites da
rede. Entretanto, a instabilidade interna que se seguiu fez com que essa pauta
fosse gradativamente perdendo importância no país, papel que ao fim da década
Aqui referente a soberania nacional, o conceito implica um exercício de autoridade estatal
exclusiva em seu território, pautado no princípio de que nenhum Estado interfira em assuntos
internos de outro, como foi estabelecido pela Paz de Westfália em 1648.
2
115
parece ter se transferido para a União Europeia - especialmente França e
Alemanha.
Um exemplo é a nuvem Gaia-X3, anunciada conjuntamente pelos dois países e
que visa ser uma alternativa aberta e segura aos provedores de nuvem
estadunidenses (de empresas como Google e Amazon), seguindo os valores
europeus de proteção de dados. Tal iniciativa se encaixa na estratégia de
autonomia digital e de soberania de dados europeia, dentre outras propostas
como o Digital Services Act (com foco em conteúdo das plataformas), o Digital
Markets Act (focado em ações antitruste) e a própria GDPR (proteção de dados).
Com diferentes legislações e práticas surgindo, a década de 2020 parece trazer
um olhar atento para mecanismos de cooperação e coordenação, como posto
pelo relatório do Secretário Geral das Nações Unidas “The Age of Digital
Interdependence” (DIGITAL COOPERATION, 2019). Além disso, ao pensarmos
nos múltiplos níveis de interação entre indivíduos e serviços transnacionais, não
basta pensar em uma governança global, mas sim uma governança global e
multinível. Os indivíduos e as sociedades em geral interagem não diretamente
com o Estado, mas sim com ramos específicos do governo. Assim, é de se pensar
menos na replicação de instituições domésticas no nível global, e mais em
conectar as instituições já existentes com as redes globais, pois essas instituições
governamentais exercem poder coercitivo e possuem legitimidade pública
(SLAUGHTER, 2003).
Além disso, falar em cooperação pode significar uma troca de experiências, o que
valoriza a continuidade e intensificação de policy spaces como o Fórum de
Governança da Internet (IGF), tanto o global quanto os nacionais e regionais.
Outro fenômeno observado é a influência que certas medidas possuem no cenário
internacional, como foi o caso da própria GDPR. A China - conhecida por seu
caráter mais autoritário (censura de determinados conteúdos e rígido controle
doméstico) - aprovou em 2021 uma lei de proteção de dados que se assemelha à
GDPR, avançando também em outras legislações ainda em debate no Ocidente.
Um outro espaço de debate sobre inovações tecnológicas e ações de governança
Para mais informações, ver: https://www.gtai.de/gtai-en/invest/industries/informationtechnologies/gaia-x-germany-and-france-create-european-data-ecoysystem-528520.
3
116
nasce na China durante a década de 2010, a Conferência Mundial da Internet
(World Internet Conference), que já procura estabelecer princípios e olha
principalmente para a cibersegurança, em uma visão diferente da ocidental, mas
também voltada à construção de uma comunidade global para a governança da
rede. Por esse evento fica claro a estratégia chinesa de soberania digital, onde a
cooperação internacional não impede que cada Estado exerça seu próprio
controle doméstico. Assim, é bastante comum ver representantes de países
vizinhos à China no evento, enquanto a participação de estadunidenses e
europeus é mínima.
Coordenação e accountability
As possíveis respostas desenhadas no início da década de 2020
A partir de casos de conjuntura como as revelações de Edward Snowden em
2013, a eleição de Donald Trump em 2016 e a votação pelo Brexit na Europa,
junto às revelações do uso indevido de dados do Facebook pela consultoria
Cambridge Analytica, a necessidade de regulação ficou clara tanto para os
Estados quanto para o setor privado. O discurso do presidente francês Emmanuel
Macron no IGF de 2018 é icônico neste sentido, de convidar o setor privado e a
sociedade civil para regular junto ao Estado, ou o Estado regularia por conta
própria. Desde então, observa-se um esforço em várias frentes por parte do setor
privado - como elaborar mecanismos de prestação de contas e maiores controles
de privacidade aos usuários. Destaca-se a empreitada do Oversight Board - um
comitê independente criado pelo Facebook que emite decisões globais sobre as
políticas da rede social, institucionalizando assim uma espécie de autorregulação
privada global e multissetorial, mas cujo enforcement frente ao Estado ainda é
questionável.
Alguns Estados têm tomado medidas protecionistas que são muito debatidas pela
possibilidade de infringir o ideal da Internet aberta. As políticas de localização de
dados são o maior exemplo, onde as empresas devem armazenar os dados de
seus usuários em seus países de origem, como acontece na China4. Até agora,
4
NICAS, J. et al. Censorship, Surveillance and Profits: A Hard Bargain for Apple in China. The
117
não existem evidências de que onde se é aplicada essa política houve aumento
de segurança digital e privacidade. Outro ponto a ser pensado no futuro próximo
é o maior uso de novas tecnologias e possibilidades com o 5G, que permitirá uma
coleta maior ainda de dados por usos de soluções baseadas na Internet das
Coisas e na Inteligência Artificial, enfatizando a necessidade de conversas
regulatórias e bases principiológicas. As principais perguntas permanecem: quem
está coletando, processando e armazenando os dados, com qual propósito e para
quem? Reforça-se, desse modo, a necessidade de se investir em políticas de
transparência e coordenação entre os atores.
No que podemos considerar um processo de forum shifting5, a governança da
Internet está cada vez mais com seus assuntos presentes em espaços tradicionais
de políticas como a Organização Mundial do Comércio (OMC), o G7 e a
Organização para a Cooperação e Desenvolvimento Econômico (OCDE), do que
apenas restrita aos espaços específicos de sua comunidade epistêmica, como o
próprio IGF. Esse fenômeno reforça as intenções dos atores de manter uma
Internet aberta, que permita os benefícios dos fluxos transnacionais de dados e
trocas de conteúdo, ao mesmo tempo que preserva e possibilita o exercício de
direitos fundamentais pelos seus usuários.
Referências bibliográficas
BARLOW, J. A Declaration of the Independence of Cyberspace. EFF, 1996.
Disponível em: http://bit.ly/2OJU00Z. Acesso em: 24 mar. 2018.
CELESTE, E. Digital constitutionalism: a new systematic theorization.
International Review of Law, Computers & Technology, v. 33, n. 1, p. 76–99,
New
York
Times,
May
17,
2021.
Disponível
em:
https://www.nytimes.com/2021/05/17/technology/apple-china-censorship-data.html. Acesso em 29
nov. 2021.
5 O termo forum shifting foi utilizado por Marília Maciel (DiploFoundation) para se referir aos temas
que “vazam” para outros espaços não focados exclusivamente em governança da Internet. Ver:
[Sem. Internacional] Os desafios da governança global da Internet (Áudio em Português). 30
mar. 2021. Disponível em: https://www.youtube.com/watch?v=x-3sERWir_o. Acesso em: 7 abr.
2021.
118
2019.
DIGITAL COOPERATION. The Age of Digital Interdependence. Report of the
UN Secretary-General's High-level Panel on Digital Cooperation. Disponível em:
http://bit.ly/2TbxVqU. Acesso em: 17 jun. 2019.
DONEDA, D. Criptografia, segurança e confiança em tempos de pandemia. Jota,
06/05/2020.
Disponível
em:
https://www.jota.info/opiniao-eanalise/artigos/criptografia-seguranca-e-confianca-em-tempos-de-pandemia06052020. Acesso em: 13 abr. 2021.
SLAUGHTER, A. Everyday Global Governance. Daedalus, v.132, n.1, p.83–90,
2003.
119
120