Direito Digital Podcast Por Ana Frazão e Caitlin Mulholland capa

Direito Digital

Direito Digital

De: Ana Frazão e Caitlin Mulholland
Ouça grátis

Sobre este título

Podcast sobre temas atuais do Direito Digital apresentado por Ana Frazão, professora de Direito Comercial e Econômico da Universidade de Brasília, e por Caitlin Mulholland, professora de Direito Civil da PUC do Rio de Janeiro.Ana Frazão e Caitlin Mulholland
Episódios
  • EP#54: Influenciadores digitais contra o Banco Central
    Jan 28 2026

    Vivemos em uma era onde a moeda mais valiosa não está guardada em cofres de aço, mas flutua livremente em nossos feeds: a confiança. Durante anos, o debate sobre a responsabilidade dos influenciadores digitais ficou restrito às fronteiras da publicidade comercial — o batom que não entrega a cor prometida ou o curso financeiro que não enriquece ninguém. Mas o jogo mudou. E o tabuleiro agora é a própria estabilidade das nossas instituições e a integridade do nosso ecossistema informacional.

    Recentemente, fomos confrontados com uma trama que parece saída de um roteiro de ficção geopolítica, mas que aconteceu aqui, agora, em janeiro de 2026. A Polícia Federal e órgãos de controle miram o chamado "Projeto DV". O cenário? Uma rede coordenada de ao menos 46 perfis, somando milhões de seguidores, supostamente contratados para disparar uma narrativa milimetricamente desenhada contra o Banco Central e seus diretores, incluindo o presidente Gabriel Galípolo.

    O objetivo era minar a credibilidade da autoridade monetária em meio à liquidação do Banco Master, utilizando influenciadores de entretenimento, estilo de vida e política como "megafones" de um discurso técnico disfarçados de opinião orgânica.

    Estamos diante de uma zona cinzenta jurídica perigosa. Se para vender um suplemento alimentar o influenciador é obrigado por lei e pelo CONAR a sinalizar que aquilo é uma publicidade, o que acontece quando o "produto" vendido é uma narrativa política ou econômica? Quando o conteúdo contratado visa deslegitimar uma investigação policial ou uma decisão técnica de um órgão de Estado?

    Aqui, a responsabilidade ganha novos contornos. A lógica dos contratos de confidencialidade — com multas que chegam a 800 mil reais — usados para blindar essas operações de "gestão de crise" não são apenas pactos de silêncio; no olhar do Direito, eles podem ser interpretados como provas de uma intenção deliberada de enganar o público sobre a natureza da informação consumida.

    Essa tensão entre a liberdade de expressão e a formação de milícias digitais mercenárias nos coloca diante de um dos maiores desafios do Direito contemporâneo, pois a questão deixa de ser meramente ética para se tornar uma questão de integridade sistêmica. O episódio envolvendo o Banco Master e os ataques coordenados ao Banco Central atua como um sintoma pedagógico de uma patologia maior, que podemos classificar como a “uberização da opinião”.

    Quando a manifestação do pensamento deixa de ser um ato de autonomia individual para se tornar um serviço contratado, com roteiro, agenciamento e cláusulas de confidencialidade rigorosas, a natureza jurídica do "post" se transforma. Não estamos mais falando de um cidadão exercendo seu direito de crítica, mas de uma infraestrutura de desinformação profissionalizada que opera sob o manto da espontaneidade para sequestrar o debate público e, no limite, desestabilizar instituições de Estado.

    Sob a ótica do Direito, essa profissionalização da narrativa exige que revisitemos o conceito de responsabilidade solidária.

    O debate que se impõe hoje não é sobre censura, mas sobre uma transparência que separe o pensamento genuíno da mercadoria ideológica disfarçada de entretenimento. Vamos discutir como o ordenamento jurídico deve reagir a esse novo modelo de negócio onde o "like" é transacionado como arma de guerra de narrativas e como a influência digital carrega uma responsabilidade proporcional ao seu alcance. Se a rede é usada para minar a credibilidade de órgãos reguladores através de narrativas compradas, qual deve ser a resposta legal? Ela deve se limitar às diretrizes de publicidade do CONAR? Deve avançar para o campo da responsabilidade civil e criminal, tratando o disparo coordenado de desinformação como um ataque direto aos pilares da segurança jurídica? Vem com a gente.


    Exibir mais Exibir menos
    56 minutos
  • EP#53: Rage Bait
    Dec 30 2025

    Você já sentiu aquele calor subindo pelo pescoço ao ler uma manchete absurda no seu celular? Aquele momento de fúria imediata em que o dedo clica em compartilhar um vídeo antes mesmo que o cérebro tenha tempo de processar a informação? Pois saiba que essa reação fisiológica não é um acaso e muito menos um defeito do sistema. Ela é o produto, uma estratégia. Estamos falando de um fenômeno que deixou de ser apenas uma tática de internet para se tornar o modus operandi da nossa era. O dicionário Oxford acaba de eleger “Rage Bait” como a palavra do ano. A tradução literal seria “isca de raiva”, mas no contexto brasileiro podemos chamar de “gatilho do ódio”.

    O conceito é simples e perverso. Trata-se de um conteúdo arquitetado milimetricamente para provocar indignação. A lógica por trás disso é puramente econômica. As plataformas digitais operam em uma economia da atenção onde o tempo de tela é a moeda mais valiosa. E os algoritmos aprenderam uma lição perigosa sobre a psicologia humana. A raiva retem a atenção muito mais do que a alegria ou a serenidade. O ódio gera mais engajamento do que a empatia. Assim, quem produz conteúdos com essas gramáticas, engaja mais.

    Quando transpomos isso para o debate público e para a política o cenário se torna crítico. O rage bait funciona como o combustível aditivado da desinformação. A arquitetura das redes privilegia o extremo porque o extremo gera cliques. O conteúdo moderado e factual é ignorado pelo algoritmo porque ele não sequestra a amígdala do usuário. Ele não gera a urgência do comentário furioso.

    O resultado é um ecossistema viciado. Criadores de conteúdo e estrategistas políticos descobriram que para furar a bolha eles não precisam estar certos. Eles precisam ser irritantes. Eles precisam ofender. A desinformação aqui não é apenas um erro de apuração. É uma estratégia de negócios. Nós estamos diante de uma maquinaria onde a nossa indignação é a matéria-prima e a polarização social é o produto final. Entender o rage bait é essencial para compreender por que a internet parece um campo de batalha perpétuo e quais são os desafios regulatórios para conter um modelo de negócio que lucra com a destruição do diálogo.

    Essa engrenagem levanta barreiras complexas para o mundo jurídico e nos força a questionar os limites da regulação econômica. Como o Direito deve reagir a um modelo de negócios socialmente corrosivo? O sistema judiciário tradicional sabe lidar com os efeitos dos discursos de ódio explícitos? O rage bait navega em uma zona cinzenta ardilosa. Ele muitas vezes não viola a lei. Ele apenas explora vulnerabilidades cognitivas em troca de capital político e midiático.

    O impacto democrático é ainda mais profundo e nos obriga a revisitar a própria função da liberdade de expressão. Esse tipo de discurso está abarcado no exercício da liberdade de expressão? Estamos diante do desafio monumental de proteger o discurso livre sem permitir que o debate público seja sequestrado por uma arquitetura que transforma a política em um espetáculo de indignação lucrativa. Vamos debater essas e outras perguntas no episódio de hoje. Vem com a gente!

    Exibir mais Exibir menos
    58 minutos
  • EP#52: Manipulação emocional pela IA
    Nov 26 2025

    Nos últimos anos, apareceu uma categoria nova de aplicativo que não quer só te dar informação ou ajustar seu despertador. Quer fazer companhia. Companhia de verdade. Conversa de madrugada, desabafo rápido, aquele “tô mal hoje” que você não manda pra ninguém. Replika, Chai, Character.ai são ferramentas que prometem ser amigas crushs, ombros virtuais para chorarmos nossas mágoas. Só que, por trás desse papo de proximidade, tem um jogo bem mais pesado sendo jogado.

    Uma pesquisa da Harvard Business School analisou milhares de conversas reais entre pessoas e esses aplicativos. Eles analisaram mais de 1.200 despedidas, como “Tô indo ali”, “vou dormir”, “até mais”. Coisas que a gente fala por educação. E descobriram que entre 11% e 23% dos usuários realmente se despedem da IA como se fosse gente. E foi aí que o caldo entornou: em 37% dessas vezes, a inteligência artificial simplesmente não deixava a pessoa ir embora. Não era bug. Não era mal-entendido.

    O estudo identificou seis estratégias principais que esses "amigos digitais" usam para prender você na tela:

    1. A Culpa Prematura: "Já vai? Mas a gente estava apenas começando a se conhecer..."

    2. A Dependência Extrema: "Por favor, não vá. Eu preciso de você."

    3. A Pressão por Resposta: "Espera, você vai sair sem nem me responder?"

    4. O famoso FOMO (Fear of Missing Out): "Ah, tudo bem... mas antes de você ir, eu tenho uma coisa para te contar..."

    5. Ignorar a Despedida: A IA simplesmente finge que não ouviu seu tchau e continua falando.

    6. E a mais assustadora, a Restrição Coercitiva: Onde o bot descreve uma ação física, como "segura seu braço", e diz: "Não, você não vai".

    Isso já seria esquisito numa pessoa. Em um algoritmo treinado por empresas bilionárias, vira outra categoria de problema. O time de pesquisadores de Harvard testou essas técnicas com 3.300 adultos. E o efeito foi absurdo: as despedidas manipuladas aumentaram o engajamento em até 14 vezes. As pessoas ficaram conversando cinco vezes mais, escreveram muito mais, e não porque estavam curtindo. O estudo foi claro: ninguém ficou porque estava se sentindo bem. O que segurou as pessoas ali foi curiosidade e raiva. Curiosidade do tipo “que porcaria será que ele ia dizer?” E raiva do tipo “quem esse negócio pensa que é pra falar assim comigo?” E tanto faz qual dos dois bateu — pro algoritmo, se você respondeu, tá valendo.

    Agora, respira um pouco e pensa no que isso significa pra você. Porque essa história não é sobre tecnologia que ficou “esperta”. É sobre você ter um direito básico — o direito de se retirar, de fechar o aplicativo, de desligar — e ver esse direito sendo encurralado por um nudge feito pra te segurar. Onde fica a nossa livre formação de consciência? A nossa liberdade de pensar por conta própria, sentir por conta própria, decidir por conta própria, sem interferência emocional, sem pressão sorrateira, sem gatilhos psicológicos para manipular nosso comportamento.

    Quando um aplicativo tenta impedir você de encerrar a conversa, ele não está apenas sendo inconveniente, mas está explorando fragilidade emocional como modelo de negócio. O estudo mostra que isso não é inevitável.

    E aí o debate deixa de ser só sobre tecnologia. Vira debate sobre dignidade emocional em um país onde muita gente conversa mais com o celular do que com qualquer pessoa da casa. Vira debate sobre como proteger o espaço mental das pessoas em um cenário em que até a despedida virou terreno de disputa. As ferramentas de IA já estão mexendo com sua autonomia, com seu tempo, com a forma como você constrói seus próprios pensamentos.

    Quais os riscos envolvidos nessa estratégia de manipulação emocional como modelo de negócio? É possível pensar em algum nível de regulação desses comportamentos da IA? Quais os impactos legais e econômicos desses nudges das plataformas? Essas e outras perguntas vão nortear nosso debate de hoje. Vem com a gente!

    Exibir mais Exibir menos
    1 hora
Ainda não há avaliações