Direito Digital Podcast Por Ana Frazão e Caitlin Mulholland capa

Direito Digital

Direito Digital

De: Ana Frazão e Caitlin Mulholland
Ouça grátis

Sobre este título

Podcast sobre temas atuais do Direito Digital apresentado por Ana Frazão, professora de Direito Comercial e Econômico da Universidade de Brasília, e por Caitlin Mulholland, professora de Direito Civil da PUC do Rio de Janeiro.Ana Frazão e Caitlin Mulholland
Episódios
  • EP#53: Rage Bait
    Dec 30 2025

    Você já sentiu aquele calor subindo pelo pescoço ao ler uma manchete absurda no seu celular? Aquele momento de fúria imediata em que o dedo clica em compartilhar um vídeo antes mesmo que o cérebro tenha tempo de processar a informação? Pois saiba que essa reação fisiológica não é um acaso e muito menos um defeito do sistema. Ela é o produto, uma estratégia. Estamos falando de um fenômeno que deixou de ser apenas uma tática de internet para se tornar o modus operandi da nossa era. O dicionário Oxford acaba de eleger “Rage Bait” como a palavra do ano. A tradução literal seria “isca de raiva”, mas no contexto brasileiro podemos chamar de “gatilho do ódio”.

    O conceito é simples e perverso. Trata-se de um conteúdo arquitetado milimetricamente para provocar indignação. A lógica por trás disso é puramente econômica. As plataformas digitais operam em uma economia da atenção onde o tempo de tela é a moeda mais valiosa. E os algoritmos aprenderam uma lição perigosa sobre a psicologia humana. A raiva retem a atenção muito mais do que a alegria ou a serenidade. O ódio gera mais engajamento do que a empatia. Assim, quem produz conteúdos com essas gramáticas, engaja mais.

    Quando transpomos isso para o debate público e para a política o cenário se torna crítico. O rage bait funciona como o combustível aditivado da desinformação. A arquitetura das redes privilegia o extremo porque o extremo gera cliques. O conteúdo moderado e factual é ignorado pelo algoritmo porque ele não sequestra a amígdala do usuário. Ele não gera a urgência do comentário furioso.

    O resultado é um ecossistema viciado. Criadores de conteúdo e estrategistas políticos descobriram que para furar a bolha eles não precisam estar certos. Eles precisam ser irritantes. Eles precisam ofender. A desinformação aqui não é apenas um erro de apuração. É uma estratégia de negócios. Nós estamos diante de uma maquinaria onde a nossa indignação é a matéria-prima e a polarização social é o produto final. Entender o rage bait é essencial para compreender por que a internet parece um campo de batalha perpétuo e quais são os desafios regulatórios para conter um modelo de negócio que lucra com a destruição do diálogo.

    Essa engrenagem levanta barreiras complexas para o mundo jurídico e nos força a questionar os limites da regulação econômica. Como o Direito deve reagir a um modelo de negócios socialmente corrosivo? O sistema judiciário tradicional sabe lidar com os efeitos dos discursos de ódio explícitos? O rage bait navega em uma zona cinzenta ardilosa. Ele muitas vezes não viola a lei. Ele apenas explora vulnerabilidades cognitivas em troca de capital político e midiático.

    O impacto democrático é ainda mais profundo e nos obriga a revisitar a própria função da liberdade de expressão. Esse tipo de discurso está abarcado no exercício da liberdade de expressão? Estamos diante do desafio monumental de proteger o discurso livre sem permitir que o debate público seja sequestrado por uma arquitetura que transforma a política em um espetáculo de indignação lucrativa. Vamos debater essas e outras perguntas no episódio de hoje. Vem com a gente!

    Exibir mais Exibir menos
    58 minutos
  • EP#52: Manipulação emocional pela IA
    Nov 26 2025

    Nos últimos anos, apareceu uma categoria nova de aplicativo que não quer só te dar informação ou ajustar seu despertador. Quer fazer companhia. Companhia de verdade. Conversa de madrugada, desabafo rápido, aquele “tô mal hoje” que você não manda pra ninguém. Replika, Chai, Character.ai são ferramentas que prometem ser amigas crushs, ombros virtuais para chorarmos nossas mágoas. Só que, por trás desse papo de proximidade, tem um jogo bem mais pesado sendo jogado.

    Uma pesquisa da Harvard Business School analisou milhares de conversas reais entre pessoas e esses aplicativos. Eles analisaram mais de 1.200 despedidas, como “Tô indo ali”, “vou dormir”, “até mais”. Coisas que a gente fala por educação. E descobriram que entre 11% e 23% dos usuários realmente se despedem da IA como se fosse gente. E foi aí que o caldo entornou: em 37% dessas vezes, a inteligência artificial simplesmente não deixava a pessoa ir embora. Não era bug. Não era mal-entendido.

    O estudo identificou seis estratégias principais que esses "amigos digitais" usam para prender você na tela:

    1. A Culpa Prematura: "Já vai? Mas a gente estava apenas começando a se conhecer..."

    2. A Dependência Extrema: "Por favor, não vá. Eu preciso de você."

    3. A Pressão por Resposta: "Espera, você vai sair sem nem me responder?"

    4. O famoso FOMO (Fear of Missing Out): "Ah, tudo bem... mas antes de você ir, eu tenho uma coisa para te contar..."

    5. Ignorar a Despedida: A IA simplesmente finge que não ouviu seu tchau e continua falando.

    6. E a mais assustadora, a Restrição Coercitiva: Onde o bot descreve uma ação física, como "segura seu braço", e diz: "Não, você não vai".

    Isso já seria esquisito numa pessoa. Em um algoritmo treinado por empresas bilionárias, vira outra categoria de problema. O time de pesquisadores de Harvard testou essas técnicas com 3.300 adultos. E o efeito foi absurdo: as despedidas manipuladas aumentaram o engajamento em até 14 vezes. As pessoas ficaram conversando cinco vezes mais, escreveram muito mais, e não porque estavam curtindo. O estudo foi claro: ninguém ficou porque estava se sentindo bem. O que segurou as pessoas ali foi curiosidade e raiva. Curiosidade do tipo “que porcaria será que ele ia dizer?” E raiva do tipo “quem esse negócio pensa que é pra falar assim comigo?” E tanto faz qual dos dois bateu — pro algoritmo, se você respondeu, tá valendo.

    Agora, respira um pouco e pensa no que isso significa pra você. Porque essa história não é sobre tecnologia que ficou “esperta”. É sobre você ter um direito básico — o direito de se retirar, de fechar o aplicativo, de desligar — e ver esse direito sendo encurralado por um nudge feito pra te segurar. Onde fica a nossa livre formação de consciência? A nossa liberdade de pensar por conta própria, sentir por conta própria, decidir por conta própria, sem interferência emocional, sem pressão sorrateira, sem gatilhos psicológicos para manipular nosso comportamento.

    Quando um aplicativo tenta impedir você de encerrar a conversa, ele não está apenas sendo inconveniente, mas está explorando fragilidade emocional como modelo de negócio. O estudo mostra que isso não é inevitável.

    E aí o debate deixa de ser só sobre tecnologia. Vira debate sobre dignidade emocional em um país onde muita gente conversa mais com o celular do que com qualquer pessoa da casa. Vira debate sobre como proteger o espaço mental das pessoas em um cenário em que até a despedida virou terreno de disputa. As ferramentas de IA já estão mexendo com sua autonomia, com seu tempo, com a forma como você constrói seus próprios pensamentos.

    Quais os riscos envolvidos nessa estratégia de manipulação emocional como modelo de negócio? É possível pensar em algum nível de regulação desses comportamentos da IA? Quais os impactos legais e econômicos desses nudges das plataformas? Essas e outras perguntas vão nortear nosso debate de hoje. Vem com a gente!

    Exibir mais Exibir menos
    1 hora
  • EP#51: Contratos Algorítmicos, com prof. José Faleiros Júnior
    Oct 29 2025

    Imagine uma grande empresa de logística que depende de um fornecedor de peças raras em outro continente. Em vez de depender de advogados, corretores e bancos para gerenciar pagamentos, inspeções e entregas, essa empresa utiliza um sistema que chamaremos de Contrato Algorítmico. Este contrato não é um mero PDF assinado digitalmente. É um código de computador, um arranjo automatizado, robustecido por Inteligência Artificial (IA) e aprendizado de máquina (machine learning).

    À medida que o navio do fornecedor viaja, o algoritmo monitora variáveis em tempo real através de sensores e APIs (Interfaces de Programação de Aplicações): o preço do combustível, atrasos devido a tempestades imprevistas, flutuações cambiais. Se um evento extraordinário (como um aumento súbito e brutal no custo do combustível) ameaça o equilíbrio financeiro, o algoritmo não espera por uma renegociação humana. Em vez disso, ele recalcula automaticamente os custos e dispara um ajuste de preço ao comprador, dentro de parâmetros de risco e lucro previamente definidos pelas partes. Uma vez que o navio atraca e o sensor confirma a qualidade e a quantidade das peças (um fato verificável por código), o pagamento é liberado instantaneamente e de forma autônoma, sem que ninguém precise clicar em "autorizar" ou "enviar".

    Essa execução impecável e autodirigida é a essência do contrato algorítmico. Em sua forma mais refinada, este contrato não é apenas um novo tipo de documento digital — é um novo modo de pensar o próprio ato de contratar. Ele é, ao mesmo tempo, código e compromisso; automação e confiança. Trata-se de um acordo automatizado que utiliza inteligência artificial e aprendizado de máquina para cumprir obrigações de maneira autônoma, ajustando-se em tempo real a eventos e variáveis do mundo.


    Exibir mais Exibir menos
    51 minutos
Ainda não há avaliações