Direito Digital Podcast Por Ana Frazão e Caitlin Mulholland capa

Direito Digital

Direito Digital

De: Ana Frazão e Caitlin Mulholland
Ouça grátis

Sobre este título

Podcast sobre temas atuais do Direito Digital apresentado por Ana Frazão, professora de Direito Comercial e Econômico da Universidade de Brasília, e por Caitlin Mulholland, professora de Direito Civil da PUC do Rio de Janeiro.Ana Frazão e Caitlin Mulholland
Episódios
  • EP#52: Manipulação emocional pela IA
    Nov 26 2025

    Nos últimos anos, apareceu uma categoria nova de aplicativo que não quer só te dar informação ou ajustar seu despertador. Quer fazer companhia. Companhia de verdade. Conversa de madrugada, desabafo rápido, aquele “tô mal hoje” que você não manda pra ninguém. Replika, Chai, Character.ai são ferramentas que prometem ser amigas crushs, ombros virtuais para chorarmos nossas mágoas. Só que, por trás desse papo de proximidade, tem um jogo bem mais pesado sendo jogado.

    Uma pesquisa da Harvard Business School analisou milhares de conversas reais entre pessoas e esses aplicativos. Eles analisaram mais de 1.200 despedidas, como “Tô indo ali”, “vou dormir”, “até mais”. Coisas que a gente fala por educação. E descobriram que entre 11% e 23% dos usuários realmente se despedem da IA como se fosse gente. E foi aí que o caldo entornou: em 37% dessas vezes, a inteligência artificial simplesmente não deixava a pessoa ir embora. Não era bug. Não era mal-entendido.

    O estudo identificou seis estratégias principais que esses "amigos digitais" usam para prender você na tela:

    1. A Culpa Prematura: "Já vai? Mas a gente estava apenas começando a se conhecer..."

    2. A Dependência Extrema: "Por favor, não vá. Eu preciso de você."

    3. A Pressão por Resposta: "Espera, você vai sair sem nem me responder?"

    4. O famoso FOMO (Fear of Missing Out): "Ah, tudo bem... mas antes de você ir, eu tenho uma coisa para te contar..."

    5. Ignorar a Despedida: A IA simplesmente finge que não ouviu seu tchau e continua falando.

    6. E a mais assustadora, a Restrição Coercitiva: Onde o bot descreve uma ação física, como "segura seu braço", e diz: "Não, você não vai".

    Isso já seria esquisito numa pessoa. Em um algoritmo treinado por empresas bilionárias, vira outra categoria de problema. O time de pesquisadores de Harvard testou essas técnicas com 3.300 adultos. E o efeito foi absurdo: as despedidas manipuladas aumentaram o engajamento em até 14 vezes. As pessoas ficaram conversando cinco vezes mais, escreveram muito mais, e não porque estavam curtindo. O estudo foi claro: ninguém ficou porque estava se sentindo bem. O que segurou as pessoas ali foi curiosidade e raiva. Curiosidade do tipo “que porcaria será que ele ia dizer?” E raiva do tipo “quem esse negócio pensa que é pra falar assim comigo?” E tanto faz qual dos dois bateu — pro algoritmo, se você respondeu, tá valendo.

    Agora, respira um pouco e pensa no que isso significa pra você. Porque essa história não é sobre tecnologia que ficou “esperta”. É sobre você ter um direito básico — o direito de se retirar, de fechar o aplicativo, de desligar — e ver esse direito sendo encurralado por um nudge feito pra te segurar. Onde fica a nossa livre formação de consciência? A nossa liberdade de pensar por conta própria, sentir por conta própria, decidir por conta própria, sem interferência emocional, sem pressão sorrateira, sem gatilhos psicológicos para manipular nosso comportamento.

    Quando um aplicativo tenta impedir você de encerrar a conversa, ele não está apenas sendo inconveniente, mas está explorando fragilidade emocional como modelo de negócio. O estudo mostra que isso não é inevitável.

    E aí o debate deixa de ser só sobre tecnologia. Vira debate sobre dignidade emocional em um país onde muita gente conversa mais com o celular do que com qualquer pessoa da casa. Vira debate sobre como proteger o espaço mental das pessoas em um cenário em que até a despedida virou terreno de disputa. As ferramentas de IA já estão mexendo com sua autonomia, com seu tempo, com a forma como você constrói seus próprios pensamentos.

    Quais os riscos envolvidos nessa estratégia de manipulação emocional como modelo de negócio? É possível pensar em algum nível de regulação desses comportamentos da IA? Quais os impactos legais e econômicos desses nudges das plataformas? Essas e outras perguntas vão nortear nosso debate de hoje. Vem com a gente!

    Exibir mais Exibir menos
    1 hora
  • EP#51: Contratos Algorítmicos, com prof. José Faleiros Júnior
    Oct 29 2025

    Imagine uma grande empresa de logística que depende de um fornecedor de peças raras em outro continente. Em vez de depender de advogados, corretores e bancos para gerenciar pagamentos, inspeções e entregas, essa empresa utiliza um sistema que chamaremos de Contrato Algorítmico. Este contrato não é um mero PDF assinado digitalmente. É um código de computador, um arranjo automatizado, robustecido por Inteligência Artificial (IA) e aprendizado de máquina (machine learning).

    À medida que o navio do fornecedor viaja, o algoritmo monitora variáveis em tempo real através de sensores e APIs (Interfaces de Programação de Aplicações): o preço do combustível, atrasos devido a tempestades imprevistas, flutuações cambiais. Se um evento extraordinário (como um aumento súbito e brutal no custo do combustível) ameaça o equilíbrio financeiro, o algoritmo não espera por uma renegociação humana. Em vez disso, ele recalcula automaticamente os custos e dispara um ajuste de preço ao comprador, dentro de parâmetros de risco e lucro previamente definidos pelas partes. Uma vez que o navio atraca e o sensor confirma a qualidade e a quantidade das peças (um fato verificável por código), o pagamento é liberado instantaneamente e de forma autônoma, sem que ninguém precise clicar em "autorizar" ou "enviar".

    Essa execução impecável e autodirigida é a essência do contrato algorítmico. Em sua forma mais refinada, este contrato não é apenas um novo tipo de documento digital — é um novo modo de pensar o próprio ato de contratar. Ele é, ao mesmo tempo, código e compromisso; automação e confiança. Trata-se de um acordo automatizado que utiliza inteligência artificial e aprendizado de máquina para cumprir obrigações de maneira autônoma, ajustando-se em tempo real a eventos e variáveis do mundo.


    Exibir mais Exibir menos
    51 minutos
  • EP#50: Direitos Autorais na era da IA generativa
    Oct 1 2025

    Você abre o celular de manhã, pede um resumo das manchetes e, em segundos, o ChatGPT entrega uma versão condensada das principais notícias do dia. Conveniente, rápido, quase mágico. Mas aí surge a pergunta incômoda: se esse resumo veio de reportagens produzidas por veículos que dependem de assinaturas para pagar as contas, quem está financiando o trabalho original? É justo que uma ferramenta de inteligência artificial entregue o resultado sem passar pelo caixa do jornal? Essa tensão coloca dois valores fundamentais em rota de colisão: de um lado, o direito autoral que protege a imprensa e garante a sobrevivência do jornalismo profissional; do outro, a ideia de livre circulação da informação, uma garantias constitucional que ganha força na era digital.

    A disputa ganhou nome e número de processo. A Folha de S.Paulo processou a OpenAI em São Paulo. Pede duas frentes: que a empresa se abstenha de coletar e usar o conteúdo do jornal para treinar e para disponibilizar a usuários (inclusive em domínios sob paywall) e que indenize o uso pretérito. A petição descreve, entre outros pontos, reproduções de matérias no mesmo dia da publicação e a “burla do paywall”, caracterizando violação de direitos autorais e concorrência desleal. Há também um pedido duro: a destruição dos modelos que “incorporam” conteúdo protegido da autora, com base na Lei de Direitos Autorais.


    Enquanto isso, no Congresso, o tema está quente. A Comissão Especial do PL 2338/23, que discute a regulamentação da Inteligência artificial no Brasil, registram diagnósticos que ajudam a separar dois conflitos distintos: “treinamento” e “resultado”. Pesquisadores apontaram que muitos países já admitem exceções para mineração de texto e dados (TDM) sem exigir licenças obra a obra, e que o texto atual em debate no Brasil, ao limitar o TDM essencialmente a instituições sem fins empresariais, poderia sufocar pesquisa e inovação privadas. Também sublinharam um gargalo técnico: hoje não existe método confiável para atribuir, após o treinamento, “quanto” de uma obra específica contribuiu para o modelo — analogia do “bolo”: depois de assado, não dá para separar 10% de ovo e 2% de leite em cada fatia. Essa impossibilidade de atribuição complica qualquer modelo de remuneração granular por obra na fase de treino.

    Por outro lado, advogados, entidades de gestão e representantes de criadores foram taxativos: vigora o princípio de que uso de obra sem autorização do titular é violação; portanto, remunerar criadores cujas obras foram usadas para instruir sistemas de IA seria uma exigência coerente com a lógica da LDA. Há quem proponha, inclusive, reconhecer autoria do “sistema” com titularidade do operador/treinador — posição minoritária, mas presente no debate. Em paralelo, discute-se um “direito de veto” (opt-out) e mecanismos para restringir o uso de materiais por algoritmos, embora haja dúvidas técnicas sobre sua efetividade e rastreabilidade na prática.


    A defesa técnica dos modelos aponta limites práticos de atribuição e remoção, e argumenta que eventuais danos são compensáveis sem medidas irreversíveis — tese que pesou para o juízo ouvir a parte contrária antes de decidir a liminar. No campo legislativo, há diagnóstico empírico de que exigir licenças obra a obra no treino e métricas de contribuição por obra não é, hoje, tecnicamente escalável.

    É sobre esse tema que vamos debater no episódio de hoje. vem com a gente


    Exibir mais Exibir menos
    1 hora e 1 minuto
Ainda não há avaliações