Direito Digital Podcast Por Ana Frazão e Caitlin Mulholland capa

Direito Digital

Direito Digital

De: Ana Frazão e Caitlin Mulholland
Ouça grátis

Sobre este título

Podcast sobre temas atuais do Direito Digital apresentado por Ana Frazão, professora de Direito Comercial e Econômico da Universidade de Brasília, e por Caitlin Mulholland, professora de Direito Civil da PUC do Rio de Janeiro.Ana Frazão e Caitlin Mulholland
Episódios
  • EP#50: Direitos Autorais na era da IA generativa
    Oct 1 2025

    Você abre o celular de manhã, pede um resumo das manchetes e, em segundos, o ChatGPT entrega uma versão condensada das principais notícias do dia. Conveniente, rápido, quase mágico. Mas aí surge a pergunta incômoda: se esse resumo veio de reportagens produzidas por veículos que dependem de assinaturas para pagar as contas, quem está financiando o trabalho original? É justo que uma ferramenta de inteligência artificial entregue o resultado sem passar pelo caixa do jornal? Essa tensão coloca dois valores fundamentais em rota de colisão: de um lado, o direito autoral que protege a imprensa e garante a sobrevivência do jornalismo profissional; do outro, a ideia de livre circulação da informação, uma garantias constitucional que ganha força na era digital.

    A disputa ganhou nome e número de processo. A Folha de S.Paulo processou a OpenAI em São Paulo. Pede duas frentes: que a empresa se abstenha de coletar e usar o conteúdo do jornal para treinar e para disponibilizar a usuários (inclusive em domínios sob paywall) e que indenize o uso pretérito. A petição descreve, entre outros pontos, reproduções de matérias no mesmo dia da publicação e a “burla do paywall”, caracterizando violação de direitos autorais e concorrência desleal. Há também um pedido duro: a destruição dos modelos que “incorporam” conteúdo protegido da autora, com base na Lei de Direitos Autorais.


    Enquanto isso, no Congresso, o tema está quente. A Comissão Especial do PL 2338/23, que discute a regulamentação da Inteligência artificial no Brasil, registram diagnósticos que ajudam a separar dois conflitos distintos: “treinamento” e “resultado”. Pesquisadores apontaram que muitos países já admitem exceções para mineração de texto e dados (TDM) sem exigir licenças obra a obra, e que o texto atual em debate no Brasil, ao limitar o TDM essencialmente a instituições sem fins empresariais, poderia sufocar pesquisa e inovação privadas. Também sublinharam um gargalo técnico: hoje não existe método confiável para atribuir, após o treinamento, “quanto” de uma obra específica contribuiu para o modelo — analogia do “bolo”: depois de assado, não dá para separar 10% de ovo e 2% de leite em cada fatia. Essa impossibilidade de atribuição complica qualquer modelo de remuneração granular por obra na fase de treino.

    Por outro lado, advogados, entidades de gestão e representantes de criadores foram taxativos: vigora o princípio de que uso de obra sem autorização do titular é violação; portanto, remunerar criadores cujas obras foram usadas para instruir sistemas de IA seria uma exigência coerente com a lógica da LDA. Há quem proponha, inclusive, reconhecer autoria do “sistema” com titularidade do operador/treinador — posição minoritária, mas presente no debate. Em paralelo, discute-se um “direito de veto” (opt-out) e mecanismos para restringir o uso de materiais por algoritmos, embora haja dúvidas técnicas sobre sua efetividade e rastreabilidade na prática.


    A defesa técnica dos modelos aponta limites práticos de atribuição e remoção, e argumenta que eventuais danos são compensáveis sem medidas irreversíveis — tese que pesou para o juízo ouvir a parte contrária antes de decidir a liminar. No campo legislativo, há diagnóstico empírico de que exigir licenças obra a obra no treino e métricas de contribuição por obra não é, hoje, tecnicamente escalável.

    É sobre esse tema que vamos debater no episódio de hoje. vem com a gente


    Exibir mais Exibir menos
    1 hora e 1 minuto
  • EP#49: ECA Digital e os Perigos da Adultização de crianças na internet
    Sep 3 2025

    Imagina o seguinte cenário: um youtuber de humor, conhecido pelo estilo debochado, solta um vídeo de quase uma hora sem nenhuma piada. Nada de memes, nada de edição engraçada. Só um alerta sério, pesado e necessário. Esse foi o caso do Felca e seu vídeo sobre a adultização infantil nas redes sociais. O impacto foi imediato: milhões de visualizações em poucos dias, uma enxurrada de debates e, na sequência, prisões, CPIs e até aprovação de uma lei no Congresso.

    O gatilho foi expor como crianças e adolescentes vêm sendo transformados em “mini adultos” diante das câmeras — dançando músicas sexualizadas, falando de dinheiro, exibindo implantes, bebendo, como se a infância fosse só um trampolim para engajamento e monetização. E o símbolo dessa distorção virou o influenciador Hytalo Santos, que chamava seus seguidores mirins de “crias”, “filhas” e “genros”, colocava menores em situações de namoro e em festas com bebidas. As denúncias contra Hytalo Santos não eram totalmente novas. Desde 2024, o Ministério Público da Paraíba (MPPB) já investigava o influenciador por possível exploração de menores em seus conteúdos.

    Duas frentes de investigação foram instauradas por promotorias em João Pessoa e Bayeux, apurando se os vídeos de Hytalo possuíam teor sexual e violavam o Estatuto da Criança e do Adolescente (ECA). Na época, Hytalo defendeu-se publicamente afirmando que as mães das crianças consentiam com as gravações e que algumas adolescentes já seriam emancipadas. Ele alegou ter boa relação com as famílias, argumentando que “tudo tem o consentimento das mães”. Contudo, pela lei, mesmo o consentimento dos pais não legitima situações de possível abuso ou sexualização de menores, especialmente se houver violação de direitos fundamentais previstos no ECA.

    Após a publicação do vídeo de Felca em 6 de agosto de 2025, o caso Hytalo ganhou enorme visibilidade nacional. Nos dias imediatamente seguintes, as autoridades agiram rapidamente: em 12 de agosto, a Justiça da Paraíba determinou a suspensão de todos os perfis de Hytalo nas redes sociais (uma medida cautelar para cessar a exposição dos menores). No dia 13, foi expedido um mandado de busca e apreensão na residência do influenciador, onde a polícia apreendeu celulares e outros materiais para investigação.

    Hytalo negou as acusações em suas redes, mas a apuração prosseguiu com força total. Finalmente, em 15 de agosto de 2025, Hytalo Santos foi preso preventivamente junto com seu marido, Israel “MC Euro” Vicente. A prisão ocorreu em Carapicuíba (SP) por uma força-tarefa da Polícia Civil de São Paulo em colaboração com as autoridades da Paraíba, já que as ordens judiciais partiram da 2ª Vara de Bayeux-PB.


    Esse caso também abriu espaço para discutir um tema que parecia “inofensivo”: o sharenting, a mania de pais e mães de exporem a vida dos filhos nas redes desde o berço, que já foi tema de outro episódio do nosso podcast. Estudo recente mostra que 80% das crianças já têm presença digital antes dos dois anos. O que parecia só orgulho de família virou um prato cheio para riscos de privacidade, cyberbullying e até pedofilia. E aqui entra um dilema: até onde vai o direito dos pais de postar, e onde começa o direito da criança a não ser exposta?


    No fim das contas, o vídeo do Felca foi o estopim de um debate que não vai se encerrar tão cedo. Estamos falando de direito digital, direito da infância, responsabilidade dos pais e das plataformas. O caso Hytalo mostrou que quando a lei não chega a tempo, o mercado e a cultura online acabam preenchendo esse vácuo — quase sempre contra os interesses das crianças. E agora, como equilibrar a presença digital dos menores, que já é um fato, com a obrigação de protegê-los de abusos, exploração e superexposição? Quais os caminhos jurídicos possíveis? Regulação das plataformas é reforçada com esses episódios? É esse o ponto em que vamos discutir nesse episódio. Vem com a gente.

    Exibir mais Exibir menos
    1 hora e 1 minuto
  • EP#48: Narrativas intransigentes na regulação de IA
    Aug 6 2025

    A instalação da Comissão Especial na Câmara dos Deputados para analisar o Projeto de Lei 2338/2023 — que estabelece princípios, direitos e deveres para o desenvolvimento e uso responsável da inteligência artificial no Brasil — reaqueceu uma série de narrativas intransigentes que têm marcado os debates públicos e políticos sobre regulação tecnológica. Esses discursos, em muitos casos, desvirtuam o conteúdo do projeto e dificultam a construção de consensos mínimos sobre a urgência de um marco legal claro e democrático para a IA no país.


    É possível identificar, com base nas audiências públicas, em comunicados de entidades do setor e nas redes sociais de parlamentares e influenciadores, três grandes grupos narrativos que têm dominado os espaços de disputa: (1) narrativas econômico-liberais contra regulação, (2) narrativas ideológicas associando regulação à censura, e (3) narrativas que minimizam os riscos relacionados à proteção de dados.


    A primeira e uma das narrativas mais difundidas parte de setores empresariais e de representantes do setor tecnológico que afirmam, de forma categórica, que qualquer tentativa de regular a IA neste momento comprometerá a inovação e o desenvolvimento do país. Essa tese se expressa em formulações recorrentes como: “O PL 2338 impõe encargos que podem barrar a inovação.”; “A governança proposta é excessiva.”; “A intervenção da ANPD poderá afastar investimentos e sufocar startups.”; “O mercado se autorregula melhor.”


    A crítica mais estruturada a essa narrativa tem vindo de economistas, juristas e especialistas em direitos digitais, que lembram que setores como saúde, aviação e finanças são altamente regulados e, ainda assim, inovadores. Como ironizou o instituto Data Privacy Brasil, essas justificativas formam uma “ladainha típica de lobistas anti-regulação”, baseada em mitos não sustentados empiricamente.

    Outro conjunto de narrativas que tem contaminado o debate gira em torno da suposta intenção do projeto de censurar vozes conservadoras e de institucionalizar um “controle ideológico” das tecnologias. Essa linha discursiva, amplamente disseminada por influenciadores da extrema-direita e por parlamentares de oposição, costuma associar o PL 2338 a um projeto mais amplo de “censura digital”, ainda que o texto do projeto não trate de moderação de conteúdo nem regule redes sociais.


    Um terceiro eixo narrativo opera por meio da relativização dos riscos associados à coleta e ao uso massivo de dados pessoais para treinar sistemas de IA. Ainda que não seja amplamente vocalizada em discursos oficiais, essa narrativa circula com frequência em bastidores parlamentares e ambientes técnicos pouco sensíveis à agenda de proteção de dados. A ideia subjacente é simples, mas perigosa: “Se os dados já estão na internet, por que se preocupar em regulá-los?” Essa postura minimiza os efeitos negativos do uso não consentido de dados pessoais — inclusive sensíveis —, e desconsidera os riscos reais de discriminação algorítmica, vazamentos, manipulação comportamental e vigilância em massa.


    A crítica legítima a pontos específicos do projeto é não apenas bem-vinda como necessária — é assim que se melhora uma proposta legislativa. No episódio de hoje vamos discutir como a proliferação de narrativas intransigentes e desinformativas impede o amadurecimento do debate público e desvia o foco do que realmente importa: construir uma regulação democrática, baseada em evidências, que posicione o Brasil como um protagonista global na adoção responsável da inteligência artificial. Vem com a gente!


    Exibir mais Exibir menos
    1 hora e 1 minuto
Ainda não há avaliações