Direito Digital

De: Ana Frazão e Caitlin Mulholland
  • Sumário

  • Podcast sobre temas atuais do Direito Digital apresentado por Ana Frazão, professora de Direito Comercial e Econômico da Universidade de Brasília, e por Caitlin Mulholland, professora de Direito Civil da PUC do Rio de Janeiro.
    Ana Frazão e Caitlin Mulholland
    Exibir mais Exibir menos
Episódios
  • EP#44: Nova Resolução do CNJ sobre uso de IA no Judiciário
    Mar 31 2025

    Há alguns meses fizemos um episódio sobre o uso de IA pelo poder Judiciário e no último dia 14 de março, o Conselho Nacional de Justiça publicou a Resolução CNJ nº 615/2025, estabelecendo diretrizes para o uso de ferramentas de IA por magistrados, servidores e tribunais em todo o país. A norma veio em meio ao crescimento vertiginoso de soluções generativas como o ChatGPT e ao avanço da jurimetria e da automação em cortes estaduais e federais. Era urgente haver um marco regulatório — e ele veio. Mas será que veio como deveria?

    A resolução é extensa, tem quase cinquenta artigos e traz um arsenal de boas intenções: regras de governança, diretrizes de transparência, classificação de riscos, exigência de auditoria e até a criação de um Comitê Nacional de Inteligência Artificial do Judiciário, composto por representantes do MP, da Defensoria, da OAB e da sociedade civil. Parece um avanço. E de fato é. Mas como todo avanço, carrega riscos e contradições — e é justamente sobre isso que vamos falar neste episódio.

    De um lado, a resolução segue padrões internacionais, como o AI Act da União Europeia, adotando uma lógica de regulação por risco. Ferramentas que avaliam comportamento ou traçam perfis biométricos, por exemplo, foram corretamente classificadas como de alto risco e, portanto, vedadas ou submetidas a regras rígidas. Também há vedações claras ao uso de IA em decisões que envolvam dados sigilosos, e exige-se que os modelos contratados passem por auditorias técnicas. Até aqui, ótimo.

    Mas do outro lado, a norma parece tropeçar onde não poderia. E a crítica dos especialistas é quase uníssona: muitas das funções consideradas de “baixo risco” envolvem, na prática, atividades essenciais ao processo de decisão judicial. A extração de dados, a classificação de documentos, a sugestão de jurisprudência e até a geração de textos-base para decisões judiciais foram enquadradas como inofensivas — quando, na verdade, estão no centro do debate sobre o papel da IA no processo.

    O que acontece se o juiz passa a simplesmente referendar aquilo que a máquina lhe entrega como rascunho? O que significa, na prática, permitir o uso de IA como “suporte à decisão” sem exigir uma supervisão humana robusta e tecnicamente qualificada? E mais: que tipo de incentivos e pressões esse uso gera para acelerar julgamentos, sacrificar a análise contextual ou promover decisões padronizadas e desumanizadas?

    A preocupação aumenta quando se vê que a Resolução autoriza magistrados a contratar diretamente soluções privadas de IA generativa, como os modelos que já conhecemos, sem oferecer ferramentas institucionais equivalentes. Isso mesmo: na ausência de uma solução oficial, o juiz pode usar o que estiver à mão — desde que siga algumas diretrizes e faça um curso de capacitação.

    Mas quem garante que as cláusulas contratuais negociadas por um juiz, individualmente, conseguirão limitar o uso indevido de dados por big techs ou evitar conflitos de interesse com empresas que também são partes em processos? É possível confiar em uma regulação que joga para o contrato particular a contenção de riscos sistêmicos? Especialistas alertam: isso é terceirizar a responsabilidade do Estado e fragilizar a confiança no sistema de Justiça. Além disso, há silêncio quase absoluto sobre segredo de negócios, vieses algorítmicos e os conflitos éticos da IA generativa. A resolução diz que tudo deve ser transparente e seguro, mas não indica os mecanismos para garantir essa segurança — especialmente em um país que é, hoje, o vice-campeão mundial em ataques cibernéticos.

    O episódio de hoje vai explorar todos esses pontos. Vamos apresentar a resolução em detalhes, ouvir vozes críticas e favoráveis, e discutir por que a IA não pode ser vista apenas como ferramenta, mas sim como um ator com agência, com impacto real na construção das decisões judiciais. Vem com a gente!



    Exibir mais Exibir menos
    1 hora e 2 minutos
  • EP#43: Teoria da Internet Morta e a circulação de conteúdos gerados por IA
    Feb 26 2025

    Você já teve aquela sensação estranha de que algo mudou na internet? De que os conteúdos parecem cada vez mais genéricos, as interações menos autênticas e que, no fundo, algo essencial se perdeu? Pois é, você não está sozinho.


    Nos últimos anos, uma teoria ganhou força e vem assombrando quem cresceu acreditando que a internet era um espaço de conexão real entre pessoas: a Teoria da Internet Morta. Segundo essa ideia, a web que conhecíamos morreu. Mas não foi do nada, nem por um colapso. Ela teria sido lentamente tomada por máquinas, bots e inteligências artificiais, que agora dominam o fluxo de informação, criando e distribuindo conteúdo em uma escala nunca antes vista.


    E acredite: os números sustentam esse medo. Hoje, quase 50% do tráfego na internet já é gerado por robôs. Mas não aqueles robozinhos simpáticos de filmes. Muitos são bots criados para manipular debates, espalhar desinformação, enganar sistemas e, claro, manter a roda da economia digital girando. E aqui vai um dado ainda mais insano: 99% do conteúdo postado na internet em cinco anos será gerado por Inteligência Artificial.


    Agora, pare e pense: se quase tudo o que você vê online está sendo criado por máquinas, quem realmente está no controle da conversa? Curiosamente, quando essa teoria começou a circular, lá por 2021, o medo era outro: o de que os algoritmos estivessem transformando as pessoas em robôs. A internet estava se tornando um ambiente tóxico, onde tudo parecia fabricado para prender a nossa atenção e induzir reações automáticas. Mas o que ninguém esperava era o que aconteceu depois: os robôs não só passaram a influenciar como também começaram a produzir o próprio conteúdo.


    Ou seja, a internet não morreu, mas algo definitivamente mudou. A rede que antes era feita por humanos, para humanos, virou uma espécie de arena onde máquinas falam com máquinas — e nós, bem… estamos só assistindo.


    E isso não é ficção. Um estudo da McAfee revelou que 77% dos usuários de aplicativos de relacionamento já se depararam com perfis gerados por Inteligência Artificial, incluindo fotos criadas por algoritmos, e 26% acabaram flertando com robôs sem perceber. Isso levanta um debate ético e jurídico importante: até que ponto interações online podem ser consideradas autênticas quando a maioria delas já não é mais realizada entre seres humanos?


    Se tudo continuar nesse ritmo, existe uma grande possibilidade de que, no futuro, a ideia de uma internet feita por humanos pareça tão ultrapassada quanto um telefone de disco. Ronaldo Lemos, especialista em tecnologia, descreve essa mudança de um jeito quase poético: "Para as gerações futuras, essa ideia poderá parecer antiquada ou até grotesca: uma internet humana como um cobertor feito de retalhos, esquecido em algum canto mofado do passado”.


    Isso significa que estamos condenados a viver em um universo digital dominado por IAs, onde nunca mais saberemos se estamos falando com uma pessoa de verdade ou apenas com um algoritmo que aprendeu a imitar a humanidade?


    Bom, essa é uma discussão que vai muito além de simples nostalgia. A pergunta que fica é: se a internet está morta, quem ou o quê está escrevendo a história agora?


    Se você acha que isso não te afeta, pense de novo. A IA já está ditando o que você lê, o que você assiste e até o que você pensa ser verdade. Mas será que ainda dá tempo de puxar o freio? É sobre isso que vamos falar neste episódio.


    Exibir mais Exibir menos
    58 minutos
  • EP#42: Os impactos da mudança de políticas do Meta
    Feb 5 2025

    Um dia após a certificação da vitória de Donald Trump no Congresso Americano, o presidente da Meta, Mark Zuckerberg, anunciou mudanças significativas na política de verificação de informações da empresa. Segundo ele, a plataforma “deixará de investir amplamente em parcerias com organizações independentes de checagem de fatos, adotando critérios mais brandos para identificação de conteúdos falsos ou enganosos em suas plataformas, como Facebook e Instagram”. Essa decisão marca uma guinada em relação à postura rígida da empresa em 2020, quando, em resposta à crescente disseminação de fake news durante as eleições norte-americanas e à pandemia de COVID-19, ampliou parcerias com checadores e implementou sistemas robustos para limitar o alcance de desinformação.


    O retorno de Donald Trump à presidência dos Estados Unidos adiciona uma camada de complexidade a essa decisão. Trump sempre foi crítico das políticas de moderação das Big Techs, defendendo maior liberdade de expressão nas plataformas, mesmo diante de conteúdos potencialmente danosos. Especialistas apontam que a Meta esteja tentando se alinhar a um cenário político mais favorável à flexibilização de regulações, antecipando possíveis mudanças legislativas e judiciais que possam impactar diretamente seu modelo de negócios.


    No contexto brasileiro, o impacto dessas alterações já é evidente. A recente resposta da Meta à Advocacia-Geral da União (AGU) deixou claro que a empresa não pretende ceder às pressões do governo brasileiro por maior moderação de conteúdos relacionados a discurso de ódio e desinformação. As primeiras manifestações dos ministros da Suprema Corte brasileira foram no sentido de cautela, alertando que a plataforma precisa se adaptar à legislação brasileira para poder operar em território brasileiro.


    No plano jurídico, a Meta argumentou em sua resposta à AGU que sua política global deve ser respeitada em cada jurisdição, defendendo “a liberdade de expressão como valor universal”. No entanto, especialistas têm destacado que essa abordagem pode abrir portas para a disseminação de conteúdos tóxicos e desinformação em massa. A flexibilização dos critérios de moderação é preocupante, dado o cenário atual de elevada polarização política e a fragilidade informacional em países como o Brasil.


    Relatório da OCDE “Fatos, Não Mentiras”, publicado em 2024, destaca como a integridade da informação é essencial para preservar a democracia e proteger a sociedade de riscos associados à desinformação e manipulação informacional. Dentre 21 países, o Brasil obteve a pior performance ao identificar se as informações são verdadeiras, com apenas 54% da população conseguindo distinguir entre conteúdos verdadeiros e falsos.



    Quais serão os impactos dessa mudança de postura da meta? Essas alterações podem piorar a qualidade do ambiente digital? Em que medida o anúncio foi um gesto mais político do que uma alteração global de sua lógica de negócio? Quais os riscos que a plataforma pode enfrentar em países como o Brasil e em regiões com legislação mais consolidada, como a União Europeia? Essas e outras perguntas vão guiar nosso debate no episódio de hoje. Vem com a gente.


    Apresentação: Ana Frazão e Caitlin Mulholland

    Produção: José Jance Marques

    Exibir mais Exibir menos
    55 minutos

O que os ouvintes dizem sobre Direito Digital

Nota média dos ouvintes. Apenas ouvintes que tiverem escutado o título podem escrever avaliações.

Avaliações - Selecione as abas abaixo para mudar a fonte das avaliações.