Episódios

  • EP#47: O julgamento do STF do art. 19 do MCI
    Jul 2 2025

    Por trás do artigo 19 do Marco Civil da Internet — aquele mesmo, celebrado em 2014 como guardião da liberdade de expressão no Brasil digital — esconde-se um debate explosivo, que há anos ferve, mas que agora atingiu o ponto de ebulição. Quando nasceu, ele parecia simples: se alguém se sentisse lesado por algo publicado nas redes, só com ordem judicial a plataforma deveria remover o conteúdo. A promessa era proteger o espaço do debate público, evitar censura privada, impedir que gigantes da tecnologia se tornassem juízes do que deve ou não circular.

    Mas a realidade, sempre mais complexa do que os melhores projetos de lei, mudou o jogo. As redes sociais explodiram, algoritmos tomaram conta das conversas e, com eles, cresceram também comunidades tóxicas, ataques coordenados, perfis falsos e uma enxurrada de desinformação. O cenário ficou especialmente tenso após episódios como os de 8 de janeiro de 2023, quando a democracia balançou e o país inteiro se perguntou: quem, afinal, deve responder por tanto caos digital?


    O julgamento do artigo 19 não foi um simples duelo jurídico. Foi, na verdade, a tradução das ansiedades, esperanças e medos de um país diante do colapso das fronteiras entre liberdade e responsabilidade. De um lado, a maioria dos ministros apontou que, diante dos riscos atuais, não dava mais para esperar o Legislativo. Eles defenderam um regime mais dinâmico, capaz de dar resposta rápida a violações graves, como ameaças à democracia e ataques aos direitos fundamentais. O modelo híbrido que emergiu da decisão mistura o rigor do Judiciário com a velocidade das notificações extrajudiciais: agora, em casos graves, a plataforma pode ser responsabilizada se, notificada, não agir — tudo isso sem depender de ordem judicial, salvo quando se trata de crimes contra a honra.

    Houve resistência. Três ministros insistiram que qualquer mudança estrutural deveria partir do Congresso. Argumentaram que mexer na regra do jogo sem lei específica abre caminho para ativismo judicial e riscos de censura, transferindo demais poder para as empresas. No meio do caminho, uma terceira via: preservar a exigência judicial para crimes de honra, mas impor às plataformas obrigações claras e imediatas diante de ilícitos graves — sobretudo após notificação formal.

    O resultado? Um novo regime, provisório mas robusto, que redefine o papel das plataformas, coloca o Legislativo contra a parede e empurra as empresas para uma corrida por transparência e eficiência. Agora, para e-mails, grupos privados ou crimes de honra, a velha lógica judicial se mantém. Mas para o restante, especialmente quando há nudez não consentida, conteúdo envolvendo crianças ou ações que atentem contra a democracia, a régua subiu: as plataformas precisam ser proativas, sob pena de responder por omissão.


    No plano político, a decisão foi qualquer coisa, menos neutra. Para muitos, o STF agiu para suprir uma omissão inaceitável do Congresso, defendendo direitos fundamentais num momento de crise institucional. Para outros, foi ativismo puro, ameaça à separação dos poderes e, claro, um risco à liberdade de expressão. O recado ficou claro: se o Congresso não reagir, o Judiciário está disposto a assumir o protagonismo da regulação digital, ao menos por ora.


    O sistema criado é provisório, experimental, e traz consigo insegurança jurídica. Sem uma legislação clara, cada caso será uma prova de fogo, exigindo vigilância constante da sociedade civil, da academia e de organizações de defesa dos direitos digitais.

    O que está em jogo, afinal, é o futuro da democracia digital no Brasil? O STF encerra um ciclo e inaugura outro, mais incerto e repleto de desafios? O que virá depois? É sobre isso que falaremos no episódio de hoje. Vem com a gente.


    Exibir mais Exibir menos
    1 hora e 7 minutos
  • EP#46: Dados Sintéticos
    Jun 4 2025

    Vivemos uma era movida por dados. Das decisões empresariais às políticas públicas, da publicidade personalizada aos diagnósticos médicos, passando por mecanismos de reconhecimento facial, análise preditiva e sistemas de recomendação, os dados estão em tudo. Mas e quando esses dados não estão disponíveis? Quando são incompletos, enviesados ou simplesmente impossíveis de acessar por barreiras legais, éticas ou estruturais? Nesse cenário, os dados sintéticos ganham cada vez mais espaço como solução — ou, para alguns, como um novo problema. Mas afinal, o que são dados sintéticos?

    Ao contrário do que o nome pode sugerir, dados sintéticos não são “dados falsos” no sentido vulgar da palavra. Eles são gerados artificialmente por meio de algoritmos que imitam as propriedades estatísticas dos dados reais. A ideia é que eles reproduzam padrões, correlações e comportamentos esperados, sem revelar ou expor informações verdadeiras de indivíduos ou organizações.

    Na prática, os dados sintéticos são criados a partir de dois métodos principais: a perturbação de dados reais com ruído (técnica que protege a identidade e confunde tentativas de reidentificação) e a geração completamente autônoma de novos dados por meio de modelos generativos, como os GANs (Redes Generativas Adversariais) — a mesma tecnologia por trás de deepfakes e imagens hiper-realistas geradas por IA.

    Esse avanço resolve um problema antigo: a escassez crônica de dados confiáveis. Como destacou o professor Marcelo Finger, da Universidade de São Paulo (USP), em entrevista recente, até mesmo grandes laboratórios como a OpenAI enfrentam limitações nesse aspecto. “Vivemos com a falta crônica de dados, mesmo com a OpenAI”, afirmou. Em muitos setores, como a saúde, finanças ou direito, o acesso a dados reais é cercado de sigilo, alto custo e complexidade regulatória. A alternativa? Criar dados que sejam fiéis à realidade, mas que não representem ninguém em específico.

    A adoção dessa tecnologia vem crescendo. De acordo com relatório da Gartner, até 2030, 60% dos dados utilizados para treinar modelos de IA serão sintéticos. E isso não é ficção científica — já hoje, empresas como a Nvidia, Google, Meta e startups especializadas como Synthetaic e Mostly AI investem pesadamente nessa frente. Na indústria automotiva, por exemplo, dados sintéticos são usados para simular bilhões de quilômetros rodados por veículos autônomos sem precisar sair do laboratório. Na área da saúde, permitem criar bancos de dados de pacientes fictícios que ajudam a treinar algoritmos diagnósticos sem ferir o sigilo médico.

    Há uma preocupação adicional quando esses dados alimentam sistemas com alta autonomia decisória, como sistemas judiciais automatizados, inteligência artificial em decisões administrativas ou análise de risco bancário. Nesses contextos, a ilusão de objetividade dos dados sintéticos pode ser ainda mais perigosa que o viés explícito de dados reais, justamente porque escapa à percepção crítica dos operadores.

    Outro ponto sensível é o direito à transparência. Se a IA toma decisões com base em dados que não são auditáveis, porque são sintéticos, como será possível realizar controle social, revisões judiciais ou perícias técnicas? Isso toca diretamente o coração do direito digital: o equilíbrio entre inovação e responsabilidade, entre o possível e o aceitável

    Nas universidades, o uso de dados sintéticos também se expande. Na PUC-Rio, por exemplo, pesquisadores têm estudado formas de aplicar essa tecnologia em estudos de políticas públicas, enquanto na UFRJ e na FGV surgem debates sobre os limites jurídicos e éticos da manipulação de dados no contexto da inteligência artificial.


    Neste episódio vamos aprofundar esses debates. Vamos entender como os dados sintéticos estão sendo utilizados, quais as promessas e os perigos que trazem, e de que forma o Direito pode — e deve — responder a essa nova fronteira da realidade artificial. Vem com a gente!


    Exibir mais Exibir menos
    53 minutos
  • EP#45: Críticas ao livro de Direito Digital do Novo Código Civil
    Apr 30 2025

    O avanço das tecnologias digitais revolucionou completamente nossa forma de viver, trabalhar e interagir. Redes sociais, inteligência artificial, criptomoedas e a vida digital transformaram as relações humanas, gerando novos desafios para o Direito. Diante desse cenário dinâmico e complexo, tornou-se urgente repensar o marco regulatório civil brasileiro para atender às demandas do século XXI.


    Recentemente, uma Comissão de Juristas apresentou um ousado anteprojeto de reforma do Código Civil, que inclui, pela primeira vez, um Livro específico dedicado ao Direito Digital. A intenção declarada é modernizar e adequar o ordenamento jurídico às novas realidades tecnológicas. No entanto, esse projeto, que parecia promissor, rapidamente tornou-se alvo de críticas contundentes por parte de especialistas renomados.

    Uma das vozes mais destacadas é a da jurista Judith Martins-Costa, que classifica a proposta como um exemplo claro de "populismo jurídico". Segundo ela, o texto apresenta soluções superficiais e imprecisas para questões extremamente complexas, criando um cenário de insegurança jurídica e aplicação difícil.


    Um dos pontos centrais do debate envolve os princípios gerais que sustentam a proposta. Princípios fundamentais como a dignidade da pessoa humana, privacidade, autonomia e proteção de dados pessoais deveriam guiar a legislação digital. Porém, especialistas alertam que o texto atual do anteprojeto traz definições vagas e superficiais, pouco capazes de enfrentar os desafios reais relacionados à dignidade e privacidade no ambiente virtual.


    Além disso, a questão da identidade digital e da proteção à personalidade no espaço virtual emerge como um ponto crucial e controverso. A sociedade digital enfrenta situações inéditas, como clonagem de perfis, exposição indevida e danos à reputação digital. A crítica principal é que o projeto não apresenta soluções robustas ou claras para proteger efetivamente os indivíduos dessas ameaças.


    Outro tema relevante é o patrimônio e a herança digital, uma realidade cada vez mais presente no cotidiano das pessoas. Ativos digitais como contas em redes sociais, plataformas de streaming e criptomoedas representam valores econômicos e afetivos significativos. Contudo, especialistas indicam que a proposta atual carece de critérios claros e eficientes para regulamentar a transferência desses bens após a morte dos usuários, deixando incertezas sobre o futuro desse patrimônio.


    A responsabilidade civil por danos digitais, especialmente os causados por algoritmos e inteligência artificial, também gera debates intensos. Apesar de o anteprojeto reconhecer esses desafios, críticos apontam falta de precisão e clareza na atribuição de responsabilidades jurídicas diante dos danos causados por decisões automatizadas.


    O aspecto da proteção de dados pessoais e consentimento digital aparece como um ponto-chave de articulação entre o novo Livro e regulamentações existentes, como a LGPD brasileira e o GDPR europeu. Porém, há dúvidas se o anteprojeto consegue avançar de maneira coerente e eficaz, ou se repete abordagens já existentes sem acrescentar segurança jurídica adicional.


    Grande parte das propostas do Livro de Direito Digital carece de conteúdo normativo efetivo, seja por prolixidade ou por reticência. Muitos dispositivos limitam-se a afirmar que regras já existentes no Código Civil aplicam-se "também" ao ambiente digital, criando redundâncias desnecessárias e potencialmente perigosas do ponto de vista interpretativo.


    Por exemplo, o anteprojeto propõe alterar o artigo 1.634 para estabelecer que os pais devem "fiscalizar as atividades dos filhos no ambiente digital", como se tal obrigação já não estivesse implícita no poder familiar. Similarmente, dispositivos sobre quitação de débitos são modificados para incluir expressamente a possibilidade de quitação "por meio digital", algo que já seria possível pela interpretação sistemática do ordenamento.


    Vamos debater esse assunto. Vem com a gente!


    Exibir mais Exibir menos
    59 minutos
  • EP#44: Nova Resolução do CNJ sobre uso de IA no Judiciário
    Mar 31 2025

    Há alguns meses fizemos um episódio sobre o uso de IA pelo poder Judiciário e no último dia 14 de março, o Conselho Nacional de Justiça publicou a Resolução CNJ nº 615/2025, estabelecendo diretrizes para o uso de ferramentas de IA por magistrados, servidores e tribunais em todo o país. A norma veio em meio ao crescimento vertiginoso de soluções generativas como o ChatGPT e ao avanço da jurimetria e da automação em cortes estaduais e federais. Era urgente haver um marco regulatório — e ele veio. Mas será que veio como deveria?

    A resolução é extensa, tem quase cinquenta artigos e traz um arsenal de boas intenções: regras de governança, diretrizes de transparência, classificação de riscos, exigência de auditoria e até a criação de um Comitê Nacional de Inteligência Artificial do Judiciário, composto por representantes do MP, da Defensoria, da OAB e da sociedade civil. Parece um avanço. E de fato é. Mas como todo avanço, carrega riscos e contradições — e é justamente sobre isso que vamos falar neste episódio.

    De um lado, a resolução segue padrões internacionais, como o AI Act da União Europeia, adotando uma lógica de regulação por risco. Ferramentas que avaliam comportamento ou traçam perfis biométricos, por exemplo, foram corretamente classificadas como de alto risco e, portanto, vedadas ou submetidas a regras rígidas. Também há vedações claras ao uso de IA em decisões que envolvam dados sigilosos, e exige-se que os modelos contratados passem por auditorias técnicas. Até aqui, ótimo.

    Mas do outro lado, a norma parece tropeçar onde não poderia. E a crítica dos especialistas é quase uníssona: muitas das funções consideradas de “baixo risco” envolvem, na prática, atividades essenciais ao processo de decisão judicial. A extração de dados, a classificação de documentos, a sugestão de jurisprudência e até a geração de textos-base para decisões judiciais foram enquadradas como inofensivas — quando, na verdade, estão no centro do debate sobre o papel da IA no processo.

    O que acontece se o juiz passa a simplesmente referendar aquilo que a máquina lhe entrega como rascunho? O que significa, na prática, permitir o uso de IA como “suporte à decisão” sem exigir uma supervisão humana robusta e tecnicamente qualificada? E mais: que tipo de incentivos e pressões esse uso gera para acelerar julgamentos, sacrificar a análise contextual ou promover decisões padronizadas e desumanizadas?

    A preocupação aumenta quando se vê que a Resolução autoriza magistrados a contratar diretamente soluções privadas de IA generativa, como os modelos que já conhecemos, sem oferecer ferramentas institucionais equivalentes. Isso mesmo: na ausência de uma solução oficial, o juiz pode usar o que estiver à mão — desde que siga algumas diretrizes e faça um curso de capacitação.

    Mas quem garante que as cláusulas contratuais negociadas por um juiz, individualmente, conseguirão limitar o uso indevido de dados por big techs ou evitar conflitos de interesse com empresas que também são partes em processos? É possível confiar em uma regulação que joga para o contrato particular a contenção de riscos sistêmicos? Especialistas alertam: isso é terceirizar a responsabilidade do Estado e fragilizar a confiança no sistema de Justiça. Além disso, há silêncio quase absoluto sobre segredo de negócios, vieses algorítmicos e os conflitos éticos da IA generativa. A resolução diz que tudo deve ser transparente e seguro, mas não indica os mecanismos para garantir essa segurança — especialmente em um país que é, hoje, o vice-campeão mundial em ataques cibernéticos.

    O episódio de hoje vai explorar todos esses pontos. Vamos apresentar a resolução em detalhes, ouvir vozes críticas e favoráveis, e discutir por que a IA não pode ser vista apenas como ferramenta, mas sim como um ator com agência, com impacto real na construção das decisões judiciais. Vem com a gente!



    Exibir mais Exibir menos
    1 hora e 2 minutos
  • EP#43: Teoria da Internet Morta e a circulação de conteúdos gerados por IA
    Feb 26 2025

    Você já teve aquela sensação estranha de que algo mudou na internet? De que os conteúdos parecem cada vez mais genéricos, as interações menos autênticas e que, no fundo, algo essencial se perdeu? Pois é, você não está sozinho.


    Nos últimos anos, uma teoria ganhou força e vem assombrando quem cresceu acreditando que a internet era um espaço de conexão real entre pessoas: a Teoria da Internet Morta. Segundo essa ideia, a web que conhecíamos morreu. Mas não foi do nada, nem por um colapso. Ela teria sido lentamente tomada por máquinas, bots e inteligências artificiais, que agora dominam o fluxo de informação, criando e distribuindo conteúdo em uma escala nunca antes vista.


    E acredite: os números sustentam esse medo. Hoje, quase 50% do tráfego na internet já é gerado por robôs. Mas não aqueles robozinhos simpáticos de filmes. Muitos são bots criados para manipular debates, espalhar desinformação, enganar sistemas e, claro, manter a roda da economia digital girando. E aqui vai um dado ainda mais insano: 99% do conteúdo postado na internet em cinco anos será gerado por Inteligência Artificial.


    Agora, pare e pense: se quase tudo o que você vê online está sendo criado por máquinas, quem realmente está no controle da conversa? Curiosamente, quando essa teoria começou a circular, lá por 2021, o medo era outro: o de que os algoritmos estivessem transformando as pessoas em robôs. A internet estava se tornando um ambiente tóxico, onde tudo parecia fabricado para prender a nossa atenção e induzir reações automáticas. Mas o que ninguém esperava era o que aconteceu depois: os robôs não só passaram a influenciar como também começaram a produzir o próprio conteúdo.


    Ou seja, a internet não morreu, mas algo definitivamente mudou. A rede que antes era feita por humanos, para humanos, virou uma espécie de arena onde máquinas falam com máquinas — e nós, bem… estamos só assistindo.


    E isso não é ficção. Um estudo da McAfee revelou que 77% dos usuários de aplicativos de relacionamento já se depararam com perfis gerados por Inteligência Artificial, incluindo fotos criadas por algoritmos, e 26% acabaram flertando com robôs sem perceber. Isso levanta um debate ético e jurídico importante: até que ponto interações online podem ser consideradas autênticas quando a maioria delas já não é mais realizada entre seres humanos?


    Se tudo continuar nesse ritmo, existe uma grande possibilidade de que, no futuro, a ideia de uma internet feita por humanos pareça tão ultrapassada quanto um telefone de disco. Ronaldo Lemos, especialista em tecnologia, descreve essa mudança de um jeito quase poético: "Para as gerações futuras, essa ideia poderá parecer antiquada ou até grotesca: uma internet humana como um cobertor feito de retalhos, esquecido em algum canto mofado do passado”.


    Isso significa que estamos condenados a viver em um universo digital dominado por IAs, onde nunca mais saberemos se estamos falando com uma pessoa de verdade ou apenas com um algoritmo que aprendeu a imitar a humanidade?


    Bom, essa é uma discussão que vai muito além de simples nostalgia. A pergunta que fica é: se a internet está morta, quem ou o quê está escrevendo a história agora?


    Se você acha que isso não te afeta, pense de novo. A IA já está ditando o que você lê, o que você assiste e até o que você pensa ser verdade. Mas será que ainda dá tempo de puxar o freio? É sobre isso que vamos falar neste episódio.


    Exibir mais Exibir menos
    58 minutos
  • EP#42: Os impactos da mudança de políticas do Meta
    Feb 5 2025

    Um dia após a certificação da vitória de Donald Trump no Congresso Americano, o presidente da Meta, Mark Zuckerberg, anunciou mudanças significativas na política de verificação de informações da empresa. Segundo ele, a plataforma “deixará de investir amplamente em parcerias com organizações independentes de checagem de fatos, adotando critérios mais brandos para identificação de conteúdos falsos ou enganosos em suas plataformas, como Facebook e Instagram”. Essa decisão marca uma guinada em relação à postura rígida da empresa em 2020, quando, em resposta à crescente disseminação de fake news durante as eleições norte-americanas e à pandemia de COVID-19, ampliou parcerias com checadores e implementou sistemas robustos para limitar o alcance de desinformação.


    O retorno de Donald Trump à presidência dos Estados Unidos adiciona uma camada de complexidade a essa decisão. Trump sempre foi crítico das políticas de moderação das Big Techs, defendendo maior liberdade de expressão nas plataformas, mesmo diante de conteúdos potencialmente danosos. Especialistas apontam que a Meta esteja tentando se alinhar a um cenário político mais favorável à flexibilização de regulações, antecipando possíveis mudanças legislativas e judiciais que possam impactar diretamente seu modelo de negócios.


    No contexto brasileiro, o impacto dessas alterações já é evidente. A recente resposta da Meta à Advocacia-Geral da União (AGU) deixou claro que a empresa não pretende ceder às pressões do governo brasileiro por maior moderação de conteúdos relacionados a discurso de ódio e desinformação. As primeiras manifestações dos ministros da Suprema Corte brasileira foram no sentido de cautela, alertando que a plataforma precisa se adaptar à legislação brasileira para poder operar em território brasileiro.


    No plano jurídico, a Meta argumentou em sua resposta à AGU que sua política global deve ser respeitada em cada jurisdição, defendendo “a liberdade de expressão como valor universal”. No entanto, especialistas têm destacado que essa abordagem pode abrir portas para a disseminação de conteúdos tóxicos e desinformação em massa. A flexibilização dos critérios de moderação é preocupante, dado o cenário atual de elevada polarização política e a fragilidade informacional em países como o Brasil.


    Relatório da OCDE “Fatos, Não Mentiras”, publicado em 2024, destaca como a integridade da informação é essencial para preservar a democracia e proteger a sociedade de riscos associados à desinformação e manipulação informacional. Dentre 21 países, o Brasil obteve a pior performance ao identificar se as informações são verdadeiras, com apenas 54% da população conseguindo distinguir entre conteúdos verdadeiros e falsos.



    Quais serão os impactos dessa mudança de postura da meta? Essas alterações podem piorar a qualidade do ambiente digital? Em que medida o anúncio foi um gesto mais político do que uma alteração global de sua lógica de negócio? Quais os riscos que a plataforma pode enfrentar em países como o Brasil e em regiões com legislação mais consolidada, como a União Europeia? Essas e outras perguntas vão guiar nosso debate no episódio de hoje. Vem com a gente.


    Apresentação: Ana Frazão e Caitlin Mulholland

    Produção: José Jance Marques

    Exibir mais Exibir menos
    55 minutos
  • EP#41: Inteligência Artificial, amor e sexualidade
    Nov 27 2024

    A inteligência artificial se tornou um fenômeno que revoluciona todos os setores, desde a saúde até a criação artística, mas seu impacto na esfera íntima e sexual vem gerando preocupações significativas. O advento de conteúdos adultos gerados por IA é uma realidade que cresce em ritmo acelerado, como aponta um relatório da Deep Trace, uma empresa especializada em segurança digital. Cerca de 96% dos vídeos deepfake disponíveis na internet em 2023 tinham como foco a pornografia. Mais alarmante ainda: as mulheres são, disparadamente, as principais vítimas dessa tecnologia.


    O cenário atual é preocupante. Plataformas como OnlyFans, Pornhub e sites de pornografia emergentes estão utilizando IA para oferecer conteúdos que se adaptam aos desejos mais particulares dos usuários. Imagens e vídeos realistas podem ser gerados sem esforço, com um nível de precisão que antes era inimaginável. Essas tecnologias não apenas ampliam o acesso a fantasias sexuais, mas também levantam questões éticas fundamentais sobre consentimento, privacidade e o direito à própria imagem. O abuso dessas ferramentas para a criação de deepfakes pornográficos não consensuais têm arruinado vidas e carreiras, como alertam estudiosos e advogados.


    Especialistas têm enfatizado que a legislação atual está perigosamente desatualizada. O direito de imagem e a proteção contra a pornografia de vingança são princípios já estabelecidos em muitas jurisdições, mas o desenvolvimento de deepfakes exige uma nova abordagem legal. No Brasil, por exemplo, ainda que existam dispositivos que tratem de crimes contra a honra e a dignidade sexual, as normas muitas vezes não cobrem situações em que a manipulação de imagens digitais seja feita com a precisão e a amplitude proporcionadas pela IA. Isso coloca em risco a eficácia do sistema de justiça em coibir e punir esses crimes.


    Além das implicações legais, os impactos sociais são profundos. A proliferação de conteúdos gerados por IA pode alterar drasticamente a maneira como nos relacionamos, inclusive a forma como construímos vínculos afetivos e sexuais. As novas gerações estão cada vez mais expostas a uma sexualidade hiperpersonalizada e mediada por máquinas, o que pode ter consequências psicológicas e emocionais complexas. Psicólogos têm alertado para os riscos de um futuro onde o "sexo solitário" impulsionado pela tecnologia diminua ainda mais a conexão humana, enquanto os especialistas em ética destacam o perigo da normalização de conteúdos que objetificam corpos sem o consentimento dos envolvidos.


    No entanto, quando esses conteúdos são gerados por IA, sem a representação direta de uma vítima real, a discussão se torna complexa. Na prática, o debate jurídico gira em torno de duas questões principais: se o dano social e psicológico, que justifica a criminalização desses conteúdos, ainda persiste mesmo na ausência de uma vítima direta; e se a criação desses materiais continua a alimentar o mercado de exploração sexual, perpetuando o ciclo de objetificação e abuso.


    Especialistas alertam que, mesmo sem vítimas diretas, o uso de IA para criar pornografia infantil ou zoofilia ainda representa uma ameaça significativa à segurança social. Há um consenso de que esses conteúdos devem continuar sendo ilegais, pois, como afirmam psicólogos e criminologistas, podem incentivar comportamentos criminosos e normalizar abusos. Muitos legisladores também argumentam que a criminalização é uma forma de coibir a demanda por esses materiais e evitar que a fronteira entre a IA e a exploração real seja negligenciada.


    Neste episódio, vamos debater estes temas e tentar refletir sobre os impactos da Inteligência Artificial na esfera mais íntima dos seres humanos. Vem com a gente!


    Exibir mais Exibir menos
    1 hora e 6 minutos
  • EP#40: Automação das decisões judiciais
    Oct 30 2024

    A automação no Judiciário brasileiro, impulsionada pela Inteligência Artificial (IA), tem sido debatida como uma solução inovadora para melhorar a eficiência, celeridade e acessibilidade da justiça. Em eventos como o CONIP Jud 2024, o Conselho Nacional de Justiça (CNJ) apresentou iniciativas focadas em transformar digitalmente o Poder Judiciário por meio do Programa Justiça 4.0, que visa modernizar os tribunais com o uso de IA e plataformas digitais integradas.

    Esses esforços são vistos como parte de um movimento global mais amplo, no qual a digitalização de sistemas judiciais é adotada para resolver problemas como morosidade e excesso de processos, ao mesmo tempo em que busca garantir consistência e reduzir custos. No entanto, apesar dos avanços, há debates sobre os limites e riscos do uso dessas tecnologias no contexto da administração da justiça.

    O CNJ tem se empenhado para implementar laboratórios e centros de inovação voltados para a aplicação de IA. Exemplos incluem sistemas como o Sinapses e Victor, que já auxiliam em decisões judiciais em várias jurisdições do país. Essas ferramentas têm o potencial de apoiar o trabalho dos juízes, melhorando a velocidade e a qualidade dos processos judiciais, mas não sem levantar questões éticas e operacionais.

    A pesquisa apresentada durante o CONIP mostrou que, embora a IA seja promissora, seu uso no Judiciário ainda é esporádico, com 70% dos magistrados e servidores utilizando-a raramente. No entanto, há um reconhecimento crescente de seu potencial, especialmente para tarefas como busca de jurisprudência e análise de dados. Entretanto, os riscos da automação das decisões judiciais são significativos. A substituição completa do juiz humano por um “juiz robô” é vista com ceticismo, devido às complexidades envolvidas no ato de julgar, que incluem a análise sensorial, argumentação racional e a tomada de decisões que consideram aspectos emocionais e sociais.

    O ato de julgar envolve não apenas a aplicação de normas, mas também a interpretação de valores éticos, culturais e sociais que são inerentemente humanos. A automatização de decisões judiciais corre o risco de reduzir essa complexidade a meros padrões de dados, o que pode gerar decisões insensíveis às particularidades de cada caso. Além disso, a dependência de algoritmos pode reforçar vieses pré-existentes nos dados processuais, perpetuando desigualdades e injustiças, sobretudo se as decisões automatizadas não passarem por revisão humana cuidadosa.


    Diante dessas preocupações, o CNJ trabalha na criação de diretrizes claras para a aplicação de IA no Judiciário, como a Resolução nº 332/2020, que estabelece normas de ética e transparência no uso da IA. Essas medidas visam assegurar que a IA seja utilizada de maneira complementar, mantendo o juiz humano no centro das decisões, mas com o suporte tecnológico para aprimorar a eficiência do sistema.

    Nesse episódio vamos debater sobre o uso da IA no Judiciário. Quais os limites para sua utilização? A automação completa das decisões é improvável? como a interpretação de valores éticos e a consideração de variáveis emocionais e culturais são aplicadas nas decisões automatizadas? É possível falar em uma governança responsável, que equilibre os benefícios da tecnologia com os princípios fundamentais da justiça? Essas e outras perguntas será discutidas no episódio de hoje. Vem com a gente!

    Exibir mais Exibir menos
    1 hora