Direito Digital

De: Ana Frazão e Caitlin Mulholland
  • Sumário

  • Podcast sobre temas atuais do Direito Digital apresentado por Ana Frazão, professora de Direito Comercial e Econômico da Universidade de Brasília, e por Caitlin Mulholland, professora de Direito Civil da PUC do Rio de Janeiro.
    Ana Frazão e Caitlin Mulholland
    Exibir mais Exibir menos
Episódios
  • EP#40: Automação das decisões judiciais
    Oct 30 2024

    A automação no Judiciário brasileiro, impulsionada pela Inteligência Artificial (IA), tem sido debatida como uma solução inovadora para melhorar a eficiência, celeridade e acessibilidade da justiça. Em eventos como o CONIP Jud 2024, o Conselho Nacional de Justiça (CNJ) apresentou iniciativas focadas em transformar digitalmente o Poder Judiciário por meio do Programa Justiça 4.0, que visa modernizar os tribunais com o uso de IA e plataformas digitais integradas.

    Esses esforços são vistos como parte de um movimento global mais amplo, no qual a digitalização de sistemas judiciais é adotada para resolver problemas como morosidade e excesso de processos, ao mesmo tempo em que busca garantir consistência e reduzir custos. No entanto, apesar dos avanços, há debates sobre os limites e riscos do uso dessas tecnologias no contexto da administração da justiça.

    O CNJ tem se empenhado para implementar laboratórios e centros de inovação voltados para a aplicação de IA. Exemplos incluem sistemas como o Sinapses e Victor, que já auxiliam em decisões judiciais em várias jurisdições do país. Essas ferramentas têm o potencial de apoiar o trabalho dos juízes, melhorando a velocidade e a qualidade dos processos judiciais, mas não sem levantar questões éticas e operacionais.

    A pesquisa apresentada durante o CONIP mostrou que, embora a IA seja promissora, seu uso no Judiciário ainda é esporádico, com 70% dos magistrados e servidores utilizando-a raramente. No entanto, há um reconhecimento crescente de seu potencial, especialmente para tarefas como busca de jurisprudência e análise de dados. Entretanto, os riscos da automação das decisões judiciais são significativos. A substituição completa do juiz humano por um “juiz robô” é vista com ceticismo, devido às complexidades envolvidas no ato de julgar, que incluem a análise sensorial, argumentação racional e a tomada de decisões que consideram aspectos emocionais e sociais.

    O ato de julgar envolve não apenas a aplicação de normas, mas também a interpretação de valores éticos, culturais e sociais que são inerentemente humanos. A automatização de decisões judiciais corre o risco de reduzir essa complexidade a meros padrões de dados, o que pode gerar decisões insensíveis às particularidades de cada caso. Além disso, a dependência de algoritmos pode reforçar vieses pré-existentes nos dados processuais, perpetuando desigualdades e injustiças, sobretudo se as decisões automatizadas não passarem por revisão humana cuidadosa.


    Diante dessas preocupações, o CNJ trabalha na criação de diretrizes claras para a aplicação de IA no Judiciário, como a Resolução nº 332/2020, que estabelece normas de ética e transparência no uso da IA. Essas medidas visam assegurar que a IA seja utilizada de maneira complementar, mantendo o juiz humano no centro das decisões, mas com o suporte tecnológico para aprimorar a eficiência do sistema.

    Nesse episódio vamos debater sobre o uso da IA no Judiciário. Quais os limites para sua utilização? A automação completa das decisões é improvável? como a interpretação de valores éticos e a consideração de variáveis emocionais e culturais são aplicadas nas decisões automatizadas? É possível falar em uma governança responsável, que equilibre os benefícios da tecnologia com os princípios fundamentais da justiça? Essas e outras perguntas será discutidas no episódio de hoje. Vem com a gente!

    Exibir mais Exibir menos
    1 hora
  • EP#39: A Inteligência Artificial tem o dever legal de dizer a verdade?
    Sep 25 2024
    Apresentação: Ana Frazão / Caitlin Mulholland Produção: José Jance Marques O que é a “verdade”? Essa pergunta simples e profunda move os filósofos desde a Grécia antiga e ainda gera inquietações nos dias de hoje, especialmente em um ambiente dominado por categorias como pós-verdade, narrativas e desinformação potencializado por algoritmos e inteligências artificiais generativas. Inclusive o historiador e filósofo Yuval Harari publicou agora em setembro de 2024 uma nova obra, intitulada “Nexus: Uma breve história das redes de informação, da Idade da Pedra à inteligência artificial” (editora Companhia das Letras), na qual discute as implicações do acúmulo de dados e a busca da verdade. Harari argumenta que a informação nem sempre está vinculada à realidade ou à verdade, podendo, ao contrário, criar novas realidades ao conectar diferentes pontos de uma rede social, política ou cultural. No contexto da IA, Harari alerta que, embora as redes de informação (como os modelos de IA) possam processar volumes massivos de dados, elas não garantem uma representação precisa da realidade. Pelo contrário, as IAs podem facilmente propagar informações errôneas ou ilusórias, perpetuando crenças enganosas ou fortalecendo ideologias perigosas. A visão de Harari enfatiza a importância de não confiar cegamente na IA para descobrir a verdade, uma vez que a mera quantidade de dados processados não é suficiente para garantir sabedoria ou decisões corretas, e a informação pode ser utilizada tanto para conectar quanto para manipular. Nessa mesma linha entra o debate sobre o "discurso descuidado" em modelos de linguagem grande, ou LLMs, como são mais conhecidos. Quando falamos de LLMs, estamos nos referindo a modelos como o ChatGPT, BERT ou GPT-4, que são ferramentas poderosas de IA que geram textos a partir de vastos volumes de dados. Esses modelos, usados em assistentes virtuais, plataformas de busca, e em muitas outras aplicações, são alimentados por uma quantidade imensa de dados retirados da internet, de livros, artigos e até mídias sociais. Mas, apesar da sofisticação dessas IAs, elas frequentemente cometem erros, como fornecer informações imprecisas, incompletas ou até mesmo completamente inventadas. Esses erros são conhecidos como "alucinações" da IA. Isso nos leva a uma pergunta essencial "é possível falar em dever de falar a verdade pela IA? E se não houver, quais as implicações disso? Sabe-se que o "discurso descuidado" refere-se às saídas que esses modelos geram que parecem autoritativas, factuais, mas que, na verdade, contêm erros ou omissões significativas. Pode ser uma informação falsa, uma omissão crítica de contexto, ou até a ausência de uma indicação clara de incerteza. Um exemplo clássico seria o modelo afirmar um fato com muita confiança, quando na verdade esse fato está sujeito a debate ou é baseado em dados limitados. Para entendermos melhor, é importante lembrar que esses modelos não "entendem" a verdade. Eles funcionam por meio de predições estatísticas: dados são alimentados no modelo, que então "prevê" a sequência de palavras mais provável com base em tudo o que foi treinado. Isso significa que, ao responder perguntas factuais, o modelo se baseia na frequência com que certas informações aparecem no seu conjunto de dados. Portanto, se um fato for comum ou repetido muitas vezes nos dados, é mais provável que o modelo o gere corretamente. Mas quando a questão é mais complexa, ambígua ou sensível ao tempo, como eventos históricos com várias interpretações ou questões filosóficas, a IA pode falhar e produzir um discurso problemático. Um exemplo prático seria uma pergunta sobre filosofia, onde o LLM pode citar apenas teorias ocidentais, ignorando por completo outras tradições de pensamento, como a filosofia oriental ou africana. Isso é um exemplo claro do viés de fonte, onde o modelo favorece uma perspectiva, negligenciando outras. Outro exemplo é a apresentação de informações sem referência, onde o LLM faz uma afirmação factual sem citar uma fonte confiável, ou pior, cita fontes inventadas. Então deveríamos obrigar legalmente que os desenvolvedores de IA garantam que seus modelos digam a verdade? Em um mundo onde a IA está se tornando cada vez mais integrada em serviços essenciais, desde a saúde até o governo, essa é uma questão urgente. Há especialistas e teóricos da ética que acreditam que sim, deveríamos criar um dever legal para os provedores de IA. Essa ideia visa responsabilizar os desenvolvedores pela precisão das saídas que suas IAs produzem. Afinal, ao permitir que um chatbot de IA ofereça informações errôneas ou enganosas, corremos o risco de danificar a confiança pública em setores vitais, como a ciência, a educação e as decisões políticas. Como definir "verdade" de forma universal e aplicável a todos os cenários? Essas e outras ...
    Exibir mais Exibir menos
    1 hora e 3 minutos
  • EP#38: Identidade digital e Inteligência Artificial
    Aug 30 2024

    Apresentação: Ana Frazão / Caitlin Mulholland

    Produção: José Jance Marques


    A proposta de Novo Código Civil que está sendo debatida no Senado Federal busca atualizar a legislação brasileira para melhor refletir as complexidades da era digital. O objetivo é modernizar o código vigente, que foi promulgado em 2002, para incluir disposições específicas sobre direitos da personalidade, propriedade intelectual e a proteção de dados pessoais no contexto digital.


    Entre as inovações propostas estão regras mais claras sobre a utilização de dados pessoais, o consentimento informado para o uso de atributos da personalidade por sistemas de inteligência artificial, e medidas para combater o roubo de identidade digital. A proposta também pretende harmonizar a legislação brasileira com normas internacionais, como o Regulamento Geral de Proteção de Dados (GDPR) da União Europeia, visando a aumentar a segurança jurídica e a confiança no ambiente digital.


    No entanto, o capítulo sobre Direito Digital da proposta tem gerado polêmicas e debates acalorados entre especialistas, legisladores e a sociedade civil. Críticos apontam que algumas das medidas propostas podem ser insuficientes para lidar com as rápidas inovações tecnológicas e as novas formas de violação de direitos no ambiente digital. Há também preocupações sobre a efetividade da aplicação dessas normas, considerando os desafios da fiscalização e da implementação prática.


    Além disso, a questão da proteção de dados pessoais e a definição dos limites para o uso de inteligência artificial sem comprometer os direitos da personalidade são pontos particularmente controversos. Alguns defendem a necessidade de um maior equilíbrio entre inovação tecnológica e proteção de direitos, enquanto outros argumentam que as restrições propostas podem sufocar o desenvolvimento e a competitividade no setor digital brasileiro.


    A inteligência artificial tem impactado a propriedade intelectual, especialmente com as deep fakes. Essas tecnologias avançadas têm tornado cada vez mais difícil discernir o que é real do que não é, levantando preocupações sérias sobre a proteção da identidade e dos direitos da personalidade.


    Um caso emblemático que ilustra bem essas preocupações envolveu a atriz Scarlett Johansson, que descobriu que o ChatGPT estava utilizando uma voz muito similar à sua, mesmo após ter recusado uma oferta para emprestar sua voz ao sistema. A situação gerou um intenso debate sobre roubo de identidade e os limites da utilização de atributos da personalidade por sistemas de IA.


    Essa discussão nos leva a refletir sobre a necessidade de transparência e regulamentação. A própria Scarlett Johansson destacou a importância de termos clareza absoluta sobre a proteção de nossas semelhanças, trabalhos e identidades, um tema que merece atenção legislativa.


    Não podemos esquecer das implicações éticas e legais de projetos como "The Next Rembrandt", que busca trazer de volta à vida o estilo de um dos maiores pintores da história através da tecnologia. Isso levanta a questão: podemos usar características pessoais de alguém, famoso ou não, de forma indiscriminada e sem autorização? Isso se agrava quando pensamos que as IA generativas precisam ser treinadas com grandes quantidades de dados, o que já resultou em processos como o do The New York Times contra a OpenAI, alegando uso indevido de conteúdos protegidos por direitos autorais.


    Em que pese, no caso brasileiro, a arquitetura protetiva dos direitos da personalidade já assegurar aos titulares os mecanismos para prevenir e reprimir esse tipo de prática, é importante assegurar não haver retrocessos no texto discutido no Congresso. Vamos juntos debater esse tema, considerando a realidade brasileira e os exemplos que já vimos lá fora.


    Exibir mais Exibir menos
    1 hora

O que os ouvintes dizem sobre Direito Digital

Nota média dos ouvintes. Apenas ouvintes que tiverem escutado o título podem escrever avaliações.

Avaliações - Selecione as abas abaixo para mudar a fonte das avaliações.