Episódios

  • EP#49: ECA Digital e os Perigos da Adultização de crianças na internet
    Sep 3 2025

    Imagina o seguinte cenário: um youtuber de humor, conhecido pelo estilo debochado, solta um vídeo de quase uma hora sem nenhuma piada. Nada de memes, nada de edição engraçada. Só um alerta sério, pesado e necessário. Esse foi o caso do Felca e seu vídeo sobre a adultização infantil nas redes sociais. O impacto foi imediato: milhões de visualizações em poucos dias, uma enxurrada de debates e, na sequência, prisões, CPIs e até aprovação de uma lei no Congresso.

    O gatilho foi expor como crianças e adolescentes vêm sendo transformados em “mini adultos” diante das câmeras — dançando músicas sexualizadas, falando de dinheiro, exibindo implantes, bebendo, como se a infância fosse só um trampolim para engajamento e monetização. E o símbolo dessa distorção virou o influenciador Hytalo Santos, que chamava seus seguidores mirins de “crias”, “filhas” e “genros”, colocava menores em situações de namoro e em festas com bebidas. As denúncias contra Hytalo Santos não eram totalmente novas. Desde 2024, o Ministério Público da Paraíba (MPPB) já investigava o influenciador por possível exploração de menores em seus conteúdos.

    Duas frentes de investigação foram instauradas por promotorias em João Pessoa e Bayeux, apurando se os vídeos de Hytalo possuíam teor sexual e violavam o Estatuto da Criança e do Adolescente (ECA). Na época, Hytalo defendeu-se publicamente afirmando que as mães das crianças consentiam com as gravações e que algumas adolescentes já seriam emancipadas. Ele alegou ter boa relação com as famílias, argumentando que “tudo tem o consentimento das mães”. Contudo, pela lei, mesmo o consentimento dos pais não legitima situações de possível abuso ou sexualização de menores, especialmente se houver violação de direitos fundamentais previstos no ECA.

    Após a publicação do vídeo de Felca em 6 de agosto de 2025, o caso Hytalo ganhou enorme visibilidade nacional. Nos dias imediatamente seguintes, as autoridades agiram rapidamente: em 12 de agosto, a Justiça da Paraíba determinou a suspensão de todos os perfis de Hytalo nas redes sociais (uma medida cautelar para cessar a exposição dos menores). No dia 13, foi expedido um mandado de busca e apreensão na residência do influenciador, onde a polícia apreendeu celulares e outros materiais para investigação.

    Hytalo negou as acusações em suas redes, mas a apuração prosseguiu com força total. Finalmente, em 15 de agosto de 2025, Hytalo Santos foi preso preventivamente junto com seu marido, Israel “MC Euro” Vicente. A prisão ocorreu em Carapicuíba (SP) por uma força-tarefa da Polícia Civil de São Paulo em colaboração com as autoridades da Paraíba, já que as ordens judiciais partiram da 2ª Vara de Bayeux-PB.


    Esse caso também abriu espaço para discutir um tema que parecia “inofensivo”: o sharenting, a mania de pais e mães de exporem a vida dos filhos nas redes desde o berço, que já foi tema de outro episódio do nosso podcast. Estudo recente mostra que 80% das crianças já têm presença digital antes dos dois anos. O que parecia só orgulho de família virou um prato cheio para riscos de privacidade, cyberbullying e até pedofilia. E aqui entra um dilema: até onde vai o direito dos pais de postar, e onde começa o direito da criança a não ser exposta?


    No fim das contas, o vídeo do Felca foi o estopim de um debate que não vai se encerrar tão cedo. Estamos falando de direito digital, direito da infância, responsabilidade dos pais e das plataformas. O caso Hytalo mostrou que quando a lei não chega a tempo, o mercado e a cultura online acabam preenchendo esse vácuo — quase sempre contra os interesses das crianças. E agora, como equilibrar a presença digital dos menores, que já é um fato, com a obrigação de protegê-los de abusos, exploração e superexposição? Quais os caminhos jurídicos possíveis? Regulação das plataformas é reforçada com esses episódios? É esse o ponto em que vamos discutir nesse episódio. Vem com a gente.

    Exibir mais Exibir menos
    1 hora e 1 minuto
  • EP#48: Narrativas intransigentes na regulação de IA
    Aug 6 2025

    A instalação da Comissão Especial na Câmara dos Deputados para analisar o Projeto de Lei 2338/2023 — que estabelece princípios, direitos e deveres para o desenvolvimento e uso responsável da inteligência artificial no Brasil — reaqueceu uma série de narrativas intransigentes que têm marcado os debates públicos e políticos sobre regulação tecnológica. Esses discursos, em muitos casos, desvirtuam o conteúdo do projeto e dificultam a construção de consensos mínimos sobre a urgência de um marco legal claro e democrático para a IA no país.


    É possível identificar, com base nas audiências públicas, em comunicados de entidades do setor e nas redes sociais de parlamentares e influenciadores, três grandes grupos narrativos que têm dominado os espaços de disputa: (1) narrativas econômico-liberais contra regulação, (2) narrativas ideológicas associando regulação à censura, e (3) narrativas que minimizam os riscos relacionados à proteção de dados.


    A primeira e uma das narrativas mais difundidas parte de setores empresariais e de representantes do setor tecnológico que afirmam, de forma categórica, que qualquer tentativa de regular a IA neste momento comprometerá a inovação e o desenvolvimento do país. Essa tese se expressa em formulações recorrentes como: “O PL 2338 impõe encargos que podem barrar a inovação.”; “A governança proposta é excessiva.”; “A intervenção da ANPD poderá afastar investimentos e sufocar startups.”; “O mercado se autorregula melhor.”


    A crítica mais estruturada a essa narrativa tem vindo de economistas, juristas e especialistas em direitos digitais, que lembram que setores como saúde, aviação e finanças são altamente regulados e, ainda assim, inovadores. Como ironizou o instituto Data Privacy Brasil, essas justificativas formam uma “ladainha típica de lobistas anti-regulação”, baseada em mitos não sustentados empiricamente.

    Outro conjunto de narrativas que tem contaminado o debate gira em torno da suposta intenção do projeto de censurar vozes conservadoras e de institucionalizar um “controle ideológico” das tecnologias. Essa linha discursiva, amplamente disseminada por influenciadores da extrema-direita e por parlamentares de oposição, costuma associar o PL 2338 a um projeto mais amplo de “censura digital”, ainda que o texto do projeto não trate de moderação de conteúdo nem regule redes sociais.


    Um terceiro eixo narrativo opera por meio da relativização dos riscos associados à coleta e ao uso massivo de dados pessoais para treinar sistemas de IA. Ainda que não seja amplamente vocalizada em discursos oficiais, essa narrativa circula com frequência em bastidores parlamentares e ambientes técnicos pouco sensíveis à agenda de proteção de dados. A ideia subjacente é simples, mas perigosa: “Se os dados já estão na internet, por que se preocupar em regulá-los?” Essa postura minimiza os efeitos negativos do uso não consentido de dados pessoais — inclusive sensíveis —, e desconsidera os riscos reais de discriminação algorítmica, vazamentos, manipulação comportamental e vigilância em massa.


    A crítica legítima a pontos específicos do projeto é não apenas bem-vinda como necessária — é assim que se melhora uma proposta legislativa. No episódio de hoje vamos discutir como a proliferação de narrativas intransigentes e desinformativas impede o amadurecimento do debate público e desvia o foco do que realmente importa: construir uma regulação democrática, baseada em evidências, que posicione o Brasil como um protagonista global na adoção responsável da inteligência artificial. Vem com a gente!


    Exibir mais Exibir menos
    1 hora e 1 minuto
  • EP#47: O julgamento do STF do art. 19 do MCI
    Jul 2 2025

    Por trás do artigo 19 do Marco Civil da Internet — aquele mesmo, celebrado em 2014 como guardião da liberdade de expressão no Brasil digital — esconde-se um debate explosivo, que há anos ferve, mas que agora atingiu o ponto de ebulição. Quando nasceu, ele parecia simples: se alguém se sentisse lesado por algo publicado nas redes, só com ordem judicial a plataforma deveria remover o conteúdo. A promessa era proteger o espaço do debate público, evitar censura privada, impedir que gigantes da tecnologia se tornassem juízes do que deve ou não circular.

    Mas a realidade, sempre mais complexa do que os melhores projetos de lei, mudou o jogo. As redes sociais explodiram, algoritmos tomaram conta das conversas e, com eles, cresceram também comunidades tóxicas, ataques coordenados, perfis falsos e uma enxurrada de desinformação. O cenário ficou especialmente tenso após episódios como os de 8 de janeiro de 2023, quando a democracia balançou e o país inteiro se perguntou: quem, afinal, deve responder por tanto caos digital?


    O julgamento do artigo 19 não foi um simples duelo jurídico. Foi, na verdade, a tradução das ansiedades, esperanças e medos de um país diante do colapso das fronteiras entre liberdade e responsabilidade. De um lado, a maioria dos ministros apontou que, diante dos riscos atuais, não dava mais para esperar o Legislativo. Eles defenderam um regime mais dinâmico, capaz de dar resposta rápida a violações graves, como ameaças à democracia e ataques aos direitos fundamentais. O modelo híbrido que emergiu da decisão mistura o rigor do Judiciário com a velocidade das notificações extrajudiciais: agora, em casos graves, a plataforma pode ser responsabilizada se, notificada, não agir — tudo isso sem depender de ordem judicial, salvo quando se trata de crimes contra a honra.

    Houve resistência. Três ministros insistiram que qualquer mudança estrutural deveria partir do Congresso. Argumentaram que mexer na regra do jogo sem lei específica abre caminho para ativismo judicial e riscos de censura, transferindo demais poder para as empresas. No meio do caminho, uma terceira via: preservar a exigência judicial para crimes de honra, mas impor às plataformas obrigações claras e imediatas diante de ilícitos graves — sobretudo após notificação formal.

    O resultado? Um novo regime, provisório mas robusto, que redefine o papel das plataformas, coloca o Legislativo contra a parede e empurra as empresas para uma corrida por transparência e eficiência. Agora, para e-mails, grupos privados ou crimes de honra, a velha lógica judicial se mantém. Mas para o restante, especialmente quando há nudez não consentida, conteúdo envolvendo crianças ou ações que atentem contra a democracia, a régua subiu: as plataformas precisam ser proativas, sob pena de responder por omissão.


    No plano político, a decisão foi qualquer coisa, menos neutra. Para muitos, o STF agiu para suprir uma omissão inaceitável do Congresso, defendendo direitos fundamentais num momento de crise institucional. Para outros, foi ativismo puro, ameaça à separação dos poderes e, claro, um risco à liberdade de expressão. O recado ficou claro: se o Congresso não reagir, o Judiciário está disposto a assumir o protagonismo da regulação digital, ao menos por ora.


    O sistema criado é provisório, experimental, e traz consigo insegurança jurídica. Sem uma legislação clara, cada caso será uma prova de fogo, exigindo vigilância constante da sociedade civil, da academia e de organizações de defesa dos direitos digitais.

    O que está em jogo, afinal, é o futuro da democracia digital no Brasil? O STF encerra um ciclo e inaugura outro, mais incerto e repleto de desafios? O que virá depois? É sobre isso que falaremos no episódio de hoje. Vem com a gente.


    Exibir mais Exibir menos
    1 hora e 7 minutos
  • EP#46: Dados Sintéticos
    Jun 4 2025

    Vivemos uma era movida por dados. Das decisões empresariais às políticas públicas, da publicidade personalizada aos diagnósticos médicos, passando por mecanismos de reconhecimento facial, análise preditiva e sistemas de recomendação, os dados estão em tudo. Mas e quando esses dados não estão disponíveis? Quando são incompletos, enviesados ou simplesmente impossíveis de acessar por barreiras legais, éticas ou estruturais? Nesse cenário, os dados sintéticos ganham cada vez mais espaço como solução — ou, para alguns, como um novo problema. Mas afinal, o que são dados sintéticos?

    Ao contrário do que o nome pode sugerir, dados sintéticos não são “dados falsos” no sentido vulgar da palavra. Eles são gerados artificialmente por meio de algoritmos que imitam as propriedades estatísticas dos dados reais. A ideia é que eles reproduzam padrões, correlações e comportamentos esperados, sem revelar ou expor informações verdadeiras de indivíduos ou organizações.

    Na prática, os dados sintéticos são criados a partir de dois métodos principais: a perturbação de dados reais com ruído (técnica que protege a identidade e confunde tentativas de reidentificação) e a geração completamente autônoma de novos dados por meio de modelos generativos, como os GANs (Redes Generativas Adversariais) — a mesma tecnologia por trás de deepfakes e imagens hiper-realistas geradas por IA.

    Esse avanço resolve um problema antigo: a escassez crônica de dados confiáveis. Como destacou o professor Marcelo Finger, da Universidade de São Paulo (USP), em entrevista recente, até mesmo grandes laboratórios como a OpenAI enfrentam limitações nesse aspecto. “Vivemos com a falta crônica de dados, mesmo com a OpenAI”, afirmou. Em muitos setores, como a saúde, finanças ou direito, o acesso a dados reais é cercado de sigilo, alto custo e complexidade regulatória. A alternativa? Criar dados que sejam fiéis à realidade, mas que não representem ninguém em específico.

    A adoção dessa tecnologia vem crescendo. De acordo com relatório da Gartner, até 2030, 60% dos dados utilizados para treinar modelos de IA serão sintéticos. E isso não é ficção científica — já hoje, empresas como a Nvidia, Google, Meta e startups especializadas como Synthetaic e Mostly AI investem pesadamente nessa frente. Na indústria automotiva, por exemplo, dados sintéticos são usados para simular bilhões de quilômetros rodados por veículos autônomos sem precisar sair do laboratório. Na área da saúde, permitem criar bancos de dados de pacientes fictícios que ajudam a treinar algoritmos diagnósticos sem ferir o sigilo médico.

    Há uma preocupação adicional quando esses dados alimentam sistemas com alta autonomia decisória, como sistemas judiciais automatizados, inteligência artificial em decisões administrativas ou análise de risco bancário. Nesses contextos, a ilusão de objetividade dos dados sintéticos pode ser ainda mais perigosa que o viés explícito de dados reais, justamente porque escapa à percepção crítica dos operadores.

    Outro ponto sensível é o direito à transparência. Se a IA toma decisões com base em dados que não são auditáveis, porque são sintéticos, como será possível realizar controle social, revisões judiciais ou perícias técnicas? Isso toca diretamente o coração do direito digital: o equilíbrio entre inovação e responsabilidade, entre o possível e o aceitável

    Nas universidades, o uso de dados sintéticos também se expande. Na PUC-Rio, por exemplo, pesquisadores têm estudado formas de aplicar essa tecnologia em estudos de políticas públicas, enquanto na UFRJ e na FGV surgem debates sobre os limites jurídicos e éticos da manipulação de dados no contexto da inteligência artificial.


    Neste episódio vamos aprofundar esses debates. Vamos entender como os dados sintéticos estão sendo utilizados, quais as promessas e os perigos que trazem, e de que forma o Direito pode — e deve — responder a essa nova fronteira da realidade artificial. Vem com a gente!


    Exibir mais Exibir menos
    53 minutos
  • EP#45: Críticas ao livro de Direito Digital do Novo Código Civil
    Apr 30 2025

    O avanço das tecnologias digitais revolucionou completamente nossa forma de viver, trabalhar e interagir. Redes sociais, inteligência artificial, criptomoedas e a vida digital transformaram as relações humanas, gerando novos desafios para o Direito. Diante desse cenário dinâmico e complexo, tornou-se urgente repensar o marco regulatório civil brasileiro para atender às demandas do século XXI.


    Recentemente, uma Comissão de Juristas apresentou um ousado anteprojeto de reforma do Código Civil, que inclui, pela primeira vez, um Livro específico dedicado ao Direito Digital. A intenção declarada é modernizar e adequar o ordenamento jurídico às novas realidades tecnológicas. No entanto, esse projeto, que parecia promissor, rapidamente tornou-se alvo de críticas contundentes por parte de especialistas renomados.

    Uma das vozes mais destacadas é a da jurista Judith Martins-Costa, que classifica a proposta como um exemplo claro de "populismo jurídico". Segundo ela, o texto apresenta soluções superficiais e imprecisas para questões extremamente complexas, criando um cenário de insegurança jurídica e aplicação difícil.


    Um dos pontos centrais do debate envolve os princípios gerais que sustentam a proposta. Princípios fundamentais como a dignidade da pessoa humana, privacidade, autonomia e proteção de dados pessoais deveriam guiar a legislação digital. Porém, especialistas alertam que o texto atual do anteprojeto traz definições vagas e superficiais, pouco capazes de enfrentar os desafios reais relacionados à dignidade e privacidade no ambiente virtual.


    Além disso, a questão da identidade digital e da proteção à personalidade no espaço virtual emerge como um ponto crucial e controverso. A sociedade digital enfrenta situações inéditas, como clonagem de perfis, exposição indevida e danos à reputação digital. A crítica principal é que o projeto não apresenta soluções robustas ou claras para proteger efetivamente os indivíduos dessas ameaças.


    Outro tema relevante é o patrimônio e a herança digital, uma realidade cada vez mais presente no cotidiano das pessoas. Ativos digitais como contas em redes sociais, plataformas de streaming e criptomoedas representam valores econômicos e afetivos significativos. Contudo, especialistas indicam que a proposta atual carece de critérios claros e eficientes para regulamentar a transferência desses bens após a morte dos usuários, deixando incertezas sobre o futuro desse patrimônio.


    A responsabilidade civil por danos digitais, especialmente os causados por algoritmos e inteligência artificial, também gera debates intensos. Apesar de o anteprojeto reconhecer esses desafios, críticos apontam falta de precisão e clareza na atribuição de responsabilidades jurídicas diante dos danos causados por decisões automatizadas.


    O aspecto da proteção de dados pessoais e consentimento digital aparece como um ponto-chave de articulação entre o novo Livro e regulamentações existentes, como a LGPD brasileira e o GDPR europeu. Porém, há dúvidas se o anteprojeto consegue avançar de maneira coerente e eficaz, ou se repete abordagens já existentes sem acrescentar segurança jurídica adicional.


    Grande parte das propostas do Livro de Direito Digital carece de conteúdo normativo efetivo, seja por prolixidade ou por reticência. Muitos dispositivos limitam-se a afirmar que regras já existentes no Código Civil aplicam-se "também" ao ambiente digital, criando redundâncias desnecessárias e potencialmente perigosas do ponto de vista interpretativo.


    Por exemplo, o anteprojeto propõe alterar o artigo 1.634 para estabelecer que os pais devem "fiscalizar as atividades dos filhos no ambiente digital", como se tal obrigação já não estivesse implícita no poder familiar. Similarmente, dispositivos sobre quitação de débitos são modificados para incluir expressamente a possibilidade de quitação "por meio digital", algo que já seria possível pela interpretação sistemática do ordenamento.


    Vamos debater esse assunto. Vem com a gente!


    Exibir mais Exibir menos
    59 minutos
  • EP#44: Nova Resolução do CNJ sobre uso de IA no Judiciário
    Mar 31 2025

    Há alguns meses fizemos um episódio sobre o uso de IA pelo poder Judiciário e no último dia 14 de março, o Conselho Nacional de Justiça publicou a Resolução CNJ nº 615/2025, estabelecendo diretrizes para o uso de ferramentas de IA por magistrados, servidores e tribunais em todo o país. A norma veio em meio ao crescimento vertiginoso de soluções generativas como o ChatGPT e ao avanço da jurimetria e da automação em cortes estaduais e federais. Era urgente haver um marco regulatório — e ele veio. Mas será que veio como deveria?

    A resolução é extensa, tem quase cinquenta artigos e traz um arsenal de boas intenções: regras de governança, diretrizes de transparência, classificação de riscos, exigência de auditoria e até a criação de um Comitê Nacional de Inteligência Artificial do Judiciário, composto por representantes do MP, da Defensoria, da OAB e da sociedade civil. Parece um avanço. E de fato é. Mas como todo avanço, carrega riscos e contradições — e é justamente sobre isso que vamos falar neste episódio.

    De um lado, a resolução segue padrões internacionais, como o AI Act da União Europeia, adotando uma lógica de regulação por risco. Ferramentas que avaliam comportamento ou traçam perfis biométricos, por exemplo, foram corretamente classificadas como de alto risco e, portanto, vedadas ou submetidas a regras rígidas. Também há vedações claras ao uso de IA em decisões que envolvam dados sigilosos, e exige-se que os modelos contratados passem por auditorias técnicas. Até aqui, ótimo.

    Mas do outro lado, a norma parece tropeçar onde não poderia. E a crítica dos especialistas é quase uníssona: muitas das funções consideradas de “baixo risco” envolvem, na prática, atividades essenciais ao processo de decisão judicial. A extração de dados, a classificação de documentos, a sugestão de jurisprudência e até a geração de textos-base para decisões judiciais foram enquadradas como inofensivas — quando, na verdade, estão no centro do debate sobre o papel da IA no processo.

    O que acontece se o juiz passa a simplesmente referendar aquilo que a máquina lhe entrega como rascunho? O que significa, na prática, permitir o uso de IA como “suporte à decisão” sem exigir uma supervisão humana robusta e tecnicamente qualificada? E mais: que tipo de incentivos e pressões esse uso gera para acelerar julgamentos, sacrificar a análise contextual ou promover decisões padronizadas e desumanizadas?

    A preocupação aumenta quando se vê que a Resolução autoriza magistrados a contratar diretamente soluções privadas de IA generativa, como os modelos que já conhecemos, sem oferecer ferramentas institucionais equivalentes. Isso mesmo: na ausência de uma solução oficial, o juiz pode usar o que estiver à mão — desde que siga algumas diretrizes e faça um curso de capacitação.

    Mas quem garante que as cláusulas contratuais negociadas por um juiz, individualmente, conseguirão limitar o uso indevido de dados por big techs ou evitar conflitos de interesse com empresas que também são partes em processos? É possível confiar em uma regulação que joga para o contrato particular a contenção de riscos sistêmicos? Especialistas alertam: isso é terceirizar a responsabilidade do Estado e fragilizar a confiança no sistema de Justiça. Além disso, há silêncio quase absoluto sobre segredo de negócios, vieses algorítmicos e os conflitos éticos da IA generativa. A resolução diz que tudo deve ser transparente e seguro, mas não indica os mecanismos para garantir essa segurança — especialmente em um país que é, hoje, o vice-campeão mundial em ataques cibernéticos.

    O episódio de hoje vai explorar todos esses pontos. Vamos apresentar a resolução em detalhes, ouvir vozes críticas e favoráveis, e discutir por que a IA não pode ser vista apenas como ferramenta, mas sim como um ator com agência, com impacto real na construção das decisões judiciais. Vem com a gente!



    Exibir mais Exibir menos
    1 hora e 2 minutos
  • EP#43: Teoria da Internet Morta e a circulação de conteúdos gerados por IA
    Feb 26 2025

    Você já teve aquela sensação estranha de que algo mudou na internet? De que os conteúdos parecem cada vez mais genéricos, as interações menos autênticas e que, no fundo, algo essencial se perdeu? Pois é, você não está sozinho.


    Nos últimos anos, uma teoria ganhou força e vem assombrando quem cresceu acreditando que a internet era um espaço de conexão real entre pessoas: a Teoria da Internet Morta. Segundo essa ideia, a web que conhecíamos morreu. Mas não foi do nada, nem por um colapso. Ela teria sido lentamente tomada por máquinas, bots e inteligências artificiais, que agora dominam o fluxo de informação, criando e distribuindo conteúdo em uma escala nunca antes vista.


    E acredite: os números sustentam esse medo. Hoje, quase 50% do tráfego na internet já é gerado por robôs. Mas não aqueles robozinhos simpáticos de filmes. Muitos são bots criados para manipular debates, espalhar desinformação, enganar sistemas e, claro, manter a roda da economia digital girando. E aqui vai um dado ainda mais insano: 99% do conteúdo postado na internet em cinco anos será gerado por Inteligência Artificial.


    Agora, pare e pense: se quase tudo o que você vê online está sendo criado por máquinas, quem realmente está no controle da conversa? Curiosamente, quando essa teoria começou a circular, lá por 2021, o medo era outro: o de que os algoritmos estivessem transformando as pessoas em robôs. A internet estava se tornando um ambiente tóxico, onde tudo parecia fabricado para prender a nossa atenção e induzir reações automáticas. Mas o que ninguém esperava era o que aconteceu depois: os robôs não só passaram a influenciar como também começaram a produzir o próprio conteúdo.


    Ou seja, a internet não morreu, mas algo definitivamente mudou. A rede que antes era feita por humanos, para humanos, virou uma espécie de arena onde máquinas falam com máquinas — e nós, bem… estamos só assistindo.


    E isso não é ficção. Um estudo da McAfee revelou que 77% dos usuários de aplicativos de relacionamento já se depararam com perfis gerados por Inteligência Artificial, incluindo fotos criadas por algoritmos, e 26% acabaram flertando com robôs sem perceber. Isso levanta um debate ético e jurídico importante: até que ponto interações online podem ser consideradas autênticas quando a maioria delas já não é mais realizada entre seres humanos?


    Se tudo continuar nesse ritmo, existe uma grande possibilidade de que, no futuro, a ideia de uma internet feita por humanos pareça tão ultrapassada quanto um telefone de disco. Ronaldo Lemos, especialista em tecnologia, descreve essa mudança de um jeito quase poético: "Para as gerações futuras, essa ideia poderá parecer antiquada ou até grotesca: uma internet humana como um cobertor feito de retalhos, esquecido em algum canto mofado do passado”.


    Isso significa que estamos condenados a viver em um universo digital dominado por IAs, onde nunca mais saberemos se estamos falando com uma pessoa de verdade ou apenas com um algoritmo que aprendeu a imitar a humanidade?


    Bom, essa é uma discussão que vai muito além de simples nostalgia. A pergunta que fica é: se a internet está morta, quem ou o quê está escrevendo a história agora?


    Se você acha que isso não te afeta, pense de novo. A IA já está ditando o que você lê, o que você assiste e até o que você pensa ser verdade. Mas será que ainda dá tempo de puxar o freio? É sobre isso que vamos falar neste episódio.


    Exibir mais Exibir menos
    58 minutos
  • EP#42: Os impactos da mudança de políticas do Meta
    Feb 5 2025

    Um dia após a certificação da vitória de Donald Trump no Congresso Americano, o presidente da Meta, Mark Zuckerberg, anunciou mudanças significativas na política de verificação de informações da empresa. Segundo ele, a plataforma “deixará de investir amplamente em parcerias com organizações independentes de checagem de fatos, adotando critérios mais brandos para identificação de conteúdos falsos ou enganosos em suas plataformas, como Facebook e Instagram”. Essa decisão marca uma guinada em relação à postura rígida da empresa em 2020, quando, em resposta à crescente disseminação de fake news durante as eleições norte-americanas e à pandemia de COVID-19, ampliou parcerias com checadores e implementou sistemas robustos para limitar o alcance de desinformação.


    O retorno de Donald Trump à presidência dos Estados Unidos adiciona uma camada de complexidade a essa decisão. Trump sempre foi crítico das políticas de moderação das Big Techs, defendendo maior liberdade de expressão nas plataformas, mesmo diante de conteúdos potencialmente danosos. Especialistas apontam que a Meta esteja tentando se alinhar a um cenário político mais favorável à flexibilização de regulações, antecipando possíveis mudanças legislativas e judiciais que possam impactar diretamente seu modelo de negócios.


    No contexto brasileiro, o impacto dessas alterações já é evidente. A recente resposta da Meta à Advocacia-Geral da União (AGU) deixou claro que a empresa não pretende ceder às pressões do governo brasileiro por maior moderação de conteúdos relacionados a discurso de ódio e desinformação. As primeiras manifestações dos ministros da Suprema Corte brasileira foram no sentido de cautela, alertando que a plataforma precisa se adaptar à legislação brasileira para poder operar em território brasileiro.


    No plano jurídico, a Meta argumentou em sua resposta à AGU que sua política global deve ser respeitada em cada jurisdição, defendendo “a liberdade de expressão como valor universal”. No entanto, especialistas têm destacado que essa abordagem pode abrir portas para a disseminação de conteúdos tóxicos e desinformação em massa. A flexibilização dos critérios de moderação é preocupante, dado o cenário atual de elevada polarização política e a fragilidade informacional em países como o Brasil.


    Relatório da OCDE “Fatos, Não Mentiras”, publicado em 2024, destaca como a integridade da informação é essencial para preservar a democracia e proteger a sociedade de riscos associados à desinformação e manipulação informacional. Dentre 21 países, o Brasil obteve a pior performance ao identificar se as informações são verdadeiras, com apenas 54% da população conseguindo distinguir entre conteúdos verdadeiros e falsos.



    Quais serão os impactos dessa mudança de postura da meta? Essas alterações podem piorar a qualidade do ambiente digital? Em que medida o anúncio foi um gesto mais político do que uma alteração global de sua lógica de negócio? Quais os riscos que a plataforma pode enfrentar em países como o Brasil e em regiões com legislação mais consolidada, como a União Europeia? Essas e outras perguntas vão guiar nosso debate no episódio de hoje. Vem com a gente.


    Apresentação: Ana Frazão e Caitlin Mulholland

    Produção: José Jance Marques

    Exibir mais Exibir menos
    55 minutos