Episódios

  • EP#38: Identidade digital e Inteligência Artificial
    Aug 30 2024

    Apresentação: Ana Frazão / Caitlin Mulholland

    Produção: José Jance Marques


    A proposta de Novo Código Civil que está sendo debatida no Senado Federal busca atualizar a legislação brasileira para melhor refletir as complexidades da era digital. O objetivo é modernizar o código vigente, que foi promulgado em 2002, para incluir disposições específicas sobre direitos da personalidade, propriedade intelectual e a proteção de dados pessoais no contexto digital.


    Entre as inovações propostas estão regras mais claras sobre a utilização de dados pessoais, o consentimento informado para o uso de atributos da personalidade por sistemas de inteligência artificial, e medidas para combater o roubo de identidade digital. A proposta também pretende harmonizar a legislação brasileira com normas internacionais, como o Regulamento Geral de Proteção de Dados (GDPR) da União Europeia, visando a aumentar a segurança jurídica e a confiança no ambiente digital.


    No entanto, o capítulo sobre Direito Digital da proposta tem gerado polêmicas e debates acalorados entre especialistas, legisladores e a sociedade civil. Críticos apontam que algumas das medidas propostas podem ser insuficientes para lidar com as rápidas inovações tecnológicas e as novas formas de violação de direitos no ambiente digital. Há também preocupações sobre a efetividade da aplicação dessas normas, considerando os desafios da fiscalização e da implementação prática.


    Além disso, a questão da proteção de dados pessoais e a definição dos limites para o uso de inteligência artificial sem comprometer os direitos da personalidade são pontos particularmente controversos. Alguns defendem a necessidade de um maior equilíbrio entre inovação tecnológica e proteção de direitos, enquanto outros argumentam que as restrições propostas podem sufocar o desenvolvimento e a competitividade no setor digital brasileiro.


    A inteligência artificial tem impactado a propriedade intelectual, especialmente com as deep fakes. Essas tecnologias avançadas têm tornado cada vez mais difícil discernir o que é real do que não é, levantando preocupações sérias sobre a proteção da identidade e dos direitos da personalidade.


    Um caso emblemático que ilustra bem essas preocupações envolveu a atriz Scarlett Johansson, que descobriu que o ChatGPT estava utilizando uma voz muito similar à sua, mesmo após ter recusado uma oferta para emprestar sua voz ao sistema. A situação gerou um intenso debate sobre roubo de identidade e os limites da utilização de atributos da personalidade por sistemas de IA.


    Essa discussão nos leva a refletir sobre a necessidade de transparência e regulamentação. A própria Scarlett Johansson destacou a importância de termos clareza absoluta sobre a proteção de nossas semelhanças, trabalhos e identidades, um tema que merece atenção legislativa.


    Não podemos esquecer das implicações éticas e legais de projetos como "The Next Rembrandt", que busca trazer de volta à vida o estilo de um dos maiores pintores da história através da tecnologia. Isso levanta a questão: podemos usar características pessoais de alguém, famoso ou não, de forma indiscriminada e sem autorização? Isso se agrava quando pensamos que as IA generativas precisam ser treinadas com grandes quantidades de dados, o que já resultou em processos como o do The New York Times contra a OpenAI, alegando uso indevido de conteúdos protegidos por direitos autorais.


    Em que pese, no caso brasileiro, a arquitetura protetiva dos direitos da personalidade já assegurar aos titulares os mecanismos para prevenir e reprimir esse tipo de prática, é importante assegurar não haver retrocessos no texto discutido no Congresso. Vamos juntos debater esse tema, considerando a realidade brasileira e os exemplos que já vimos lá fora.


    Exibir mais Exibir menos
    1 hora
  • EP#37: Por que foi importante a ANPD suspender o treinamento de IA da Meta?
    Jul 31 2024

    Apresentação: Ana Frazão / Caitlin Mulholland

    Produção: José Jance Marques

    A Autoridade Nacional de Proteção de Dados (ANPD) determinou que a Meta, responsável pelo Facebook, Instagram e WhatsApp, suspenda a validade da nova política de privacidade no Brasil. Esta política permitia o uso de dados pessoais de publicações abertas de usuários, como fotos e textos, para treinar sistemas de inteligência artificial (IA) generativa, sem oferecer contrapartidas ou informações detalhadas sobre o uso desses dados. A prática foi criticada na Europa e no Brasil pelo Instituto de Defesa de Consumidores (Idec).

    Conforme o Despacho Decisório nº 20/2024, a ANPD identificou várias violações potenciais à Lei Geral de Proteção de Dados (LGPD), incluindo a ausência de hipótese legal apropriada, pois a Meta utilizava a base legal de "interesse legítimo" para o tratamento de dados pessoais sensíveis, o que é inadequado conforme a LGPD.

    Além disso, houve falta de transparência, já que a divulgação das novas políticas de privacidade não fornecia informações claras e precisas aos usuários sobre como seus dados seriam utilizados. A limitação ao exercício de direitos também foi destacada, uma vez que a opção de opt-out não era facilmente acessível, dificultando o direito de oposição dos usuários. Outro ponto crucial foi o tratamento de dados de crianças e adolescentes, para o qual a Meta não adotou salvaguardas adequadas.

    A Meta foi notificada para suspender a nova política e o tratamento de dados pessoais para IA generativa, sob pena de multa diária de R$ 50.000,00. Segundo especialistas, é importante discutirmos como a suspensão da política de privacidade afeta os direitos dos usuários e a importância da transparência e do consentimento informado. Além disso, precisamos analisar a adequação do uso de "interesse legítimo" como base legal para tratamento de dados sensíveis e comparar essas práticas com outras regiões, como a União Europeia.

    Os riscos associados ao uso de dados pessoais para treinar sistemas de IA são um ponto crítico, incluindo exemplos de possíveis abusos e violações de privacidade. A proteção de dados de crianças e adolescentes apresenta desafios específicos que devem ser considerados, e medidas necessárias para garantir o melhor interesse dessas crianças e adolescentes devem ser discutidas.

    Embora a Meta alegue que a suspensão de sua nova política de privacidade representa um retrocesso para a inovação e competitividade no desenvolvimento de inteligência artificial, é essencial considerar que a proteção dos direitos fundamentais dos titulares de dados não pode ser comprometida em nome do progresso tecnológico. A utilização de dados pessoais sem o devido consentimento e transparência não só viola a LGPD, como também pode gerar consequências irreparáveis para a privacidade e a segurança dos indivíduos.

    A inovação responsável deve ser pautada pelo respeito aos direitos dos usuários, garantindo que a evolução tecnológica ocorra de maneira ética e legal, assegurando a confiança do público e a sustentabilidade das práticas empresariais a longo prazo.

    Esses são os principais aspectos que vamos debater no episódio de hoje.


    Exibir mais Exibir menos
    1 hora e 3 minutos
  • EP#36: A desinformação na tragédia do Rio Grande do Sul
    Jun 26 2024

    Apresentação: Ana Frazão / Caitlin Mulholland

    Produção: José Jance Marques

    As fortes chuvas no Rio Grande do Sul começaram em 27 de abril e se intensificaram em 29 de abril, afetando mais de 400 cidades, especialmente nas regiões do Vale do Rio Pardo, Vale do Taquari e a região metropolitana de Porto Alegre. Este é o maior desastre climático da história do estado, sendo a quarta tragédia em menos de um ano.


    Mesmo diante do estado de calamidade pública, reportagens investigativas e iniciativas de checagem de fatos têm apontado para a ampla circulação de conteúdos desinformativos. Essa desinformação atrapalha os trabalhos de assistência à população afetada pelas enchentes e é utilizada por personalidades para lucrar com a tragédia, obter engajamento ou apoio político. As plataformas digitais são co-responsáveis pela falta de transparência e por não revelarem os dados dos responsáveis pelos anúncios suspeitos. Empresas internacionais também contribuem permitindo o registro de sites anônimos usados para fraudes.


    Uma pesquisa recente promovida pelo Laboratório de Estudos de Internet e Redes Sociais e a Universidade Federal do Rio de Janeiro analisou a desinformação envolvendo a emergência climática no Rio Grande do Sul em publicações nas redes sociais e fraudes em anúncios do Meta Ads.


    Influenciadores, sites e políticos de extrema direita têm utilizado a comoção gerada para se autopromover e espalhar desinformação. Entre as principais narrativas estão a afirmação de que a resposta governamental tem sido insuficiente, a negação da relação entre os eventos e as mudanças climáticas, e a inserção da tragédia em teorias da conspiração. A atuação desses grupos é multiplataforma, amplificando suas mensagens para um público maior e dificultando os esforços de socorro e recuperação.


    Segundo a pesquisa, a desinformação foi disseminada de maneira orquestrada através de diversas plataformas, incluindo redes sociais, vídeos, imagens e conteúdo pago nos anúncios do Meta Ads. Influenciadores beneficiam-se dessa orquestração multiplataforma, amplificando suas mensagens para um público maior.


    A pesquisa identificou 351 anúncios fraudulentos realizados por 186 anunciantes. Esses anúncios utilizaram técnicas de engenharia social para promover produtos e informações falsas, visando obter renda ilegal e causar danos patrimoniais e morais. Sites falsos de arrecadação, imitando o layout do site Vakinha, foram utilizados para fraudar doações.


    A pesquisa sugere que a falta de regras claras para o ambiente online facilita a disseminação de desinformação e fraudes. Recomenda-se uma maior transparência e responsabilidade das plataformas digitais e empresas internacionais que permitem o registro de sites anônimos, além da necessidade de políticas públicas robustas para prevenir e combater a desinformação climática.


    No episódio de hoje vamos abordar o impacto da desinformação no enfrentamento de calamidades públicas como a que estamos enfrentando no Rio Grande do Sul. Para falar dos desafios do ponto de vista do governo, temos um convidado especial: o coordenador nacional do programa “Brasil Contra Fake”, George Marques.


    Exibir mais Exibir menos
    1 hora e 3 minutos
  • EP#35: Violência de gênero mediada pela tecnologia
    May 29 2024

    Apresentação: Ana Frazão / Caitlin Mulholland

    Produção: José Jance Marques

    A violência de gênero facilitada pela tecnologia tem se revelado uma das facetas mais perturbadoras do abuso digital. As plataformas digitais, ao priorizarem conteúdos que maximizam o engajamento do usuário, inadvertidamente promovem e amplificam estereótipos de gênero e narrativas prejudiciais.


    Este fenômeno é exacerbado pelo modelo de negócio das empresas de tecnologia, que usam algoritmos para entregar publicidade e conteúdo que são mais propensos a serem visualizados e compartilhados, independentemente do seu impacto negativo. Assim, o ambiente digital torna-se um vetor poderoso para a disseminação de discursos de ódio e misoginia, criando um terreno fértil para campanhas coordenadas que miram desacreditar e intimidar mulheres em espaços públicos e políticos.


    Pesquisa realizada pelo NetLab UFRJ identificou e analisou anúncios tóxicos que impactaram mulheres nas plataformas digitais, foram identificados 1.565 anúncios tóxicos ao longo de 28 dias de coleta. Estes anúncios, que estavam ativos em diferentes períodos entre 1 de janeiro e 9 de fevereiro de 2024, apresentaram indícios de comportamento misógino, golpes, fraudes ou irregularidades na oferta de produtos ou serviços voltados ao público feminino.


    Além disso, a pesquisa mapeou perfis, páginas e sites envolvidos na divulgação de produtos, serviços e/ou tratamentos suspeitos, enganosos ou fraudulentos, com potencial de causar danos à saúde das mulheres. Também foram identificados e mapeados perfis, páginas e sites que promovem uma cultura de incentivo à desigualdade de gênero, pregam a inferioridade das mulheres e promovem o ódio a mulheres e meninas, destacando a profundidade e a complexidade do problema enfrentado pelas mulheres nas plataformas digitais.


    Concomitantemente, a falta de regulamentação eficaz e a opacidade nas operações das plataformas digitais facilitam a perpetuação dessa violência. Muitos ataques são meticulosamente organizados em comunidades online, que se engajam em misoginia em rede. Tais comunidades apoiam-se mutuamente para disseminar discursos de ódio e conduzir campanhas de assédio contra mulheres, utilizando a tecnologia como ferramenta para ampliar o alcance e o impacto de suas ações.


    Essas práticas não apenas colocam em risco a segurança e o bem-estar das mulheres, mas também desafiam as bases da igualdade de gênero, exigindo uma resposta mais robusta das políticas públicas e das próprias plataformas para mitigar e eventualmente eliminar tais ameaças.


    Os modelos de negócio de plataformas como a Meta, que privilegiam conteúdos que engajam os usuários, acabam por reforçar preconceitos e disseminar desinformação. Essa estratégia, embora eficaz para engajamento e monetização, contribui para a perpetuação de visões distorcidas e muitas vezes prejudiciais sobre gênero, criando um ambiente hostil especialmente para mulheres.


    Tudo isso indica que, apesar das alegações de plataformas como a Meta de investir em moderação de conteúdo e políticas anti-ódio, a autorregulação tem falhado em proteger adequadamente as mulheres no mundo digital. Os dados da pesquisa sublinham a necessidade urgente de revisão e fortalecimento das abordagens regulatórias e das próprias políticas internas dessas plataformas para abordar e mitigar esses impactos negativos de forma eficaz. Vamos debater sobre esse assunto no episódio de hoje. Vem com a gente!


    Exibir mais Exibir menos
    1 hora e 2 minutos
  • EP#34: Transferência da mente humana para o mundo digital
    Apr 24 2024

    Apresentação: Ana Frazão / Caitlin Mulholland

    Produção: José Jance Marques


    Quem já assistiu "Black Mirror" pode se familiarizar com o nosso tema de hoje: a transferência da mente humana para o mundo digital. Essa ideia, que fascina e inquieta, está ganhando terreno no mundo real através de avanços em inteligência artificial e biotecnologia. A premissa de digitalizar e preservar a consciência humana tem sido um tópico recorrente em narrativas de ficção científica. Ela nos desafia a questionar a natureza da vida, da morte e da identidade pessoal.

    Na vida real, a ideia começa a tomar forma através de projetos e pesquisas que visam não apenas entender a mente humana, mas também replicá-la ou preservá-la de formas que desafiam nossa compreensão tradicional de existência. Estamos no limiar de um novo horizonte, onde os avanços tecnológicos podem permitir que memórias, personalidades e até consciências sejam mapeadas, armazenadas e, potencialmente, reativadas.

    Um dos projetos mais relevantes nessa área é o da Terasem Movement Foundation, que desde 2004 trabalha com a ideia de que a personalidade humana pode ser digitalizada e, eventualmente, replicada. Eles coletam dados de personalidade em uma escala extensa e usam esses dados para tentar criar simulações digitais que refletem traços de personalidade específicos, fundamentados no modelo Big Five.

    Outra iniciativa inovadora é a YOV, que procura criar versões digitais de pessoas a partir de áudios, textos e outros registros, permitindo interações póstumas. A ideia é que familiares e amigos possam continuar a ter algum tipo de contato com o ente querido, mesmo após sua morte, através de um avatar digital que utiliza os dados coletados para simular conversas e interações.

    Bruce Duncan, diretor-executivo da Terasem Movement Foundation, destaca que, apesar do progresso na coleta e interpretação de dados de personalidade, a fundação ainda está na fase de treinamento de uma inteligência artificial que possa simular de forma convincente a personalidade humana. Duncan é cauteloso, observando que ainda não podemos dizer que "temos uma mente clonada", indicando que o projeto está longe de atingir uma replicação total da consciência humana.

    Vitor Calegaro, professor adjunto do departamento de neuropsiquiatria da Universidade Federal de Santa Maria, aponta limitações mais fundamentais. Ele explica que a personalidade humana é o produto de uma interação complexa de sistemas psicofísicos, que incluem elementos mentais e biológicos. Sem a capacidade de replicar essas interações biológicas em um ambiente digital, a ideia de simular completamente a personalidade de alguém permanece, por ora, fora de alcance. Calegaro também enfatiza que certos traços, como a sexualidade e o amor, não podem ser totalmente categorizados ou replicados por modelos matemáticos.

    Um ponto relevante é o vazio legal relativo ao uso de dados digitais de pessoas falecidas para criar simulações ou avatares digitais. A Lei Geral de Proteção de Dados não especifica como esses dados devem ser tratados após a morte do titular, levantando questões éticas sobre a memória e a honra do falecido. Livia Teixeira Leal, professora da PUC-Rio e especialista em herança digital, destaca a importância da tutela da memória, que protege a imagem da pessoa ainda em vida, mas indica que há um risco de violação da memória quando as simulações digitais não refletem fielmente a personalidade ou os desejos do falecido.

    Essas brechas legais exigem uma reflexão mais profunda sobre a extensão dos direitos individuais após a morte, assim como a necessidade de desenvolver novos marcos regulatórios que abordem especificamente as implicações da tecnologia na vida e na morte, preservando a dignidade e a vontade das pessoas mesmo após seu falecimento. Vamos debater sobre isso no episódio de hoje. Vem com a gente!

    Exibir mais Exibir menos
    1 hora e 2 minutos
  • EP#33: Arquitetura enganosa das plataformas digitais
    Mar 27 2024

    Apresentação: Ana Frazão / Caitlin Mulholland

    Produção: José Jance Marques


    Neste episódio, mergulhamos no universo fascinante e ao mesmo tempo desafiador da arquitetura de plataformas digitais. Aqui, exploramos como os layouts e interfaces são meticulosamente projetados para influenciar nossas decisões online. Você já parou para pensar que cada clique, cada escolha que fazemos na web pode não ser tão autônoma quanto parece? Essa é a essência da teoria da arquitetura de escolhas, um conceito que ganhou notoriedade com o livro "Nudge", de Richard Thaler e Cass Sunstein. Este livro abre nossos olhos para os "empurrões" sutis, mas poderosos, que recebemos constantemente em nosso ambiente digital.

    Mas, o que acontece quando esses "nudges" se voltam para o lado obscuro? Quando, em vez de nos auxiliar, eles são utilizados para manipular nossas escolhas, levando-nos a tomar decisões que, sob circunstâncias diferentes, talvez evitássemos? Esse é o mundo dos chamados "dark patterns" ou padrões obscuros, práticas de design que se aproveitam de nossas vulnerabilidades psicológicas para nos induzir a clicar, comprar ou consentir com algo que não queremos ou precisamos.

    Nesse sentido, especialistas defendem ser imprescindível que o direito brasileiro e a sua aplicação prática sejam afinados para reconhecer e combater as dark patterns, aproveitando o arcabouço jurídico existente em prol da defesa dos consumidores. A Lei Geral de Proteção de Dados (LGPD), por exemplo, enfatiza a necessidade do consentimento livre, informado e inequívoco para o tratamento de dados pessoais, o que se contrapõe frontalmente às práticas de obtenção de consentimento através de dark patterns. Da mesma forma, o Código de Defesa do Consumidor oferece proteção contra práticas abusivas e enganosas, categorias nas quais as dark patterns se enquadram perfeitamente, ao induzir o consumidor a tomar decisões desvantajosas ou a fornecer dados sem a devida transparência e clareza.

    Além disso, há um debate relevante sobre a conscientização dos consumidores acerca dessas práticas manipulativas. Deve-se promover a educação digital como parte integrante da formação do cidadão, capacitando-os para identificar e se proteger contra as armadilhas digitais. Paralelamente, a atuação dos órgãos reguladores e de defesa do consumidor precisa ser intensificada, com a adoção de políticas públicas e estratégias de fiscalização que estejam à altura dos desafios impostos pelo dinâmico ambiente digital. Especialistas defendem, inclusive, que somente através de uma abordagem multidisciplinar, que englobe medidas regulatórias, educativas e de fomento à transparência e ética nas práticas comerciais, poderemos assegurar um ambiente digital que respeite os direitos dos consumidores e promova uma relação de consumo justa e equilibrada.

    Discutiremos a importância da ética na construção dessas arquiteturas digitais e como podemos, enquanto sociedade, legislar e regular para proteger a autonomia e a liberdade de escolha dos usuários. Acompanhe-nos nesta jornada que promete não apenas informar, mas também equipá-lo com o conhecimento necessário para navegar com mais segurança e consciência no vasto ciberespaço.

    Exibir mais Exibir menos
    51 minutos
  • EP#32: Segurança das crianças nas plataformas online
    Feb 28 2024

    Apresentação: Ana Frazão / Caitlin Mulholland

    Produção: José Jance Marques

    Hoje mergulhamos em uma questão urgente e preocupante: a segurança das crianças nas plataformas online. Recentemente, o Congresso dos Estados Unidos se tornou palco de uma audiência tensa, reunindo os principais executivos de gigantes das redes sociais - Meta, X (antigo Twitter), TikTok, Snap e Discord. O cerne dessa reunião? A alegada incapacidade dessas plataformas de proteger nossos jovens de perigos iminentes na internet.


    Este encontro no Senado americano destacou a preocupação bipartidária com a exposição de crianças a predadores online e a disseminação de pornografia infantil. Um vídeo impactante de vítimas de abuso sexual e relatos de pais enlutados por suicídios de filhos abriu a sessão, deixando uma mensagem clara: é hora de agir.


    As estatísticas apresentadas são alarmantes, com um aumento no compartilhamento de material de abuso sexual infantil e casos de "sextorsão". Isso coloca em evidência não só o lado sombrio da evolução tecnológica mas também a necessidade urgente de regulamentação. Propostas de legislação, como a Kids Online Safety Act, surgem como possíveis soluções, embora haja um caminho árduo para alcançar o consenso necessário para sua implementação.


    Os executivos das plataformas, por sua vez, ofereceram respostas cautelosas. Zuckerberg sugeriu a verificação de idade pelas lojas de aplicativos, enquanto Yaccarino enfatizou a necessidade de mais colaboração diante dos avanços da IA. Contudo, a resistência das plataformas às propostas legislativas e a revelação de que Zuckerberg anteriormente recusou aumentar o investimento em segurança infantil mostram a complexidade do desafio.


    O que mais preocupa os especialistas é a eficácia das medidas existentes e as propostas, considerando a sofisticação dos predadores online e as limitações das ferramentas de proteção atuais. A audiência no Senado americano ressalta a urgência de uma ação coordenada entre governos, plataformas e a sociedade para proteger as crianças online.


    Neste contexto, é fundamental discutir a ampliação das obrigações e responsabilização das redes sociais no que tange à segurança online das crianças. A implementação de políticas públicas voltadas para a educação digital emerge como uma estratégia crucial, capaz de munir nossos jovens com o discernimento necessário para navegar com segurança na vastidão digital. Paralelamente, a aplicação de inteligência artificial pelas plataformas na identificação e eliminação de conteúdos e perfis violentos representa um avanço significativo.


    Além disso, há a proposra de vincular contas de redes sociais a documentos como CPF e CNPJ no Brasil,, visando a diminuição de conteúdos prejudiciais e a promoção de um ambiente online mais seguro.


    Esse cenário nos convida a refletir sobre o equilíbrio entre privacidade e segurança, a eficácia das regulamentações existentes e o papel do Marco Civil da Internet frente aos desafios contemporâneos da era digital. À medida que aguardamos decisões judiciais sobre a constitucionalidade de certos artigos, como o artigo 19 do Marco Civil, permanece a questão: estamos fazendo o suficiente para proteger nossas crianças online? Essas e outras perguntas vão compor a discussão deste episódio.


    Exibir mais Exibir menos
    58 minutos
  • EP#31: Bancos de dados genéticos
    Jan 31 2024

    Apresentação: Ana Frazão / Caitlin Mulholland

    Produção: José Jance Marques

    Recentemente as redes sociais foram tomadas por postagens de pessoas que fizeram a trend da ancestralidade genética. Nesses conteúdos, elas compravam kits de empresas que coletam DNA para, supostamente, mostrar traços de descendência de outros continentes. As pessoas coletavam amostras de suas salivas e mandavam para a empresa que armazenava esse material genético e entregava o resultado através do aplicativo. No entanto, em outubro de 2023, houve um vazamento massivo de dados genéticos armazenados por algumas empresas em servidores americanos. Essas informações chegaram a ser comercializadas em fóruns na darkweb.

    O debate sobre bancos de dados genéticos também passam por iniciativas médicas compulsórias para armazenamento dessas informações. Em 2023, os ministros do Supremo Tribunal Federal declararam inconstitucionais, no julgamento da ADI 5545, que os dispositivos de uma lei do estado do Rio de Janeiro que determinam que hospitais públicos e privados guardem o material genético de mães e bebês – sem o consentimento expresso da parturiente – após o parto para impedir ou dificultar a possível troca de bebês.

    Todos os ministros acompanharam o relator, Luiz Fux, que entendeu que, por mais que a intenção do legislador tenha sido positiva, a norma é desproporcional e viola direitos fundamentais como a privacidade e a dignidade da pessoa humana. Os ministros entenderam ainda que a medida contraria a proteção de dados e a bioética. O relator apontou que a norma fluminense não diz como os dados seriam armazenados e previa que a coleta fosse feita de maneira compulsória, sem o consentimento expresso da mãe.

    No final do julgamento, a Corte fixou a tese de que “É inconstitucional a lei estadual que preveja o armazenamento de material genético de nascituros e parturientes em unidades de saúde com o fim de realizar exames de DNA ou comparativo em caso de dúvida”.

    Se por um lado a criação de bancos de dados genéticos pode oferecer avanços significativos na pesquisa médica, diagnósticos de doenças genéticas e desenvolvimento de tratamentos personalizados. Por outro, essa prática levanta sérias preocupações relacionadas à privacidade e segurança dos dados, uma vez que informações genéticas são extremamente sensíveis e únicas para cada indivíduo.

    A Lei Geral de Proteção de Dados (e legislações similares, como o Regulamento Geral de Proteção de Dados na União Europeia) estabelece diretrizes para o tratamento de dados pessoais, incluindo informações genéticas. a LGPD busca proteger os direitos dos titulares dos dados, garantindo transparência, consentimento informado e segurança no processamento dessas informações.

    Os conflitos surgem quando a coleta e o uso de dados genéticos não estão alinhados com os princípios estabelecidos pela legislação de proteção de dados. Questões como consentimento adequado, finalidade específica da coleta, segurança na armazenagem e compartilhamento responsável dos dados tornam-se pontos críticos. Além disso, a possibilidade de discriminação com base em informações genéticas também é uma preocupação central.

    A promessa de avanços médicos e científicos proporcionados pela análise de dados genéticos é inegável, mas como conciliamos esses benefícios com a necessidade de proteger a privacidade e os direitos individuais? Como as leis de proteção de dados, como a LGPD, entram em jogo nesse cenário? Essas são algumas das questões que vamos discutir hoje neste episódio.


    Exibir mais Exibir menos
    59 minutos