- Introdução
As tecnologias baseadas em inteligência artificial (IA) vêm transformando o modo como reuniões online são conduzidas. Ferramentas capazes de transcrever, resumir e analisar automaticamente conversas prometem mais produtividade e clareza no registro das discussões. No entanto, à medida que essas soluções ganham espaço no ambiente corporativo, surgem preocupações legítimas, tais como: estamos respeitando os direitos à privacidade dos participantes? Estamos em conformidade com a Lei Geral de Proteção de Dados Pessoais (LGPD) e com as diretrizes da ANPD (Autoridade Nacional de Proteção de Dados)?
Embora o Brasil ainda não tenha uma regulamentação específica sobre o uso de IA, o tema está em discussão. Em 2024, a ANPD realizou uma Tomada de Subsídios sobre inteligência artificial e proteção de dados, com o objetivo de colher contribuições da sociedade civil, especialistas e setor produtivo. Além disso, já há projetos de lei em tramitação no Congresso Nacional, como o PL nº 2338/2023, que visa instituir o Marco Legal da Inteligência Artificial no Brasil. Esse projeto, ainda em debate, trata de princípios para o desenvolvimento e uso responsável da IA, mas não aborda de forma detalhada o uso de assistentes virtuais em reuniões ou a captação automatizada de dados sensíveis.
Em paralelo, a ANPD já se manifestou sobre o uso de dados para o treinamento de IA. Em julho de 2024, determinou que a Meta suspendesse o uso de dados pessoais para treinar seus modelos, citando falta de transparência, riscos a titulares e especialmente a crianças e adolescentes. A Meta apresentou um plano de conformidade à Autoridade, o qual previu que dados de contas de criança e adolescentes não serão tratados para esse fim, bem como se comprometeu a tomar medidas de ampliação da transparência e oferecer opção facilitada para o titular negar a qualquer momento o uso de seus dados pessoais para treinamento de modelos de IA generativa. O plano foi aprovado pela ANPD por meio do Despacho Decisório nº 33/2024/PR/ANPD.
Com o cenário regulatório ainda em construção, as empresas e organizações devem agir com base nas diretrizes que temos disponíveis hoje e, especialmente, nos princípios da LGPD e em boas práticas preventivas. Esse cuidado deve ser dispensado no uso de gravações e transcrições geradas por IA em ambientes de trabalho.
- O que diz a LGPD sobre gravações e dados pessoais
Mesmo sem regras específicas para IA, a LGPD fornece diretrizes robustas que se aplicam a qualquer tratamento de dados pessoais. Ao gravar e transcrever uma reunião com ajuda de IA, as organizações devem seguir princípios como:
- Finalidade: a gravação deve ter um propósito legítimo e claro, como registro de decisões ou documentação.
- Necessidade: apenas dados estritamente necessários devem ser coletados.
- Transparência e consentimento: os participantes devem ser informados de forma clara sobre a gravação e, idealmente, devem consentir com ela.
- Segurança: os dados pessoais devem ser protegidos contra acessos não autorizados, vazamentos ou usos indevidos.
Gravações automatizadas não são proibidas, mas envolvem riscos jurídicos e reputacionais, principalmente quando há tratamento de dados pessoais sensíveis ou envolvem pessoas externas à organização.
- Situações de risco: quando a gravação pode se tornar um problema
Ainda que não haja casos amplamente divulgados envolvendo gravações com IA, há cenários hipotéticos verossímeis, baseados em incidentes semelhantes já enfrentados por empresas no uso de tecnologia no ambiente corporativo:
- Vazamento de informações confidenciais: uma ferramenta de IA grava e transcreve automaticamente uma reunião sobre reestruturações internas. O arquivo é salvo sem criptografia em uma pasta acessível a funcionários de outras áreas, causando vazamentos e impactos à confiança interna.
- Consentimento não obtido: uma reunião com fornecedores é automaticamente gravada sem aviso. Os convidados percebem isso durante a conversa e questionam a legalidade do ato, gerando tensão na relação contratual e risco de sanções por descumprimento da LGPD.
- Transcrição mal interpretada: um comentário informal é registrado como decisão final. Posteriormente, esse trecho da transcrição é usado para justificar mudanças operacionais que não haviam sido acordadas — gerando retrabalho e ruído entre equipes.
Essas situações reforçam que a tecnologia não substitui a governança de dados. Ferramentas de IA devem ser usadas com planejamento, supervisão e critério.
- Boas práticas para proteger a privacidade em reuniões com IA
Para reduzir riscos e garantir conformidade, é recomendável seguir práticas como:
- Aviso prévio e consentimento: informe claramente que a reunião será gravada e peça autorização dos participantes, especialmente externos.
- Ferramentas com governança: escolha soluções que ofereçam segurança, controle de acesso, criptografia e transparência no tratamento dos dados.
- Acesso restrito aos registros: apenas pessoas autorizadas devem ter acesso às gravações e transcrições. Defina prazos para retenção e descarte.
- Validação manual de decisões: não se baseie apenas em resumos automáticos. Confirme os pontos críticos por meio de atas ou documentos formais.
- Política interna sobre uso de IA: estabeleça diretrizes específicas sobre quando e como gravações automatizadas podem ser feitas — e treine as equipes para seguir esses protocolos.
- A ausência de regulação não significa ausência de responsabilidade
Mesmo sem uma regulamentação específica sobre gravações com IA, as organizações continuam responsáveis por proteger os dados pessoais de seus colaboradores, parceiros e clientes. A LGPD está em vigor e é aplicável sempre que dados pessoais são tratados, independentemente do meio.
Além disso, a tendência é que a regulação sobre IA continue avançando nos próximos anos, tanto no Brasil quanto internacionalmente. Antecipar-se a essas mudanças por meio de boas práticas é uma forma de se proteger juridicamente e fortalecer a reputação organizacional.
- O que diz a legislação em outros países
- União Europeia (GDPR): O Regulamento Geral de Proteção de Dados (GDPR) é uma das legislações mais rígidas do mundo em relação à privacidade. Ele exige consentimento explícito de todos os participantes antes da gravação ou processamento automatizado de dados. O uso de IA para transcrição ou análise de reuniões deve estar claramente descrito e documentado. Violações podem resultar em multas de até 4% do faturamento global anual da empresa.
- Estados Unidos: A legislação varia de estado para estado. Na Califórnia, por exemplo, a California Consumer Privacy Act (CCPA) exige que consumidores sejam informados sobre a coleta e uso de seus dados. Algumas jurisdições exigem o consentimento de todas as partes envolvidas na gravação, enquanto outras aceitam o consentimento de apenas uma parte.
- Canadá, Austrália e Reino Unido: Todos esses países impõem restrições ao uso de dados pessoais, exigindo que o tratamento seja proporcional, transparente e baseado em uma base legal clara — como consentimento ou legítimo interesse.
Esses marcos mostram que o uso de IA para gravação e análise de reuniões não é neutro do ponto de vista legal. A conformidade internacional exige atenção redobrada quando empresas operam globalmente ou mantêm relações com clientes estrangeiros.
- Conclusão
A inteligência artificial aplicada a reuniões pode trazer ganhos reais de produtividade, mas não elimina a responsabilidade legal e ética sobre o uso de dados pessoais. Gravar, transcrever e interpretar conversas com o apoio de IA exige cuidado, clareza, consentimento e segurança.
Enquanto a regulamentação brasileira ainda está em desenvolvimento, empresas que agirem preventivamente, adotando os princípios da LGPD e observando padrões internacionais, estarão mais preparadas para os desafios futuros — e mais protegidas contra riscos imediatos.
A tecnologia deve ser uma aliada da eficiência, nunca uma fonte de exposição jurídica ou de quebra de confiança.
Por Juliana Guimarães de Castro Neves, advogada do Mendonça de Barros Advogados.