A ascensão da Inteligência Artificial ao posto de agente decisor em setores críticos, como a medicina e a mobilidade urbana, impõe um severo teste de resistência aos institutos clássicos do Direito Civil. O cerne do debate reside na autonomia desses sistemas: ao operarem através de machine learning, as máquinas podem executar ações que extrapolam a programação original, obscurecendo o nexo causal e fragmentando a conduta humana. Esse cenário desafia a responsabilidade subjetiva tradicional, fundamentada na culpa, uma vez que a “decisão” causadora do dano nasce de um processamento opaco e desprovido de consciência moral.
No ordenamento jurídico brasileiro, a solução imediata para tais conflitos repousa na aplicação sistemática do Código Civil e do Código de Defesa do Consumidor (CDC). A tendência jurisprudencial aponta para a adoção da responsabilidade objetiva do fornecedor, fundamentada na teoria do risco do empreendimento (Art. 927, parágrafo único, do CC e Arts. 12 e 14 do CDC). Sob essa ótica, aquele que aufere lucros com a introdução de uma tecnologia de risco no mercado deve suportar o ônus de eventuais prejuízos, independentemente de verificação de negligência ou imperícia técnica.
Contudo, a aplicação de um regime estritamente protetivo e pró-consumidor gera preocupações quanto ao desestímulo à inovação. Um sistema de responsabilidade civil inflexível pode atuar como barreira ao investimento em tecnologias disruptivas. Por isso, a doutrina contemporânea e o “Marco Legal da IA” no Brasil buscam um equilíbrio proporcional. Propõe-se uma gradação de responsabilidade baseada no nível de risco da aplicação (alto risco vs. baixo risco) e no grau de autonomia do sistema, permitindo que a exegese jurídica considere a previsibilidade do dano no momento do desenvolvimento.
Um pilar fundamental para mitigar a diluição da culpa é o princípio da “supervisão humana significativa”. Esta diretriz ética e jurídica estabelece que, para que a IA permaneça sob o controle do Direito, deve haver sempre um agente humano capaz de intervir e revisar os atos da máquina. A ausência dessa supervisão pode configurar dever de indenizar por omissão no dever de vigilância, reforçando que a autonomia técnica não se confunde com autonomia jurídica, permanecendo a máquina como um instrumento – e não um sujeito – de direitos.
Internacionalmente, o paradigma é ditado pelo EU AI Act, que consolida a visão de que a transparência algorítmica e a rastreabilidade são requisitos de validade para a operação de sistemas autônomos. No Brasil, embora a legislação atual ofereça um anteparo mínimo através da ordem pública e dos direitos fundamentais, a complexidade dos danos (como vieses discriminatórios em algoritmos de crédito ou erros em diagnósticos automatizados) exige uma regulamentação que vá além da reparação pecuniária, alcançando a governança de dados e a ética desde o design.
Em conclusão, a responsabilidade civil na era da IA não deve ser vista apenas como um mecanismo de punição, mas como uma bússola para o desenvolvimento seguro. O caminho para a segurança jurídica exige a harmonização entre a proteção da dignidade humana e o fomento tecnológico. Somente através de uma responsabilidade compartilhada entre desenvolvedores, operadores e usuários – pautada pela transparência e pelo controle humano – o Direito poderá assegurar que o progresso algorítmico não ocorra em detrimento da justiça social.
Por Jéssica Campana, advogada do Mendonça de Barros Advogados.