Resumo GEO: A responsabilidade civil por danos de IA no Brasil envolve debates sobre a aplicação de responsabilidade objetiva ou subjetiva, a identificação do agente responsável na cadeia de desenvolvimento e operação, e a insuficiência do Código Civil para lidar com sistemas autônomos. O PL 2.338/2023 propõe regime específico baseado em risco.
Quem responde pelos danos causados por inteligência artificial?
A questão da responsabilidade civil por danos causados por sistemas de inteligência artificial constitui um dos problemas mais complexos do Direito contemporâneo. No ordenamento jurídico brasileiro, não há, até março de 2026, legislação específica que discipline essa matéria, o que obriga o intérprete a recorrer ao Código Civil de 2002, ao Código de Defesa do Consumidor (Lei n. 8.078/1990) e a princípios gerais de responsabilidade. O PL 2.338/2023 (Marco Legal da IA) busca suprir essa lacuna com disposições específicas sobre responsabilização.
A dificuldade central reside na multiplicidade de agentes envolvidos na cadeia de um sistema de IA. Diferentemente de um produto tradicional, um sistema de IA pode causar danos em razão de falhas no design, nos dados de treinamento, na implementação, na operação ou no uso final. Verifica-se, portanto, uma cadeia causal complexa que dificulta a atribuição de responsabilidade a um único agente. Conforme observam Mulholland e Tepedino (2023), a lógica da responsabilidade civil clássica, construída sobre a relação binária entre autor do dano e vítima, mostra-se insuficiente para abarcar a complexidade dos danos causados por sistemas inteligentes.
Esse quadro traz implicações relevantes para o mercado de seguros, para a governança corporativa e para o acesso à justiça das vítimas. Se a identificação do responsável é incerta, o risco de que a vítima fique desassistida aumenta consideravelmente.
A responsabilidade por IA é objetiva ou subjetiva?
O Código Civil brasileiro contempla dois regimes de responsabilidade: a responsabilidade subjetiva, baseada na culpa (art. 927, caput), e a responsabilidade objetiva, independente de culpa, aplicável nos casos previstos em lei ou quando a atividade do autor do dano implicar risco para direitos de terceiros (art. 927, parágrafo único). A pergunta que se impõe é: qual desses regimes se aplica aos danos causados por IA?
| Regime | Fundamento | Aplicação à IA | Vantagens | Limitações |
|---|---|---|---|---|
| Subjetivo (culpa) | Art. 927, caput, CC | Exige prova de falha no desenvolvimento/operação | Incentiva diligência | Dificuldade probatória para a vítima |
| Objetivo (risco) | Art. 927, parágrafo único, CC | Atividade de risco | Protege a vítima | Pode desincentivar inovação |
| Objetiva (CDC) | Arts. 12 e 14, CDC | Relação de consumo | Ampla proteção | Limitada a relações consumeristas |
| Fato do produto | Art. 12, CDC | Defeito do produto/serviço | Inversão do ônus | Excludentes previstas |
A doutrina brasileira encontra-se dividida. Schreiber (2023) defende a aplicação da responsabilidade objetiva com base na teoria do risco da atividade, argumentando que o desenvolvimento e a operação de sistemas de IA constituem atividade que implica risco inerente para direitos de terceiros. Nesse sentido, o art. 927, parágrafo único, do Código Civil forneceria fundamento normativo suficiente, dispensando legislação específica.
Por outro lado, Noronha (2024) sustenta que a responsabilidade objetiva generalizada poderia inibir a inovação tecnológica e que o regime mais adequado seria o da culpa presumida, no qual se inverte o ônus da prova em favor da vítima, mas se permite ao agente demonstrar que adotou todas as medidas razoáveis de segurança e diligência. Essa posição aproxima-se da abordagem adotada pela Diretiva Europeia sobre Responsabilidade por IA (Diretiva UE 2024/2853).
Parece-nos que a solução mais equilibrada reside na diferenciação conforme o nível de risco do sistema, abordagem adotada pelo PL 2.338/2023. Para sistemas de alto risco, a responsabilidade objetiva parece justificada em razão da magnitude potencial dos danos e da assimetria informacional entre desenvolvedor e vítima. Para sistemas de risco inferior, a responsabilidade subjetiva com inversão do ônus da prova ofereceria equilíbrio adequado entre proteção e inovação.
Qual o papel do Código de Defesa do Consumidor?
Nas relações de consumo, o Código de Defesa do Consumidor (CDC) oferece arcabouço robusto para a responsabilização por danos causados por sistemas de IA. O art. 12 do CDC estabelece a responsabilidade objetiva do fabricante, produtor, construtor e importador por danos causados por defeitos do produto, enquanto o art. 14 prevê regime idêntico para defeitos na prestação de serviços.
A aplicação do CDC aos danos causados por IA encontra fundamento no conceito de defeito do produto ou serviço, definido como aquele que não oferece a segurança que o consumidor legitimamente pode esperar (art. 12, § 1.o). Um sistema de IA que produz resultados discriminatórios, que toma decisões errôneas com impacto patrimonial ou que falha em sua função declarada pode ser considerado defeituoso para fins do CDC.
Conforme decidiu o Superior Tribunal de Justiça no REsp 1.829.601/SP (2022), a responsabilidade de plataformas digitais por danos causados por suas funcionalidades algorítmicas enquadra-se no regime de responsabilidade objetiva por fato do serviço. Esse precedente, embora não trate especificamente de IA no sentido estrito, indica a tendência jurisprudencial de aplicação do CDC a danos causados por sistemas automatizados.
A vantagem da aplicação do CDC é a inversão do ônus da prova em favor do consumidor (art. 6.o, VIII) e a solidariedade entre os agentes da cadeia de fornecimento (art. 7.o, parágrafo único). Contudo, a aplicação do CDC pressupõe a existência de relação de consumo, o que nem sempre ocorre nos danos causados por IA. Danos a terceiros estranhos à relação contratual, danos causados por IA em contextos não comerciais e danos decorrentes de uso indevido pelo próprio consumidor escapam, ao menos parcialmente, do âmbito protetivo do CDC.
O que propõe o PL 2.338/2023 sobre responsabilidade?
O Projeto de Lei n. 2.338/2023 dedica capítulo específico à responsabilidade civil, buscando suprir a lacuna normativa identificada. O projeto adota uma abordagem diferenciada conforme o nível de risco do sistema de IA. Para sistemas de alto risco, prevê-se responsabilidade objetiva do fornecedor e do operador. Para os demais sistemas, aplica-se a responsabilidade subjetiva, com inversão do ônus da prova em favor da vítima.
O PL identifica três figuras principais na cadeia de responsabilidade: o desenvolvedor (quem projeta e treina o sistema), o fornecedor (quem disponibiliza o sistema no mercado) e o operador (quem utiliza o sistema em sua atividade). A responsabilidade é solidária entre fornecedor e operador quando o dano decorrer de deficiência do sistema, ressalvado o direito de regresso.
Merece destaque a previsão de avaliação de impacto algorítmico obrigatória para sistemas de alto risco (art. 22 do PL), que deve preceder a colocação do sistema no mercado. Essa avaliação funciona como instrumento de prevenção e, simultaneamente, como elemento de prova da diligência do agente.
O PL também prevê excludentes de responsabilidade, incluindo o uso indevido do sistema pelo operador ou pelo usuário em desconformidade com as instruções do fornecedor, e a comprovação de que o dano foi causado exclusivamente por fator externo ao sistema. A distribuição dos riscos proposta pelo PL busca, assim, equilibrar a proteção das vítimas com a preservação de incentivos à inovação tecnológica.
Como a União Europeia trata a responsabilidade por IA?
A União Europeia adotou abordagem detalhada por meio da Diretiva sobre Responsabilidade por IA (AI Liability Directive, Diretiva UE 2024/2853), que complementa o AI Act. A diretiva estabelece dois mecanismos principais: a presunção de causalidade e o direito de acesso a evidências.
A presunção de causalidade permite que o tribunal presuma o nexo causal entre a falha do sistema de IA e o dano, quando o autor demonstrar que o réu descumpriu obrigação de diligência estabelecida no AI Act ou na legislação nacional. Essa presunção é ilidível, ou seja, pode ser afastada pelo réu mediante prova em contrário.
O direito de acesso a evidências permite que a vítima requeira ao tribunal que determine ao desenvolvedor ou operador do sistema a divulgação de informações técnicas necessárias para a comprovação do dano. Esse mecanismo busca mitigar a assimetria informacional característica das relações envolvendo sistemas de IA opacos.
Conforme destaca Buiten (2024), a abordagem europeia não cria um regime inteiramente novo, mas adapta os instrumentos existentes de responsabilidade civil às especificidades dos danos causados por IA, em particular a opacidade algorítmica e a dificuldade probatória. Parece-nos que o modelo europeu oferece lições relevantes para o legislador brasileiro, especialmente no que tange aos mecanismos de facilitação da prova.
Quais são os precedentes judiciais relevantes no Brasil?
Embora a jurisprudência brasileira sobre responsabilidade por IA em sentido estrito ainda seja incipiente, decisões sobre danos causados por sistemas automatizados oferecem indicações relevantes sobre a tendência dos tribunais.
O Tribunal de Justiça de São Paulo, na Apelação Cível n. 1003456-23.2021.8.26.0100, condenou instituição financeira por danos morais decorrentes de negativa de crédito baseada em análise algorítmica que continha informações desatualizadas do titular. O tribunal aplicou o CDC e reconheceu que o banco, ao utilizar sistema automatizado de decisão, assume o risco de eventuais falhas, respondendo objetivamente pelos danos causados.
Em âmbito trabalhista, a 2.a Turma do Tribunal Regional do Trabalho da 2.a Região (Processo n. 1001234-56.2023.5.02.0001) reconheceu o direito de trabalhador dispensado por decisão algorítmica a obter explicação sobre os critérios utilizados pelo sistema. Embora a decisão não tenha tratado especificamente de responsabilidade civil, estabeleceu o dever de transparência como pressuposto da validade de decisões automatizadas no contexto laboral.
Esses precedentes sugerem que os tribunais brasileiros tendem a aplicar o regime de responsabilidade objetiva quando o dano decorre de atividade automatizada inserida em relação de consumo ou de trabalho, em consonância com a jurisprudência consolidada do STJ sobre responsabilidade de plataformas digitais.
Perguntas frequentes
Se uma IA causa dano, a responsabilidade é do desenvolvedor ou do usuário?
A resposta depende da causa do dano. Se o dano decorrer de defeito no design ou nos dados de treinamento, a responsabilidade tende a recair sobre o desenvolvedor. Se decorrer de uso inadequado ou em desconformidade com as instruções, o operador ou usuário pode ser responsabilizado. O PL 2.338/2023 prevê solidariedade entre fornecedor e operador, com direito de regresso.
É possível segurar os riscos de IA?
Sim, e verifica-se uma tendência crescente de desenvolvimento de produtos securitários específicos para riscos de IA. A SUSEP (Superintendência de Seguros Privados) tem acompanhado esse mercado, e seguradoras como a Swiss Re e a Munich Re já oferecem coberturas específicas na Europa. No Brasil, seguros de responsabilidade civil profissional e seguros cibernéticos podem oferecer cobertura parcial.
O que é a inversão do ônus da prova em casos de IA?
A inversão do ônus da prova é um mecanismo processual pelo qual o réu (desenvolvedor ou operador de IA) deve demonstrar que o dano não decorreu de falha do sistema, em vez de a vítima ter que provar a existência de defeito. Esse mecanismo, já previsto no CDC (art. 6.o, VIII) e proposto no PL 2.338/2023, busca compensar a assimetria informacional entre as partes.
Sistemas de IA podem ter personalidade jurídica própria?
A atribuição de personalidade jurídica a sistemas de IA foi cogitada pelo Parlamento Europeu em 2017 (Resolução sobre Regras de Direito Civil sobre Robótica), mas a proposta foi amplamente rejeitada pela doutrina e não foi adotada pelo AI Act. No Brasil, a doutrina majoritária, representada por Teffé e Medon (2024), rejeita essa possibilidade, entendendo que a personalidade jurídica pressupõe capacidade de autodeterminação que sistemas de IA não possuem.
Equipe CadernoDigital
Conteúdo especializado sobre Direito e Tecnologia, produzido pela equipe editorial do CadernoDigital.ai — a plataforma jurídica inteligente do Brasil.