Compartilhe

É possível pensar em responsabilidade civil por danos causados pela Inteligência Artificial?

Imagine a seguinte situação: você planeja uma viagem dos seus sonhos para um paraíso tropical, compra a passagem, faz a reserva no hotel, consulta o ChatGPT sobre roteiros de passeios e também sobre a necessidade de visto. A IA responde que não precisa de visto e traz uma lista de passeios imperdíveis.Convencido de que poderiam seguir viagem sem burocracia, você chega no aeroporto para embarcar e então descobre que faltava um detalhe indispensável: o ESTA (Electronic System for Travel Authorization), exigido para acessar os Estados Unidos e seus territórios. Resultado: embarque negado e sonho frustrado. Isso aconteceu com um casal espanhol, mas poderia ser com qualquer pessoa desatenta.

@merycaldass

si hay una revolución de las IAs voy a ser la primera 4niquil-hada🧚‍♀️

♬ sonido original – Mery Caldass

O episódio ganhou repercussão nas redes sociais e escancarou um dilema central do nosso tempo: quando a inteligência artificial falha, quem deve responder? Seria culpa exclusiva dos viajantes, que não checaram a informação em fontes oficiais? Ou haveria algum tipo de responsabilidade a ser atribuída ao sistema que forneceu a resposta equivocada? 

Esse exemplo, aparentemente trivial, toca em questões jurídicas profundas. Afinal, estamos diante de um erro de interpretação individual ou de um risco inerente à tecnologia? E, no caso de danos mais graves — um diagnóstico médico incorreto, uma operação financeira mal orientada ou um sistema autônomo envolvido em acidente —, como o direito brasileiro pode enquadrar a responsabilidade civil por danos causados por inteligência artificial?

Contexto global e brasileiro

A União Europeia saiu na frente na discussão sobre quem responde por erros de sistemas de inteligência artificial ao aprovar o AI Act, estabelecendo regras para o desenvolvimento e uso, classificando riscos e prevendo, inclusive, hipóteses de responsabilidade. O bloco europeu busca equilibrar inovação e proteção de direitos fundamentais, adotando o princípio da precaução: quanto maior o risco potencial da tecnologia, maior a exigência de segurança e transparência do fornecedor.

Nos Estados Unidos, o caminho tem sido mais fragmentado. Não há uma lei federal única sobre IA, mas diferentes estados e agências já discutem diretrizes para atribuir responsabilidade em casos de falhas. Em geral, a lógica americana tende a valorizar a autorregulação do mercado e a responsabilização caso a caso, via precedentes judiciais. Processos envolvendo acidentes com veículos autônomos, por exemplo, têm servido de laboratório para definir se a culpa recai sobre o fabricante, o desenvolvedor do software ou o próprio usuário.

E o Brasil? Por aqui, ainda não temos uma legislação específica sobre responsabilidade civil por danos causados por IA. O que temos são ferramentas jurídicas tradicionais e na falta de uma regulamentação, o judiciário brasileiro tem recorrido ao Código de Defesa do Consumidor (CDC) para condenar empresas que administram os sistemas de Inteligência Artificial por danos causados às pessoas.

Os tribunais já começaram a receber casos em que a inteligência artificial não é apenas pano de fundo, mas parte ativa do conflito jurídico. O problema é que ainda não existe uma resposta uniforme: cada colegiado interpreta de forma distinta até onde vai a responsabilidade civil quando o dano decorre de sistemas de IA. 

No TJDFT , um caso emblemático de cobrança indevida levou a Corte a refletir sobre o papel da IA nos sistemas bancários. O tribunal reconheceu que as instituições financeiras operam com algoritmos e robôs para gerir dívidas, mas fez uma distinção crucial: “má-fé é atributo humano, não de máquinas”. Por isso, afastou a devolução em dobro do indébito, entendendo que inconsistências geradas por “sistemas automatizados não podem ser tratadas como fraude deliberada”. Aqui, o recado é claro: erros de IA não se confundem com dolo humano.

Uma situação semelhante foi julgada pelo TJ-PR mais recentemente e teve uma decisão diferente. Um banco alegava que não tinha culpa em operações fraudulentas realizadas por meio de sua solução tecnológica de proteção baseada em IA, mas a Corte concluiu que a instituição não conseguiu “demonstrar a ausência de falha no sistema” e reconheceu sua responsabilidade. Nesse caso, a inteligência artificial não serviu de escudo, pelo contrário, a vulnerabilidade tecnológica reforçou o dever de indenizar.

Já o TJ-SC julgou um caso de motorista de aplicativo que teve seu contrato suspenso porque o sistema de reconhecimento facial da plataforma não validou sua identidade. O tribunal entendeu que a falha do modelo de aprendizagem de máquina configurou violação à boa-fé objetiva e determinou indenização. Na decisão, a IA deixou de ser apenas uma ferramenta neutra: a plataforma foi responsabilizada pelo mau funcionamento do algoritmo que controlava a relação de trabalho.

No TJ-MG, o debate foi o banimento automático (gerado por algoritmo de IA) de conta do Whatsapp. A Meta alegou legitimidade do bloqueio e falta de ingerência, mas o tribunal reconheceu que houve ingerência sobre o aplicativo e cobrou um protocolo orientado pela legislação brasileira: comunicação prévia, motivo fundamentado e chance de defesa. A decisão ancora a eficácia horizontal dos direitos fundamentais no ambiente digital e afirma a responsabilidade da empresa pelas decisões e consequências tomadas por máquinas, algoritmos e IA. 

Há ainda decisões em que a IA aparece ligada a deepfakes e fraudes digitais. Em 2025, o TJ-PR tratou a responsabilidade civil de plataformas de redes sociais que hospedaram conteúdos gerados por IA sob duas chaves: urgência para conter o dano e dever de rastreabilidade para identificar autores. Reconheceu a probabilidade do direito e o perigo de dano (art. 300 do CPC) diante do uso fraudulento da imagem da autora em vídeo “provavelmente confeccionado por IA”, com golpe em escala nacional. Aplicou o Marco Civil da Internet para balizar a responsabilização do provedor de aplicação: (i) remoção do conteúdo mediante ordem judicial, com base no art. 19, §4º; e (ii) fornecimento de registros de conexão (IP, data e hora) nos termos do art. 22, em linha com os prazos de guarda dos arts. 13 (provedor de conexão, 1 ano) e 15 (provedor de aplicação, 6 meses). Resultado: determinação de remoção em 48h, multa diária e entrega dos IPs. Neste caso, a IA não era apenas o instrumento da fraude, mas também a razão pela qual o dano ganhou proporções mais graves — já que o realismo dos vídeos intensificava o impacto sobre a reputação das vítimas.

A jurisprudência brasileira ainda está “testando” as lentes normativas para enxergar a responsabilidade civil por sistemas de inteligência artificial. Esse mosaico revela um padrão em formação: quando o sistema eleva o risco de dano e há falha verificável, cresce a chance de condenação com base no CDC e nos arts. 186, 187 e 927 do Código Civil. Quando falta prova do nexo ou do ilícito, a resposta é mais contida. Em comum, os tribunais têm exigido documentação técnica e mecanismos de identificação para atribuir algum nível de responsabilidade. 

Possibilidades de responsabilidade civil da IA no cenário jurídico atual

O passeio pelos precedentes judiciais acima demonstra um problema prático: provar o erro humano dentro de um sistema complexo. Quem falhou? O time que treinou o modelo? Quem operou o sistema no caso concreto? Em ambientes algorítmicos, o desvio de dever de cuidado (negligência, imprudência ou imperícia) existe, mas é difuso. Por isso,  talvez a chave para uma solução seja reconstruir o caminho da decisão: políticas de uso, logs, auditorias, validação de dados, alertas ignorados. Sem trilha técnica, a culpa vira um alvo móvel.

No Brasil, a responsabilidade civil por IA segue um arranjo híbrido: quando há erro humano demonstrável, falamos de responsabilidade subjetiva. É a culpa clássica do Código Civil. Vale para situações em que dá para apontar o desvio de dever de cuidado: o time que treinou o modelo sem validação mínima, o integrador que implantou fora das especificações, o operador que ignorou alertas. Aqui, a prova técnica — logs, políticas internas, registros de teste — é o centro do debate.

Quando o problema é a segurança do serviço ou do produto, o enquadramento migra para a responsabilidade objetiva. Não se discute culpa: basta dano + nexo causal. É a lógica do risco da atividade (CC, art. 927, parágrafo único) combinada com o CDC (arts. 12 e 14). Entra em cena quando a IA, colocada no mercado, não oferece a segurança que razoavelmente se espera, como nos casos de reconhecimento facial com viés, scoring automatizado que nega serviço essencial, sistemas decisórios opacos que geram prejuízo. Se o sistema falha, o fornecedor responde — salvo excludentes bem provadas.

Há ainda a responsabilidade solidária. Sempre é bom lembrarmos que as soluções de IA costumam operar como ecossistemas: fabricante do modelo, integrador, fornecedor da aplicação e operador profissional se beneficiam da mesma cadeia e, em consumo, tendem a responder juntos (CDC, arts. 7º e 25). Fora do CDC, a solidariedade pode surgir quando as condutas concorrem para o dano. Sem explicabilidade, trilhas de auditoria, testes e governança por risco, a prova se torna frágil — e a chance de responsabilização por danos causados por inteligência artificial cresce.

O desafio regulatório é organizar esse terreno, por isso o PL 2338/2023 tende a consolidar um regime baseado em risco, com deveres de transparência, governança e supervisão humana para sistemas de alto impacto. 

O PL 2338/23 e a responsabilidade civil da inteligência artificial

O PL 2338/23, já aprovado no Senado, está sob análise da Câmara dos Deputados e marca a tentativa mais consistente do Congresso brasileiro de construir um marco regulatório para a inteligência artificial. Entre os pontos centrais, está o tratamento da responsabilidade civil por danos causados por sistemas de IA, questão decisiva para dar segurança às vítimas, previsibilidade aos operadores e incentivo à inovação.

Como lembra a relatora do ante-projeto do PL 2338/23, Laura Schertel, a regulação de IA se apoia em direitos, classificação por risco, accountability e supervisão setorial. Inclusive, Laura é professora na pós-graduação do IDP Online em Direito Digital, Dados e Inteligência Artificial  que oferece estudo aplicado, discussão de casos e preparação para implementação regulatória e litígios envolvendo IA, com aulas 100% on-line e ao vivo, gravações, metodologia baseada em problemas e acesso às bibliotecas virtuais.

A proposta do PL 2338/23 adota um modelo dual de responsabilização, baseado no grau de risco que cada sistema apresenta, uma escolha que reflete o reconhecimento de que nem toda IA opera com o mesmo potencial de causar danos: um chatbot de atendimento ao cliente não oferece os mesmos riscos que um veículo autônomo ou um algoritmo de avaliação de crédito.

Em sistemas de alto risco ou risco excessivo, o PL sugere a aplicação do regime de responsabilidade objetiva. Ou seja, o fornecedor ou operador responde independentemente de culpa, bastando a demonstração do dano e do nexo de causalidade. A lista inclui atividades como recrutamento automatizado, veículos autônomos e sistemas de classificação de crédito.

Nas relações de consumo, prevalecem as regras do Código de Defesa do Consumidor, sempre sob regime de responsabilidade objetiva e solidariedade entre fornecedores. Nos demais sistemas, a regra é de culpa presumida, com inversão do ônus da prova em favor da vítima. Isso significa que, em caso de litígio, caberá ao agente do sistema comprovar que atuou conforme os padrões legais e regulatórios (transparência, auditabilidade, explicabilidade, prevenção de riscos, não discriminação, entre outros). 

A proposta também prevê situações em que o agente pode ser eximido de responsabilidade, como quando comprovar que não colocou o sistema em circulação ou que o dano decorreu de fato exclusivo da vítima, de terceiro ou de caso fortuito externo. O texto ainda usa a expressão “tirar proveito do sistema”, que gerou debate por sugerir a adoção da teoria do risco-proveito, menos protetiva que a teoria do risco criado.

O desafio será transformar esse arranjo normativo em prática efetiva: garantir que vítimas tenham meios reais de reparação, que operadores e desenvolvedores disponham de parâmetros claros e que a inovação continue sendo estimulada. Afinal, a inteligência artificial não elimina a responsabilidade humana — apenas a transforma em um campo mais complexo, que exige transparência, governança e cuidado redobrado.

Acompanhe de perto as novidades

Inscreva-se na nossa newsletter e receba todos os artigos em primeira mão!