A responsabilidade civil decorrente do uso de inteligência artificial (IA) constitui um tema de grande relevância e complexidade no panorama jurídico contemporâneo e convida a uma profunda reflexão sobre como os tradicionais princípios de direito civil se aplicam, ou necessitam ser adaptados, à luz das peculiaridades que a IA apresenta.
Basta pensar, por exemplo, no problema de identificação do agente responsável pelos atos realizados pela IA. Isso porque, tradicionalmente, a responsabilidade civil está ancorada na atribuição de culpa ao agente causador do dano, no entanto, a IA, especialmente aquela que opera com um grau significativo de autonomia, desafia essa noção já que não possui vontade própria e nem tem capacidade de discernimento moral equivalente ao humano.
A análise dos atuais projetos de lei em discussão ilustra bem o argumento. O PL 21/2020, de autoria do deputado Eduardo Bismarck (PDT-CE), explicitava que a regra seria a responsabilidade civil subjetiva, aplicável a objetiva quando por determinação legal.
No artigo 6º, inciso VI do projeto, sobre diretrizes, se explicava que a responsabilidade dos agentes da cadeia de desenvolvimento e operação seria a subjetiva e que se levaria em conta “a efetiva participação desses agentes, os danos específicos que se deseja evitar ou remediar e a forma como esses agentes podem demonstrar adequação às normas aplicáveis, por meio de esforços razoáveis compatíveis com os padrões internacionais e melhores práticas de mercado”. Ressalva-se ali no §3º do inciso VI a responsabilidade objetiva nas relações de consumo e o direito de regresso para pessoas jurídicas no §4º[1].
O PL 2338/2023, iniciativa do senador Rodrigo Pacheco (PSD-MG), elaborado a partir do relatório divulgado pela Comissão de Juristas do Senado Federal (CJSUBIA)[2], dispunha no Capítulo V sobre a responsabilidade civil e trazia a regra da responsabilidade objetiva para os sistemas de alto risco ou risco excessivo e da culpa presumida para os demais modelos que utilizassem IA[3].
O senador Marcos Pontes (PL-SP), em proposta de emenda ao PL 2338, propôs que a responsabilidade civil dependeria do risco e seria distribuída na “cadeia” de agentes envolvidos por este critério, por exemplo: (i) no risco baixo a responsabilidade caberia ao operador ou usuário; na de risco (ii) médio e (iii) alto recairia sobre o “desenvolvedor do sistema”[4].
No dia 24 de abril de 2024, foi divulgado relatório preliminar substitutivo ao PL 2338/2023[5], sob relatoria do senador Eduardo Gomes (PL-TO), elaborado pela Comissão Temporária Interna Sobre Inteligência Artificial no Brasil (CTIA), presidida pelo senador Carlos Viana (Podemos-MG), que alterou substancialmente o texto original do PL 2338.
A minuta mantém, todavia, o previsto no Capítulo V (“da Responsabilidade Civil”) do PL 2338 e determina que a responsabilidade civil será objetiva para os sistemas de risco alto ou excessivo e de culpa presumida para os demais. Como no texto original, dispõe sobre as excludentes de responsabilidade e explicita que no âmbito das relações de consumo se aplica do Código de Defesa do Consumidor.
O modelo de responsabilidade objetiva que dispensa a comprovação de culpa e se baseia na teoria do risco, seria uma solução, em tese, para o fato de a IA não ser passível de atribuição de culpa: aquele que se beneficia economicamente da exploração de uma atividade que emprega IA deve suportar automaticamente os riscos por eventuais danos que essa atividade possa causar.
Questiona-se, todavia, se não seria o caso de examinar a culpa desses sujeitos, destes agentes na cadeia de desenvolvimento e utilização, ao invés de impor uma fórmula única (receita de bolo) para todas as situações potencialmente distintas envolvendo a IA e sem se ater à própria subjetividade da gradação de risco, ao menos inicialmente – basta pensar nas alucinações do ChatGPT e no mau-funcionamento de um assistente como a Siri.
Fato é que a regulamentação da IA está em fase incipiente em muitos países, incluindo o Brasil, e existe uma necessidade premente de que o legislador crie normas claras considerando as especificidades e desafios técnicos e conceituais impostos pela IA. Essas normas devem buscar um equilíbrio entre a promoção da inovação tecnológica e a proteção dos direitos dos cidadãos, assegurando um ambiente de segurança jurídica tanto para os desenvolvedores quanto para os usuários de sistemas de IA.
A regulação restritiva da inteligência artificial pode gerar implicações adversas para a inovação, sobretudo num campo tão vital e dinâmico como o tecnológico. Uma abordagem regulatória excessivamente cautelosa pode, inicialmente, desincentivar a pesquisa e o desenvolvimento, criando obstáculos consideráveis ao progresso e teste de novas tecnologias. Tal cenário é capaz de afastar empresas e instituições de pesquisa do investimento em novos projetos de IA, temendo a incompatibilidade com as normas vigentes ou os altos custos de conformidade.
Adicionalmente, normas muito rígidas podem retardar a implementação de tecnologias de IA que beneficiariam significativamente a sociedade em campos como saúde, educação e segurança pública. A demora na adoção dessas inovações pode resultar na perda de oportunidades essenciais ao aprimoramento da qualidade de vida e da eficiência de serviços essenciais.
Outro risco significativo de regulamentações restritivas é a perda de competitividade global. Mercados com normas mais flexíveis podem avançar de forma mais ágil na área da IA, atraindo talentos e investimentos internacionais. Por outro lado, ambientes com regulações muito severas, podem tornar-se menos atrativos para startups e investidores, o que acarreta desvantagem competitiva no panorama internacional.
A regulamentação pautada no medo das incertezas pode favorecer prejudicar a competição e a livre iniciativa, beneficiando empresas estabelecidas (incumbentes) que dispõem de recursos para atender às exigências regulatórias, em detrimento de entrantes, pequenas empresas e startups – o que levaria à concentração de mercado e à redução da concorrência, fatores conhecidos por prejudicarem a inovação.
Além disso, um ambiente altamente regulado pode limitar a capacidade dos desenvolvedores de experimentar e testar novas ideias que são essenciais ao avanço tecnológico. A inovação muitas vezes surge de processos de tentativa e erro, que podem ser severamente restringidos por normas inflexíveis – daí a importância dos sandboxes regulatórios.
Por fim, vale ressaltar que a tecnologia evolui em um ritmo acelerado, e regulamentações rígidas podem rapidamente tornar-se obsoletas. Isso pode criar um descompasso entre o que é legalmente permitido e o que é tecnologicamente possível, dificultando a atualização e adaptação das leis à realidade tecnológica vigente.
É imperativo que a regulamentação da IA seja equilibrada, promovendo segurança e ética sem sufocar a inovação. Recomenda-se uma abordagem regulatória baseada em princípios e flexibilidade que permita que as leis se adaptem às rápidas mudanças características deste campo.
No vácuo legislativo, surge como um argumento poderoso de segurança jurídica a governança da IA. Ela está intrinsecamente ligada à responsabilidade civil, pois estabelece parâmetros de accountability e as obrigações legais dos envolvidos na criação e operação de sistemas de IA, bem como adere (idealmente) a frameworks e standards internacionais que já se ocupam da atribuição de responsabilidade dentro da gestão do sistema (Artificial Intelligence Management System [AIMS], ISO 42001/2023).
Uma governança eficaz minimiza riscos de danos e define claramente as responsabilidades em casos de falhas ou danos causados por sistemas autônomos. Além disso, contribui para a criação de um ambiente de confiança pública na tecnologia, essencial para sua aceitação e integração efetiva na sociedade. A governança de IA não só protege os indivíduos e a sociedade de potenciais prejuízos, mas também fomenta a inovação ao proporcionar um quadro regulatório claro e previsível.
Observa-se, por fim, uma crescente discussão sobre a necessidade de criação de fundos de compensação ou a imposição de seguros obrigatórios para cobrir danos causados por IA. Essas soluções visam garantir a reparação de danos de forma eficiente, sem impedir – pelas razões acima enumeradas – a inovação e o desenvolvimento tecnológico.
A responsabilidade civil na era da inteligência artificial é um campo em plena formação e requer uma abordagem multidisciplinar, envolvendo contribuições de juristas, tecnólogos e filósofos, para adequar o direito às novas realidades trazidas pela tecnologia em um panorama que considere questões multifacetadas e que vá além do rigor jurídico, olhando de modo atento para a ética, a moral e a inovação.
[1]Projeto de Lei n° 21, DE 2020.SENADO FEDERAL. Disponível em: <https://legis.senado.leg.br/sdleg-getter/documento?dm=9063365&ts=1713911555933&disposition=inline>. Acesso em: 29 abr. 2024
[2]Relatório da Comissão de Juristas responsável por subsidiar elaboração de substitutivo sobre inteligência artificial no Brasil.SENADO FEDERAL.Disponível em: <https://legis.senado.leg.br/comissoes/mnas?codcol=2504&tp=4>. Acesso em: 29 abr. 2024
[3]Projeto de Lei nº 23.38, de 2023.SENADO FEDERAL. Disponível em: <https://legis.senado.leg.br/sdleg-getter/documento?dm=9347622&ts=1713911560851&disposition=inline>. Acesso em: 29 abr. 2024
[4]Substitutivo ao projeto de Lei 2338/2023. Gabinete do Senador Astronauta Marcos Pontes.SENADOFEDERAL. Disponível em: <https://legis.senado.leg.br/sdleg-getter/documento?dm=9514745&ts=1702407086758&disposition=inline>. Acesso em: 29 abr. 2024
[5]CTIA. Texto Preliminar – Senador Eduardo Gomes.SENADO FEDERAL. Disponível em: <https://legis.senado.leg.br/comissoes/arquivos?ap=8139&codcol=2629>. Acesso em: 29 abr. 2024
Notícia indicada por:
Carlos Alexandre Miranda
OAB/PR 110.866
Fonte: Jota