Fórum Brasileiro de IA Responsável

IX Fórum Brasileiro de IA Responsável

A próxima reunião do Fórum Brasileiro de IA Responsável ocorrerá na última quinta-feira de março, marcando sua nona edição.

O Fórum Brasileiro de Inteligência Artificial Responsável é uma iniciativa da Lawgorithm que visa unir academia e indústria na promoção de debates sobre o desenvolvimento e utilização de inteligência artificial no Brasil. Temos como pilares fundamentais interesses comuns a todos: desenvolvimento econômico, responsabilidade social e proteção aos direitos fundamentais. Conciliando as necessidades do mercado com as pesquisas científicas desenvolvidas nas universidades, o Fórum é um espaço livre de debate, construção e sugestões de melhores práticas de aplicação da IA aos diferentes setores da sociedade.

Se sua empresa tem interesse em participar ativamente dos debates, envie um e-mail para Bernardo Fico em bernardo@lawgorithm.org.br.

VIII Fórum Brasileiro de IA Responsável

A Lawgorithm sediou a oitava edição do Fórum Brasileiro de IA Responsável em fevereiro de 2024. O resumo das discussões será disponibilizado em breve.

VII Fórum Brasileiro de IA Responsável

Em 30 de novembro de 2023, a Lawgorithm sediou o 7º Fórum Brasileiro de IA Responsável. O tema abordado e colocado em pauta para discussão foi a apresentação dos principais aspectos do Projeto de Lei (PL) para a regulação da Inteligência Artificial (IA) idealizado pela Associação Lawgorithm.

A introdução contextualizou a construção do PL em dois pilares fundamentais: regras de fomento à inovação e cooperação público-privada, juntamente com a certificação de IA responsável. Esses pilares são essenciais para estabelecer um ambiente regulatório propício ao desenvolvimento ético e sustentável da IA no Brasil.

No que concerne aos pilares mencionados, o PL propõe medidas para superar alguns obstáculos identificados, indicando fontes de financiamento público e promovendo a certificação de IA responsável. Em relação à certificação, a abordagem proposta visa criar um selo oficial de IA responsável, validado pelo Estado, por meio de um mecanismo de acreditação e certificação envolvendo entidades setoriais e especialistas. O incentivo para as empresas estaria na estruturação do setor privado para obter esse selo, promovendo confiança no desenvolvimento, operação e comercialização de sistemas de IA.

No âmbito do investimento e fomento de IA, o PL destaca a importância das IAs Generativas e modelos fundacionais, que transformam o cenário do mercado de sistemas de IA. Para manter a competitividade do Brasil nesse contexto, são propostos mecanismos para eliminar impedimentos e incentivar a aproximação entre indústrias e administração pública nos investimentos e iniciativas para pesquisa e desenvolvimento de IA.

As três iniciativas principais delineadas no PL são:

1.    Gestão de Pesquisa Científica: inspirado no documento da Academia Brasileira de Ciências, propõe a criação de uma entidade pública para coordenar investimentos e financiar projetos de pesquisa e desenvolvimento de IA no país.

2.    Investimentos e Incentivos: sugere o direcionamento de fundos existentes, como o Fundo Nacional de Desenvolvimento Científico e Tecnológico (FNDCT) e o Fundo de Direitos Difusos (FDD), para pesquisa e desenvolvimento em IA. Além disso, propõe facilitar a colaboração entre indústria e universidades para estimular o avanço da IA.

3.    Relação Público-Privada: visa incentivar parcerias público-privadas e introduzir regras para contratações públicas de sistemas de IA visando evitar a fragmentação e promover a interoperabilidade entre diferentes soluções de IA, garantindo uma abordagem mais eficiente e alinhada com as necessidades do setor público.

Quanto ao arranjo institucional de certificação, o PL prevê a atuação do Ministério da Ciência, Tecnologia e Inovações (MCTI) como órgão acreditador, em conjunto com entidades setoriais e especialistas em IA. Esse arranjo tem por objetivo conceder selos de IA responsável, reconhecidos pelo Estado, promovendo a confiança e a transparência no desenvolvimento e uso de sistemas de IA.

No que diz respeito às definições e elementos-chave do PL, são estabelecidos conceitos claros para os agentes envolvidos na cadeia de IA destacando-se a figura do fornecedor de IA, responsável pelo desenvolvimento e disponibilização dos sistemas. Ao lado deste, está o operador de IA, encarregado de implementar e utilizar os sistemas, seja em atividades comerciais ou não profissionais. Para além das definições de agentes trazidas em propostas já apresentadas, também são considerados os usuários não especialistas (indivíduos sem conhecimento técnico sobre a operação da IA), os usuários especialistas (os quais possuem domínio sobre o uso da IA em contextos específicos) e os superusuários (especializado na operação e manutenção de sistemas de IA em ambientes organizacionais).

Além disso, são delineadas medidas de governança, tais como análise de impacto, gestão do uso de dados e transparência na interpretação de resultados, visando garantir o uso ético e responsável da IA, todas em um contexto mais geral, diante do entendimento de que medidas específicas devem ser determinadas de forma setorial, em consenso com as entidades.

VI Fórum Brasileiro de IA Responsável

Em 26 de outubro de 2023, a Lawgorithm sediou o 6º Fórum Brasileiro de IA Responsável, com a participação de Tom Romanoff. No evento foi abordado extensivamente o tema da regulação da Inteligência Artificial nos Estados Unidos da América.

Debate Regulatório sobre a Regulação da Inteligência Artificial nos Estados Unidos

Expositor:
Tom Romanoff
Director of Technology Project
Bipartisan Policy Center
tromanoff@bipartisanpolicy.org

O debate sobre a regulação de Inteligência Artificial (IA) nos Estados Unidos da América (EUA) contemplou os seguintes temas:

(i) A complexidade e fragmentação do quadro jurídico-regulatório (framework), que envolve iniciativas federais, estaduais e municipais;

(ii) As iniciativas legislativas em andamento nos EUA, no Congresso Federal e nos Estados

(iii) As iniciativas regulatórias das Agências Reguladoras federais como os guias de boas práticas, códigos de conduta e outros documentos que podem vir a informar o uso e o desenvolvimento de tecnologias de IA;

(iv) A atuação do Poder Executivo frente ao desafio da necessidade de regulação da IA;

Em 2023, houve um aumento considerável no número de projetos de lei relacionados à IA. Tom Romanoff aponta que a vasta maioria destas iniciativas legislativas tem suporte bipartidário, o que, tradicionalmente, resulta em leis mais robustas e duradouras quando comparadas com propostas unipartidárias. Acredita-se que o grande aumento no número de projetos de lei seja devido, em parte, à atenção especial dada pela mídia e pelo congresso a temas relacionados à IA desde o lançamento do Chat GPT pela OpenAI.

Nota-se uma marcante ênfase no âmbito da Inteligência Artificial (IA), onde quarenta e três projetos de lei foram apresentados ou reapresentados, apenas no 118º Congresso dos Estados Unidos, iniciado em 03 de janeiro de 2023, desdobrando-se, por exemplo, em tópicos concernentes à Avaliação de Risco e Transparência da tecnologia.

Romanoff apontou que, apesar do grande número de Projetos de Lei de iniciativa bipartidária em curso, algumas divergências interpretativas começam a ganhar tração e poderiam lentificar o processo legislativo. Como exemplo, Romanoff cita que enquanto os democratas defendem uma “mão forte” na regulação das IA, os republicanos preferem seguir um caminho onde não haja o risco de impedir o avanço de novas tecnologias e o consequente desenvolvimento tecnológico.

No panorama normativo que se desenha, destacam-se aquelas leis imbuídas da missão de regulamentar a utilização das ferramentas de Inteligência Artificial em um dos pilares da democracia - as eleições. Essas legislações buscam delinear limites e responsabilidades para a criação de deepfakes, um fenômeno contemporâneo que ameaça a integridade da informação e a própria essência do conceito de verdade. Adicionalmente, Romanoff apontou que há, com certa frequência, disposições legais que se dedicam a governar a prática do online ranking.

Outro foco de atenção das iniciativas legislativas que tramitam no Congresso estadunidense é a das leis que impõem ou restringem certas práticas e características de plataformas online ou sugerem que operadores de ferramentas online sejam responsáveis pelos produtos (product liability).

A atividade legislativa em velocidade acentuada não se restringe ao Poder Legislativo Federal. Em meio ao clamor pela regulação da IA e ao que alguns classificam como “lentidão” do Congresso, a legislação estadual tem focado em preencher lacunas deixadas pelo legislativo federal. Os números são expressivos:

·       No total, mais de 190 projetos de lei relacionados à IA foram apresentados nos EUA em 2023. A legislação estadual sobre IA aumentou 440% em 2023;

·       31 estados tiveram projetos de lei relacionados à IA apresentados neste ano de 2023, um aumento de quatro vezes em comparação com 2022; e

·       As propostas de lei sobre deepfakes são o tema mais popular e o mais provável de ser aprovado: das 37 propostas que objetivam regular a prática, 6 já foram aprovadas.

Tom Romanoff defendeu que a regulação estadual nos Estados Unidos é caracterizada por uma abordagem reativa e imediata a aplicações específicas de IA. Por exemplo, estados como Califórnia e Texas têm sido proativos na criação de legislações que abordam questões como reconhecimento facial e veículos autônomos. Além disso, iniciativas estaduais têm mostrado uma tendência a proibir ou impor restrições a certas aplicações de IA.

Apesar de existir um movimento legislativo para a regulação da IA, Romanoff aponta que há problemas evidentes nos processos estudados. A exemplo do que é uma questão crítica para as leis de privacidade nos EUA, como a California Privacy Rights Act (CPRA), há um problema relacionado à tendência de copiar legislações pioneiras pelos outros estados replicando-as sem adaptá-las às especificidades locais, o que pode resultar em políticas ineficazes ou desalinhadas com as necessidades regionais.

Para além das iniciativas federais e estaduais, as administrações municipais ou de condado (county-level) também tem sido ativas, em lugares como Boston, Miami, Nova Iorque, San Jose, e Seattle. O foco, geralmente, é dado ao uso da IA no ambiente corporativo.

Romanoff fez considerações sobre os atos do Poder Executivo aplicáveis ao tema. Por exemplo, abordou a Executive Order 13960 (EO 13960) de iniciativa da administração Trump e estabelecida em fevereiro de 2019. Conforme a EO 13960, exige-se que as agências preparem um inventário dos usos de IA, tanto atuais quanto planejados, que não sejam classificados nem sensíveis. As agências devem compartilhar seus inventários com o público e outras agências, na medida do possível.

Alguns dias após o debate promovido pela Lawgorithm, o Presidente dos Estados Unidos assinou uma nova Ordem Executiva referente à inteligência artificial, movimento que havia sido antecipado pela análise de Romanoff. Essa medida estratégica visa estabelecer um ponto de equilíbrio entre o ímpeto inovador das companhias de tecnologia avançada e as questões essenciais de segurança nacional e direitos dos consumidores. No documento foi incluído um conjunto de diretrizes iniciais que têm o potencial de serem expandidas por meio de legislação subsequente e acordos internacionais.

O debatedor do VI Fórum de Inteligência Artificial trouxe contribuições sobre a atuação do Office of Science and Technology Policy (OSTP), órgão que é vinculado à Casa Branca e que propôs um blueprint do AI Bill of Rights, documento que é um passo importante para estabelecer princípios que orientam o uso e o desenvolvimento de sistemas de IA.

Tom Romanof avançou para a análise das iniciativas federais, que não se limitam a iniciativas legislativas, mas, sim, compreendem a competência normativa das Agências Federais. Apontou Romanoff, que, muitas vezes, a regulação promovida é voltada para estabelecer padrões de governança, códigos de conduta, guias de boas práticas aplicáveis aos mais variados setores da economia. Como o próprio debatedor explica, “nothing with teeth, yet” em referência a falta de um sistema de enforcement para as medidas mencionadas. Neste âmbito, há um debate em andamento sobre a necessidade de uma agência específica nos Estados Unidos para coordenar as iniciativas de IA, dada a complexidade e os conflitos de jurisdições e autoridades.

As agências federais nem sempre têm abordagens alinhadas, criando um cenário complexo. A Food and Drug Administration (FDA), por exemplo, propôs em 2019 um framework regulatório para aplicação de ferramentas de inteligência artificial e machine learning em dispositivos médicos. Por sua vez, a Consumer Financial Protection Bureau (CFPB) reiterou a aplicabilidade das leis financeiras federais independentemente da tecnologia empregada, enquanto a Federal Trade Commission (FTC) emitiu um relatório sobre o uso e os impactos da IA. Romanoff explicou que o relatório realça questões importantes sobre a possibilidade de as ferramentas de inteligência artificial apresentarem imprecisões, vieses e características discriminatórias inerentes, bem como a tendência de promoverem o uso de métodos de supervisão comercial progressivamente mais intrusivos.

Como se observa, o cenário regulatório nos Estados Unidos é fragmentado, com estados e agências federais frequentemente trabalhando em direções diferentes. Isso levanta questões sobre como garantir a uniformidade e evitar inconsistências nas regulamentações de IA. Além disso, Romanoff avalia que a falta de uma agência federal dedicada à IA é vista como um obstáculo para a coordenação eficaz das políticas e redução da fragmentação normativa atual.

Tom Romanoff possui diversas publicações no campo da inteligência artificial e de outras tecnologias, incluindo:

V Fórum Brasileiro de IA Responsável

Em 28 de setembro de 2023, a Lawgorithm sediou o 5º Fórum Brasileiro de IA Responsável, centrado na questão da Governança de IAs de Alto Risco, com a participação de Luca Belli apresentando sobre governança de sistemas de inteligência artificial de alto risco sob a ótica do modelo chinês.

Debate acerca do Modelo de Governança em Inteligência Artificial da China

Expositor:
Luca Belli
FGV Direito Rio de Janeiro
luca.belli@fgv.br

Na abordagem cronológica do modelo chinês de governança em inteligência artificial (IA), tem-se cinco vetores fundamentais para fins de estudo, acompanhamento e compreensão da temática: coordenação, planejamento, experimentação, investimentos e regulação. Desde 2014, a China tem desenvolvido etapas detalhadas, integrando iniciativas e princípios em um sistema contínuo.

A governança chinesa se destaca por uma coordenação eficaz, exemplificada pela criação, em 2011, do Cyberspace Administration of China (CAC) como um super regulador. Este órgão coordena diversas entidades públicas, garantindo uma eficiente implementação e avaliação em tempo real das diretrizes estabelecidas.

Os investimentos são essenciais na estratégia chinesa para liderar em IA, com bilhões alocados anualmente desde 2016. A experimentação de políticas públicas, planejada desde 2017, tem por objetivo alcançar um desenvolvimento seguro e confiável da inteligência artificial, utilizando zonas-piloto municipais para testes antes da implementação nacional.

A regulação chinesa envolve uma coordenação entre leis, padrões técnicos e diretrizes, proporcionando um enfoque mais uniforme. Nesse sentido, a China buscou estudar e elaborar padrões técnicos para traduzir normas vagas em instrumentos que pudessem ser compreensíveis para desenvolvedores. O papel de órgãos com alto grau de regulação e a criação de princípios éticos em 2019 (Beijing Artificial Intelligence Principles) consolidam a abordagem chinesa para lidar com a inteligência artificial.

Em 2021, o CAC determinou a adoção de medidas de conformidade em inteligência artificial, concentrando-se nas diretrizes para fortalecer a governança da IA na internet, especialmente na Regulamentação Algorítmica (Internet Information Service Algorithmic Recommendation Management Provisions). Essas medidas detalham cinco tipos principais de algoritmos regulamentados, cada um sujeito a diretrizes específicas.

Destaca-se a integração dessas diretrizes com leis existentes, como a Lei de Segurança de Dados (Data Security Law of the People’s Republic of China) e a Lei de Proteção de Dados (Personal Information Protection Law), visando criar uma governança coesa para a Inteligência Artificial na China. Uma característica única é a exigência de explicação clara por parte dos desenvolvedores sobre o funcionamento dos algoritmos online, aumentando a transparência nas operações algorítmicas.

Outro ponto de destaque é a proibição explícita da discriminação de preços com base em ações comerciais, visando garantir equidade. Segundo o professor e pesquisador, a situação é recorrente, pois mencionou o exemplo de duas pessoas adquirindo passagens aéreas online por dispositivos diferentes, o que gerou precificação diversa e, portanto, seria considerado um ato ilegal. Isso para demonstrar que o governo chinês expressa preocupações abrangentes, incluindo proteção de dados, segredos comerciais e manipulação da opinião pública por meio da inteligência artificial, em especial sobre o contexto político.

Recentemente, a Academia Chinesa de Ciências Sociais apresentou um projeto de lei global sobre IA enfatizando a padronização técnica para garantir conformidade e transparência na aplicação das normas. Também foi mencionado o draft chinês lançado em abril deste ano, que contém medidas a serem adotadas no gerenciamento de serviços que utilizem inteligência artificial generativa (traduzido pela Universidade de Stanford aqui).

As abordagens propostas, aliadas aos propósitos políticos, sociais e econômicos da estratégia local acabam refletindo uma solidez no modelo de governança e nas medidas propostas para lidar com a tecnologia, além de refletir o compromisso chinês em lidar com aspectos éticos e sociais relacionados à inteligência artificial.

As contribuições mais recentes de Luca Belli no campo da regulação da inteligência artificial incluem as seguintes participações e artigos:

Referências

 Horsley, James P. “Behind the facade of China´s super regulator”. Disponível em: <https://digichina.stanford.edu/work/behind-the-facade-of-chinas-cyber-super-regulator/> Acesso em 08.11.2023.

Cyberspace Administration of China. Disponível em: < http://www.cac.gov.cn/> Acesso em 09.11.2023.

IV Fórum Brasileiro de IA Responsável

Em 31 de agosto de 2023, a Lawgorithm sediou o 4º Fórum Brasileiro de IA Responsável, centrado na questão da Governança de IA. O evento contou com o a participação do Professor Gregor Urbas, da Australian National University e abordou o Debate Regulatório sobre Inteligência Artificial na Austrália e a Governança de sistemas de Inteligência Artificial.

DEBATE REGULATÓRIO SOBRE INTELIGÊNCIA ARTIFICIAL NA AUSTRÁLIA

Expositor:
Dr Gregor Urbas
Adjunct Associate Professor of Law
Australian National University
Gregor.Urbas@anu.edu.au 

O debate regulatório sobre inteligência artificial na Austrália está sendo abordado de maneira multifacetada, pois envolve a discussão de aspectos como

(i)             ética acadêmica e limites da fraude e do plágio no uso de inteligência artificial generativa;

(ii)           (ii) o impacto da inteligência artificial generativa nas artes, em razão do grau de reprodução da criatividade artística humana;

(iii)          (iii) o uso de ferramentas de inteligência artificial para a criação de deepfakes e para gerar imagens que violem direitos de crianças e adolescentes, infelizmente fomentando o abuso sexual infantil em diversos níveis e aumentando o risco de exposição desse público.

Apesar de a Austrália não possuir um marco regulatório específico para a inteligência artificial tal como a proposta do AI Act na Europa, legislações existentes podem ser aplicadas para abordar alguns dos riscos representados pela tecnologia.

Por exemplo, a Lei de Privacidade de 1988 (The Privacy Act) regula o uso e a divulgação de informações pessoais no treinamento de algoritmos de IA tendo sido aplicada em 2021 como fundamento para condenar a empresa Clearview AI por violações a proteção de dados, ordenando o fim da coleta e destruição dos respectivos dados. Além disso, a Lei do Consumidor australiana se aplica a tecnologias baseadas em IA voltadas para consumidores, tendo sido útil no combate a condutas ilegais envolvendo sistemas de tomada de decisão automatizada.

Para reforçar a importância da regulação da tecnologia atualmente, dois são os casos paradigmáticos de uso de inteligência artificial na Austrália que, segundo o professor e pesquisador Gregor Urbas, da Australian National University, devem ser estudados com profundidade para ser possível a reflexão sobre medidas concretas de mitigação de riscos.

O primeiro deles, chamado de Esquema de Robodebt, foi um método ilegal de avaliação e recuperação automatizada de dívidas usado pelo governo australiano e implementado pela agência Services Australia como parte do programa de conformidade de pagamentos do Centrelink, órgão responsável pelos benefícios sociais na Austrália. O sistema automatizado foi introduzido e anunciado ao público em 2016, com a finalidade de substituir o processo manual de cálculo de pagamentos indevidos e emissão de avisos de dívida aos beneficiários. O sistema realizava a comparação de bases de dados públicas, especificamente dos registros do Centrelink com os dados de rendimento médio do Australian Taxation Office, a agência tributária da Austrália. Na medida em que foi utilizado, sofreu duras críticas por sua imprecisão, emitindo avisos de dívida para pessoas que estavam adimplentes com o governo federal. Foi instaurada uma investigação pelo governo e, no ano de 2020, o sistema foi declarado ilegal e desativado.

O caso ganhou repercussão mundial, na medida em que o algoritmo cruzava as declarações de renda dos beneficiários com os dados de renda média fornecidos pelo departamento fiscal, alegando pagamentos em excesso, tudo isso com uma supervisão humana insuficiente. Por essa razão, o método de cálculo se mostrou falho, o que gerou o enviesamento do sistema e, consequentemente, decisões equivocadas.

Já o caso Chatbot Sweetie 2.0 foi uma iniciativa da organização Terre des Hommes (TdH), criado para identificar suspeitos de exploração sexual infantil pelos meios digitais (online), em que o sistema de inteligência artificial simula ser uma criança de 10 anos, usando imagens 3D para criar uma representação realista de uma menina. O uso dessa tecnologia levantou questões legais, como por exemplo se a interação sexual com um chatbot é considerada um crime ou se o uso do chatbot pela polícia poderia ser considerado uma forma de armadilha, implicando outras consequências para a legislação criminal australiana.

Tendo em vista os mais variados desafios enfrentados pelo país no controle do uso de ferramentas de inteligência artificial seja na esfera pública ou privada, destaca-se a iniciativa denominada Supporting Responsible AI: discussion paper. Com base no documento Safe and responsible AI in Australia publicada pelo governo australiano em junho deste ano, a iniciativa tem por finalidade discutir os mecanismos de governança para garantir que a IA seja usada de forma segura e responsável, incluindo regulamentações, padrões, ferramentas, estruturas, princípios e práticas empresariais.

Nota-se que o panorama interdisciplinar reflete a complexidade do debate regulatório sobre inteligência artificial na Austrália, com interações significativas entre Direito e Tecnologia. Verifica-se, assim, que há um vasto campo para investigações futuras, com o objetivo de aprimorar políticas e diretrizes relacionadas à inteligência artificial no país, lições a serem aprendidas e debatidas mundialmente.

 

GOVERNANÇA DE SISTEMAS DE INTELIGÊNCIA ARTIFICIAL

A inclusão de direitos similares aos da LGPD (Lei Geral de Proteção de Dados) no Projeto de Lei nº 2338 de 2023, atualmente em trâmite no Senado Federal, está sendo debatida com ênfase na necessidade de equilibrar as obrigações das empresas com os direitos dos cidadãos. Destaca-se a importância de analisar quais direitos podem ser aplicados às decisões automatizadas e como isso poderia impactar a legislação.

Foram discutidas nesta edição do Fórum de IA Responsável questões relativas à organização dos direitos e da governança no PL 2338 e potenciais problemas da atual estrutura do texto, sugerindo a necessidade de tornar a redação mais clara para evitar confusões.

As regras de governança, voltadas à gestão de riscos, destacam quatro riscos inerentes aos sistemas de IA: (i) a possibilidade de decisões erradas; (ii) a possibilidade de decisões discriminatórias; (iii) a possibilidade de decisões ininteligíveis e (iv) preocupações com privacidade e com o tratamento e a proteção de dados pessoais. Também foram trazidas reflexões sobre a questão dos direitos autorais relacionados às IAs generativas, com destaque para a nova versão do AI Act, que exige a listagem de dados protegidos por direitos autorais no treinamento e uso do sistema.

Foi salientado durante os debates a necessidade de se observar a questão da governança dos sistemas de IA conforme os diferentes riscos que sejam identificados. Por exemplo, IAs de alto risco possuem maior necessidade de medidas de segurança, enquanto aquelas que apresentem riscos baixos poderiam, por exemplo, concentrar-se em obrigações de transparência. Em comparação a outros modelos regulatórios mundiais, as medidas de governança para IA tendem a ser progressivas conforme o risco causado por sua aplicação.

Por essa razão e, para fins de mitigação de riscos específicos e atrelados às finalidades dos sistemas de IA, observa-se como alternativa a criação de códigos de conduta específicos para diferentes tipos de aplicações econômicas, a fim de evitar repetições nas regulamentações e possibilitar aos diferentes setores econômicos a flexibilidade necessária para adaptarem-se às obrigações da legislação. Assim, seria possível criar objetivos de governança e permitir certa flexibilidade na forma de alcançá-los, levando em consideração requisitos de segurança cibernética, privacidade e registros de atividade.

Com foco nas IAs de alto risco, foram discutidas ainda questões como o debate público acerca dos usos de IA, e como medidas de participação social podem ser implementadas sem prejudicar o desenvolvimento de sistemas de IA.

REFERÊNCIAS

Universidade de Melbourne. “The flawed algorithm at the heart of Robodebt” Disponível em <https://pursuit.unimelb.edu.au/articles/the-flawed-algorithm-at-the-heart-of-robodebt>. Acesso em 15 de setembro de 2023.

Disponível em <https://www.theguardian.com/australia-news/2020/may/29/robodebt-government-to-repay-470000-unlawful-centrelink-debts-worth-721m#maincontent>. Acesso em 17 de setembro de 2023.

Disponível em <https://www.miragenews.com/robodebt-needed-more-ai-not-less-1050405/>. Acesso em 17 de setembro de 2023.

Urbas, Gregor, Legal Considerations in the Use of Artificial Intelligence in the Investigation of Online Child Exploitation (December 6, 2021). ANU College of Law Research Paper No. 21.44, Available at SSRN: https://ssrn.com/abstract=3978325 or http://dx.doi.org/10.2139/ssrn.397825

Regulação da Inteligência Artificial: benchmarking de países selecionados. Disponível em: <http://repositorio.enap.gov.br/handle/1/7419> Acesso em 16 de setembro de 2023.

III Fórum Brasileiro de IA Responsável

Em 27.07.2023, a Lawgorithm sediou o 3º Fórum Brasileiro de IA Responsável, centrado na Responsabilidade Civil por danos causados por Inteligência Artificial (IA). O evento contou com a participação do Professor Georg Borges da Universität des Saarlandes (Alemanha), que integrou o Expert Group on Liability and New technologies - New technologies formation da Comissão Europeia, além do Professor Juliano Maranhão (FDUSP, Diretor da Lawgorithm) e de representantes de indústrias, organizações e do governo. 

O Fórum se iniciou com a exposição do Professor Borges sobre o regime de responsabilidade civil aplicado à IA na Europa, inclusive as atuais propostas legislativas da Comissão Europeia que intensificaram as discussões sobre o tema: a de alteração da diretiva relativa à responsabilidade decorrente dos produtos defeituosos (Product Liability Directive) e a relativa à adaptação das regras de responsabilidade civil extracontratual à IA (AI Liability Directive). 

Segundo o Professor, a discussão sobre as propostas legislativas se apoia sobre a premissa de que novas regras para responsabilidade civil são necessárias para lidar com a IA em razão de uma característica específica desses sistemas: a capacidade de demonstrar “comportamento” - definido pelo Professor como a escolha de ações de acordo com o contexto. Essa característica reduz o monitoramento humano sobre sistemas de IA e a possibilidade de influenciar seus resultados, tornando complexa a responsabilização por danos causados pelo comportamento de uma IA.

Na União Europeia, Georg Borges aponta que existe uma importante lacuna no regime de responsabilidade civil para esses sistemas. A lacuna reside na escassez de hipóteses de responsabilidade objetiva no ordenamento europeu, no qual predomina a responsabilidade subjetiva, que exige que haja culpa (conceito que só se aplica aos humanos, não às máquinas). Assim, não haveria regras suficientes para lidar com os danos causados por máquinas, e essa lacuna seria maior conforme o grau de autonomia da máquina, segundo o Professor.

Entendendo-se pela necessidade de novas regras, tem-se ainda duas questões centrais: primeiro, o modelo de responsabilidade adotado (que deveria ser a responsabilidade subjetiva para a Comissão Europeia, enquanto o Parlamento Europeu e o Expert Group defendem a responsabilidade objetiva em certos casos, como IAs de alto risco) e, segundo, a alocação da responsabilidade ao desenvolvedor do sistema de IA (como defende a Comissão) ou seu operador (como defendem o Parlamento e o Expert Group). Essas questões podem ser resumidas da seguinte forma:

·       Existem lacunas no atual regime de responsabilidade civil que tornem necessário criar novas regras para a IA?

o   Se sim, a responsabilidade deveria ser objetiva ou subjetiva?

o   E alocada ao desenvolvedor ou ao operador do sistema de IA?           

            A atual versão da proposta de AI Liability Directive busca resolver o problema a partir de duas regras: (i) dever de revelar informações sobre a IA envolvida em danos - o qual, se violado, pode acarretar presunção refutável de culpa (art. 3º); e (ii) havendo culpa, uma presunção de nexo causal em favor da vítima, que pode ser refutada pelo agente de IA (art. 4º). A proposta não estabelece se o agente responsável seria o operador ou desenvolvedor do sistema de IA, mas define a culpa como quebra de um dever legal, com referência às regras do AI Act (proposta de regulamento geral sobre IA que tramita atualmente no Parlamento Europeu). Dessa forma, a definição do agente responsável pode variar conforme as obrigações impostas ao operador e ao desenvolvedor no AI Act.

Destacou-se também as medidas que não fazem parte da proposta: novas bases legais para estabelecimento de responsabilidade civil, e novos deveres de monitoramento dos sistemas de IA. O Professor Borges apontou que as regras propostas aprimoram a viabilidade de ações de compensação por danos de IA, mas não suprem a lacuna relativa à responsabilidade por comportamentos de máquina.

            Por sua vez, a proposta de reforma da Product Liability Directive busca resolver a questão da alocação da responsabilidade, atribuindo-a ao desenvolvedor da IA. A principal regra proposta é a de inversão do ônus da prova no caso de falhas. A Diretiva, no entanto, se aplicaria somente a danos sofridos por pessoas físicas e seus bens, não por organizações.

Por fim, abordou-se a proposta do Parlamento Europeu para a introdução de normas de responsabilidade objetiva para danos causados por IA. A proposta sugere a responsabilidade objetiva de operadores de sistemas de IA em determinadas situações definidas taxativamente. Se por um lado essa proposta apresenta como vantagens o incentivo à adoção de medidas preventivas de danos e maior previsibilidade jurídica dos casos de responsabilidade civil por IA, por outro é possível que ela tenha um efeito inibitório sobre a inovação nesse campo. Além disso, essa proposta pressupõe a adoção de seguros específicos para responsabilidade civil aos agentes de IA, o que é concebível no cenário europeu, mas foi observado pelos participantes do Fórum como uma dificuldade maior em outros contextos, por exemplo o brasileiro.

Com base na exposição do Professor Borges, os participantes do Fórum iniciaram o debate sobre uma das premissas que justificariam a necessidade de um regime específico de responsabilidade civil para a IA: a característica de demonstrar “comportamento”. Para alguns dos participantes, o comportamento não seria específico à IA, mas presente em qualquer máquina. As consequências atribuídas a essa observação são diversas: para uns, não haveria então necessidade de regras de responsabilidade civil específicas para a IA, que deveria receber o mesmo tratamento de outras tecnologias; para outros, seria apenas questão de substituir o termo “comportamento” por outros mais característicos da IA, como “autonomia” e capacidade de tomar decisões, que poderiam justificar a necessidade de regras específicas.

Também foram debatidas as propostas europeias e a responsabilidade civil sobre IA no direito brasileiro. A existência de lacunas na União Europeia foi repensada no contexto brasileiro: para 60%dos participantes, não há aqui lacunas de responsabilidade civil que tornassem necessárias novas regras para a IA. 

Isso porque as regras presentes no Código Civil e no Código de Defesa do Consumidor seriam suficientes para lidar com danos causados por IAs. Embora a regra geral seja de responsabilidade subjetiva, o Art. 927 do Código Civil incorpora também a Teoria do Risco, estabelecendo a responsabilidade objetiva “quando a atividade normalmente desenvolvida pelo autor do dano implicar, por sua natureza, risco para os direitos de outrem” - o que pode ser o caso de alguns sistemas de IA, analisando-se caso a caso. Além disso, será aplicável o Código de Defesa do Consumidor quando os sistemas de IA forem empregados em relação de consumo, o que já garante regra de responsabilidade objetiva para grande parte das aplicações de IA. A regra, nesse caso, é de responsabilidade objetiva por fatos do produto, que será alocada ao desenvolvedor ou ao operador  de IA, a depender do papel exercido por esses agentes na relação com o consumidor. Além disso, para determinados usos setoriais de IA existem regulamentações que precisam ser observadas. Esse é o caso da aplicação de inteligência artificial às questões de saúde, por exemplo. 

Por fim, foram debatidos detalhes das propostas europeias e do Projeto de Lei sobre regulação de IA no Brasil (PL 2.338/2023), que conta com um capítulo sobre a responsabilidade civil, prevendo a responsabilidade objetiva para IAs de risco alto ou excessivo (conforme classificação do PL) e, para as demais IAs, responsabilidade subjetiva com presunção de culpa do agente causador, aplicando-se a inversão do ônus da prova em favor da vítima. Além da questão sobre necessidade dessas regras no PL, foi debatido o mérito, que gerou posições diversas.


Os participantes apresentaram visões divergentes sobre diversas outras questões, como a necessidade de novos parâmetros de verificação de culpa para a IA; a possibilidade de utilizar as obrigações de governança do PL como parâmetros para avaliação de culpa; a necessidade de regras especiais de transparência e acesso à informação para a vítima, no caso de responsabilidade subjetiva; entre outras. De forma geral, houve ênfase na necessidade de cautela legislativa para não criar regras inadequadas à variedade de contextos em que a IA pode ser aplicada, sobretudo porque ela se encontra por vezes em meio a diversas outras tecnologias, de forma que um dano causado por tecnologia que contém IA não necessariamente será causado pela IA. O ponto de convergência entre os participantes foi o reconhecimento da complexidade em construir regras sem desincentivar o uso da IA.

Produções relevantes do Prof. Georg Borges sobre Inteligência Artificial:

  • Sistemas de IA e responsabilidade pelo produto. Em: Proceedings of the Eighteenth International Conference on Artificial Intelligence and Law, 2021, 32-39. doi.org/10.1145/3462757.3466099

  • New Liability Concepts: the Potential of Insurance and Compensation Funds. Em: Lohsse/Schulze/Staudenmayer (eds.): Liability for Artificial Intelligence and the Internet of Things, 2019.

  • Potencial da inteligência artificial tendo em vista a lei de proteção de dados. Relatório encomendado pela Data Protection Foundation, 2021.

II Fórum Brasileiro de IA Responsável

Em 29 de junho de 2023, a Lawgorithm sediou o 2º Forum de IA Responsável, centrado na questão da definição do conceito de “inteligência artificial”(IA) na regulação no Brasil e no mundo. O evento foi focado nos debates sobre as consequências das diferentes possibilidades para definir IA, observando pontos positivos e negativos de cada escolha.

 A definição do conceito de "inteligência artificial" na regulação assume um papel crítico, pois delineia o âmbito das normas que moldarão o campo da IA. Esta definição, crucial na formulação de políticas e regulamentos, evolui à medida que o mundo reconhece a complexidade intrínseca à IA. Organizações como a OCDE, a União Europeia e outros países têm se empenhado na criação de definições abrangentes, levando em consideração fatores como a autonomia, a capacidade de aprendizado e a interação com o ambiente.

Existem diversas abordagens para a delimitação desse escopo. Elas podem se basear na metodologia de IA utilizada, nas capacidades da IA, no tipo de aplicação e nos riscos envolvidos. A IA não se limita a uma única entidade, mas compreende um conjunto diversificado de métodos, como Aprendizado de Máquina (Machine Learning), Aprendizado Profundo (Deep Learning) e Inteligência Artificial Generativa (IAG).

Cada uma dessas metodologias pode acarretar impactos distintos nos direitos individuais e coletivos, com diferentes graus de risco associados. Além disso, a variedade de aplicações da IA modifica a sensibilidade dos riscos encontrados.

As capacidades específicas da IA também exercem influência na definição do escopo. Certos sistemas de IA podem operar de forma autônoma no mundo físico, enquanto outros oferecem recomendações ou sugestões como base para análises humanas. Sistemas que interagem diretamente com o mundo físico, como armas autônomas ou veículos autônomos, frequentemente apresentam riscos mais elevados.

O tipo de aplicação da IA também é um fator determinante na definição do escopo regulatório. Por exemplo, sistemas de IA utilizados em decisões de crédito ou diagnóstico médico podem acarretar riscos específicos, como discriminação ou erros diagnósticos, que necessitam de consideração especial por parte da regulamentação.

Além disso, os riscos associados à IA desempenham um papel central na delimitação do escopo. A probabilidade e a gravidade desses riscos, inclusive a possibilidade de violação de direitos fundamentais, são cuidadosamente avaliadas na determinação de quais sistemas de IA devem ser submetidos a regulamentação.

A abordagem de regulamentação baseada em riscos, como proposta pela União Europeia, classifica os riscos e impõe restrições mais rigorosas a sistemas de IA que apresentam riscos substanciais.

Em resumo, a definição do escopo regulatório da IA envolve a consideração de diversos fatores interligados, incluindo a metodologia de IA, as capacidades da IA, o tipo de aplicação e os riscos envolvidos. Essa definição permanece em constante evolução, acompanhando o avanço da tecnologia e a emergência de novos desafios.

I Fórum Brasileiro de IA Responsável

Por se tratar de um debate contínuo, as próximas reuniões serão realizadas em breve e serão divulgadas nos canais de comunicação da Lawgorithm.

Se sua empresa tem interesse em participar ativamente dos debates, envie um e-mail para Bernardo Fico em bernardo@lawgorithm.org.br.

No dia 21 de novembro de 2022 ocorreu o 1º encontro do Fórum Brasileiro de IA Responsável, tendo ocorrido de forma Online (Youtube) e Presencial (USP – Auditório Gofredo Telles).
A gravação está disponível a seguir: