IV Fórum Brasileiro de IA Responsável

Em setembro de 2023, a Lawgorithm sediou o 4º Fórum Brasileiro de IA Responsável.

Dr Gregor Urbas, expositor do evento, apontou que o debate regulatório sobre inteligência artificial na Austrália está sendo abordado de maneira multifacetada, pois envolve a discussão de aspectos como (i) ética acadêmica e limites da fraude e do plágio no uso de inteligência artificial generativa; (ii) o impacto da inteligência artificial generativa nas artes, em razão do grau de reprodução da criatividade artística humana; (iii) o uso de ferramentas de inteligência artificial para a criação de deepfakes e para gerar imagens que violem direitos de crianças e adolescentes, infelizmente fomentando o abuso sexual infantil em diversos níveis e aumentando o risco de exposição desse público.

Apesar de a Austrália não possuir um marco regulatório específico para a inteligência artificial, tal como a proposta do AI Act na Europa, legislações existentes podem ser aplicadas para abordar alguns dos riscos representados pela tecnologia. Por exemplo, a Lei de Privacidade de 1988 (The Privacy Act) regula o uso e a divulgação de informações pessoais no treinamento de algoritmos de IA tendo sido aplicada em 2021 como fundamento para condenar a empresa Clearview AI por violações a proteção de dados, ordenando o fim da coleta e destruição dos respectivos dados. Além disso, a Lei do Consumidor australiana se aplica a tecnologias baseadas em IA voltadas para consumidores, tendo sido útil no combate a condutas ilegais envolvendo sistemas de tomada de decisão automatizada.

Para reforçar a importância da regulação da tecnologia atualmente, dois são os casos paradigmáticos de uso de inteligência artificial na Austrália que, segundo o professor e pesquisador Gregor Urbas, da Australian National University, devem ser estudados com profundidade para ser possível a reflexão sobre medidas concretas de mitigação de riscos.

O primeiro deles, chamado de Esquema de Robodebt, foi um método ilegal de avaliação e recuperação automatizada de dívidas usado pelo governo australiano e implementado pela agência Services Australia como parte do programa de conformidade de pagamentos do Centrelink, órgão responsável pelos benefícios sociais na Austrália. O sistema automatizado foi introduzido e anunciado ao público em 2016, com a finalidade de substituir o processo manual de cálculo de pagamentos indevidos e emissão de avisos de dívida aos beneficiários. O sistema realizava a comparação de bases de dados públicas, especificamente dos registros do Centrelink com os dados de rendimento médio do Australian Taxation Office, a agência tributária da Austrália. Na medida em que foi utilizado, sofreu duras críticas por sua imprecisão, emitindo avisos de dívida para pessoas que estavam adimplentes com o governo federal. Foi instaurada uma investigação pelo governo e, no ano de 2020, o sistema foi declarado ilegal e desativado.

O caso ganhou repercussão mundial, na medida em que o algoritmo cruzava as declarações de renda dos beneficiários com os dados de renda média fornecidos pelo departamento fiscal, alegando pagamentos em excesso, tudo isso com uma supervisão humana insuficiente. Por essa razão, o método de cálculo se mostrou falho, o que gerou o enviesamento do sistema e, consequentemente, decisões equivocadas.

Já o caso Chatbot Sweetie 2.0 foi uma iniciativa da organização Terre des Hommes (TdH), criado para identificar suspeitos de exploração sexual infantil pelos meios digitais (online), em que o sistema de inteligência artificial simula ser uma criança de 10 anos, usando imagens 3D para criar uma representação realista de uma menina. O uso dessa tecnologia levantou questões legais, como, por exemplo, se a interação sexual com um chatbot é considerado um crime ou se o uso do chatbot pela polícia poderia ser considerado uma forma de armadilha, implicando outras consequências para a legislação criminal australiana.

Tendo em vista os mais variados desafios enfrentados pelo país no controle do uso de ferramentas de inteligência artificial, seja na esfera pública ou privada, destaca-se a iniciativa denominada Supporting Responsible AI: discussion paper. Com base no documento Safe and responsible AI in Australia publicada pelo governo australiano em junho deste ano, a iniciativa tem por finalidade discutir os mecanismos de governança para garantir que a IA seja usada de forma segura e responsável, incluindo regulamentações, padrões, ferramentas, estruturas, princípios e práticas empresariais.

Nota-se que o panorama interdisciplinar reflete a complexidade do debate regulatório sobre inteligência artificial na Austrália, com interações significativas entre Direito e Tecnologia. Verifica-se, assim, que há um vasto campo para investigações futuras, com o objetivo de aprimorar políticas e diretrizes relacionadas à inteligência artificial no país, lições a serem aprendidas e debatidas mundialmente.

Caso queira saber mais sobre os principais tópicos de discussão, acesse a gravação do encontro.

Anterior
Anterior

V Fórum Brasileiro de IA Responsável

Próximo
Próximo

III Fórum Brasileiro de IA Responsável