terça-feira, 28 de novembro de 2023

INTELIGÊNCIA ARTIFICIAL: ENFRENTANDO OS RISCOS E O PAPEL DA REGULAÇÃO






1. Os principais riscos da IA 


Os riscos associados à inteligência artificial são diversos, e podem ser de natureza pragmática ou ética. Especialistas debatem os perigos que a IA pode representar , e muitos deles são questões com as quais já estamos tendo que lidar atualmente, como o caso recente da greve em Hollywood . Por isso, o debate sobre como lidar com os riscos dessa tecnologia tem ganhado cada vez mais força no Brasil e no mundo.


A IA generativa (ou GenAI, na sigla em inglês) é uma técnica específica de aprendizado de máquina capaz de, a partir de dados coletados, gerar conteúdos originais em texto, em áudio ou em vídeo, por exemplo. Além disso, ela oferece novas capacidades que os modelos antigos não tinham e também pode ser usada para trazer melhorias a esses mesmos modelos, de forma que está sendo tratada como um “catalisador tecnológico”. Desse modo, essa nova fronteira da IA traz benefícios, mas também riscos para análise. O caso da indústria de entretenimento tem chamado especial atenção quanto a isso, com a recente greve em Hollywood e debates sobre direitos autorais. 

A greve dos roteiristas de Hollywood foi deflagrada em julho de 2023 e já dura mais de 100 dias. Além de questões relacionadas a rendimentos, um dos seus principais pontos é quanto ao uso de inteligência artificial nas produções. O sindicato dos roteiristas pede uma regulação de IA que proteja os roteiristas e suas obras, demandando que “a IA não possa escrever ou reescrever material literário; não possa ser utilizada como material de origem; e as obras autorais não podem ser utilizadas para treinar a IA”. O sindicato dos atores também aderiu à greve visando garantir segurança no uso de suas imagens digitais.

Além disso, a GenAI tem testado as normas de direitos autorais. Por um lado, os regramentos atuais de direitos autorais muitas vezes não conseguem proteger conteúdos gerados por IA. Podemos citar como exemplo o caso dos quadrinhos “Zarya of the Dawn” cuja autora, Kris Kashtanova, não conseguiu registrar sua obra completa, pois as imagens usadas foram geradas por IA e, portanto, tiveram seu registro negado pelo escritório de proteção dos EUA, onde criações de GenAI não são cobertas por direitos autorais5. Por outro lado, existe o debate sobre conteúdos gerados por IA que desafiam os limites dos direitos autorais. Por exemplo, o caso da canção “Heart On My Sleeve”, lançada nas redes sociais como uma parceria entre os músicos Drake e The Weekend. A música, contudo, não era de nenhum dos dois e foi criada a partir de inteligência artificial. A canção foi retirada das plataformas por suposta violação de direitos autorais, mas acendeu um debate sobre o tema, uma vez que o conteúdo gerado não copiava trecho algum das obras dos músicos fazendo com que muitos defendessem que não houve violação de direitos autorais.


As quatro áreas que mais levantam preocupação atualmente são:

 (i) questões éticas e de direitos humanos fundamentais; 

(ii) possíveis impactos macroeconômicos; 

(iii) segurança e privacidade; e

 (iv) possíveis impactos sobre o sistema financeiro. 

Em termos de questões éticas, o primeiro risco que podemos citar é o de um uso deliberadamente criminoso da tecnologia. Por exemplo, se um modelo de IA for usado para produzir conteúdo de violência ou nudez não consensual a partir de deepfakes, imagens mentirosas que parecem reais e podem ser usadas para extorquir pessoas ou mesmo levar ao caos social e morte. Além disso, destaca-se também a preocupação com o desenvolvimento de sistemas de armas autônomas, ou autonomous weapons systems (AWS) no termo original, que são sistemas de IA programados para selecionar detectar e atacar alvos e, uma vez ativado, prescinde de qualquer controle ou ação humana. Pensados para melhorar a eficiência da estratégia militar, esse tipo de sistema levanta sérias questões humanitárias já que, depois de ativado, não se pode prever com exatidão como, onde e quando ocorrerá o ataque. Questões éticas também entram em discussão quando se trata da operacionalização de um sistema de IA. 

Um ponto que sempre chama atenção é o de vieses. Como um sistema projetado por humanos e treinado com dados prévios, existe uma preocupação de que os algoritmos acabem reforçando vieses sociais, ou seja, vieses não desejáveis da nossa sociedade, como,  por exemplo, vieses de gênero, raça, idade, renda e outros. 

Esse ponto é ainda reforçado pelo fato de que o desenvolvimento desses sistemas está bastante concentrado em algumas grandes empresas e nações globalmente poderosas, exacerbando ainda mais preocupações com a perpetuação de preconceitos contra populações desfavorecidas e sub-representadas. 

Além dos vieses sociais, existem os vieses relacionados aos dados, quando os dados utilizados para treinamento dos algoritmos são incompletos, incorretos ou inválidos. Isso pode acontecer por falha humana (um erro não planejado) ou a escolha dos dados pode ser feita de má fé. Também pode ocorrer quando os dados de treinamento são considerados de má qualidade, ou mesmo uma má concepção do sistema em si. 

Esses casos chamam atenção em exemplos como: disseminação algorítmica de discurso de ódio e/ou incentivo à violência online, ou a amplificação algorítmica de notícias falsas nas redes. Caso o algoritmo não tenha sido treinado para identificar esses casos específicos, ele pode aplicar modelos padrão de disseminação desse conteúdo, sem identificar sua característica ilegal. Esses cenários colocam em risco decisões políticas a partir da manipulação popular, por exemplo, como ocorrido no caso da Cambridge Analytics nas eleições presidenciais dos EUA.


Sob o aspecto dos possíveis impactos macroeconômicos que a ampla adoção de soluções de IA podem gerar, preocupações acerca da desigualdade e justiça social, além do futuro do mercado de trabalho se destacam. Primeiramente, como já colocado anteriormente, a questão dos vieses pode exacerbar desigualdades já presentes na nossa sociedade. 

Mas uma revolução tecnológica do tamanho que promete ser o uso da inteligência artificial na economia, também pode trazer novos aspectos de desigualdade. Richard Freeman, professor do departamento de economia de Harvard, desenvolveu a ideia de uma economia robótica (robô-nomics, como denominou o pesquisador), na qual a “robotização” afetaria a economia a partir de três leis

Lei 1: Os avanços na inteligência artificial e na robótica produzirão uma elasticidade crescente de substituição do trabalho humano. Em outras palavras, cada vez mais o trabalho humano será substituído por robôs. 

Lei 2: O custo dessas máquinas será decrescente, ou seja, diminui conforme caem os custos de produção, tendendo a se tornar menor que o custo do trabalho e, assim, exercendo pressão de baixa sobre os salários. 

Lei 3:: Haverá, portanto, uma tendência de concentração das rendas provenientes da propriedade dos robôs em detrimento às rendas de trabalho. 


O cenário previsto por Freeman, então, trata de um futuro com concentração de renda e riqueza nas mãos daqueles que possuem os robôs, o que pode ser ainda mais preocupante se a propriedade da tecnologia estiver ainda muito concentrada em poucos grandes players e/ ou poucas nações. Para além da concentração dessas rendas oriundas do capital tecnológico, o outro aspecto desse contexto é a deterioração das rendas de trabalho, agravada pelo aumento do desemprego oriundo da substituição do trabalho humano.


A questão do futuro do mercado de trabalho é, portanto, outro risco macroeconômico associado à revolução que a IA promete trazer para a economia. É verdade que a introdução de tecnologias disruptivas visam melhorar a eficiência do processo produtivo e podem levar a sociedade a ter ganhos na qualidade de vida, vide a própria revolução industrial. Contudo, estudos mais minuciosos mostram que os choques tecnológicos, se não forem bem administrados, podem, na verdade, piorar a qualidade de vida dos trabalhadores, sobretudo aqueles de baixa qualificação, cujo trabalho tende a ser mais barato e “mais fácil de substituir” e/ou aqueles trabalhadores de setores cuja produtividade vai aumentar tanto que menos empregos serão necessários. 

Estudo recente da Accenture, por exemplo, mostra que em alguns grupos de profissões a IA pode impactar mais de metade de todas as horas trabalhadas. 

Dessa forma, para evitar que o avanço da IA traga resultados sociais indesejáveis, como o aumento da desigualdade e uma piora na qualidade de vida dos trabalhadores, é importante preparar o mercado de trabalho para lidar com as demandas futuras de uma tecnologia disruptiva.


O maior uso da inteligência artificial também aumenta a preocupação com relação à segurança cibernética e à privacidade. Isso porque o processo de digitalização e o aumento do uso de dados, ambos pontos cruciais para evolução do cenário da inteligência artificial, também aumentam a incidência e a sofisticação de ataques cibernéticos e o risco de vazamento de dados, entre outras violações de privacidade. Com relação aos ciberataques, sabe-se que a IA pode ser um grande aliado na sua identificação e prevenção, mas é importante notar que, conforme a tecnologia se torna mais acessível, ela também passa a ser incorporada pelos cibercriminosos, sendo usada para criar formas mais rápidas e mais sofisticadas de realizar ataques cibernéticos, ampliando os impactos das ameaças já existentes e introduzindo novas ameaças. Dentre as formas que a IA pode ser usada por cibercriminosos, podemos citar: automatização de ataques de engenharia social; automatização da descoberta de vulnerabilidades dos sistemas; negação de serviço de tipo humano (quando o algoritmo é capaz de reproduzir um padrão humano de interação burlando as regras de acesso e de utilização de determinado sistema); uso de machine learning para definição de alvos para ciberataques; entre outros.


Essa maior sofisticação dos ciberataques levantam preocupações com relação à privacidade de dados, um assunto caro à sociedade atualmente. Ataques cibernéticos mais refinados levam as instituições a precisarem de modelos cada vez mais capacitados para lidar com os novos tipos de ataque e, caso a segurança cibernética falhe ou seja insuficiente para o ataque sofrido, as bases de dados usadas pelas instituições estarão mais vulneráveis a vazamentos e/ou sequestro desses dados. 

Mas essa não é a única preocupação com relação à privacidade. Uma improbidade no uso das informações para treinar o algoritmo pode levar a invasões de privacidade a depender do tipo de informação utilizada e o uso de ferramentas de IA pela justiça; por exemplo, o caso de algoritmos de reconhecimento facial levanta debates sobre vigilância em massa e seus limites. 

Falta de transparência sobre os dados coletados, realização da prática sem o consentimento (ou sequer o conhecimento) dos indivíduos, além da questão de vieses na seleção dos indivíduos monitorados são alguns dos questionamentos que essa atividade levanta.

O último grupo de riscos associados ao crescimento do uso da IA abordado nesta Carta é o de riscos financeiros. No âmbito do sistema financeiro, os riscos são diversos e podem estar relacionados tanto à operacionalização da tecnologia como com a estabilidade financeira em si. Um exemplo relacionado a riscos já abordados neste documento é o risco de que decisões viesadas do algoritmo possam restringir o acesso a crédito de forma discriminatória ou injusta. 

Além disso, modelos preditivos apresentam limitações, podendo gerar interpretações errôneas do contexto econômico, levando a decisões erradas que, associadas a operações automatizadas a partir desses modelos, podem resultar em instabilidade financeira. 

Um risco que se intensifica pela falta de explicabilidade de alguns modelos. A explicabilidade permite a elucidação de resultados, facilitando a supervisão regulatória e responsabilização em casos aplicáveis. Além da falta de explicabilidade, modelos preditivos associados a transações automatizadas tendem a ser pró-cíclicos, ou seja, acompanham (e exacerbam) os ciclos econômicos. Assim, em momentos de alta se observa um aumento dos ganhos, mas em momentos de baixa, as perdas também devem se acentuar. 

Assim, esses modelos aumentam a volatilidade do mercado e estimulam movimentos de manada, além da tendência de criação de bolhas especulativas. A situação piora, pois entende-se que esses modelos têm dificuldade de se reestabilizar durante uma crise, o que reforça o seu caráter pró-cíclico e pode gerar espirais de perdas quanto mais difundido o modelo for no mercado. A automatização de negociações algorítmicas (ou seja, o uso da IA nos mercados financeiros), também aumenta a relação entre o setor financeiro e os setores da economia real, o que, potencialmente, eleva o grau de contágio de uma crise financeira.


Ademais, a inteligência artificial também pode ser usada, no âmbito do setor financeiro, para buscar lacunas, auxiliando a evasão à regulamentação em vigor em determinada jurisdição, em um movimento de arbitragem regulatória, que coloca em risco a estabilidade e o bom funcionamento do sistema. Seu uso também pode estar associado à manipulação de mercado, como a programação de algoritmos para efetuar grandes ordens de vendas/compras que são canceladas assim que atingem o seu objetivo (afetar o preço do ativo em questão) para que um agente mal-intencionado se beneficie individualmente dos novos preços.


Mais recentemente, todos esses riscos foram ainda potencializados pelo crescimento da IA generativa que, ao intensificar os ganhos da inteligência artificial, também aumenta seus riscos. Segundo estimado, a GenAI pode aumentar o impacto da IA na produtividade econômica em até 40%, podendo ser responsável por um acréscimo de mais de USD 4 trilhões por ano no produto econômico.


Tamanho potencial produtivo também se reflete em potencial aumento dos riscos, além de trazer novas questões ao debate, como a questão do direito autoral (ver BOX 1). Assim, mais que nunca é necessário pensar em formas de lidar com os riscos que a inteligência artificial oferece, de forma a mitigá-los para aproveitar toda a potencialidade da tecnologia de forma positiva.


2. Como lidar com esses riscos



Dado o diagnóstico envolvendo os riscos da expansão do uso de IA, passa a ser importante lidar com eles, o que tem tornado a discussão sobre regulação cada vez mais crucial. Uma opção é o banimento total do uso da tecnologia, mas, nesse caso, a sociedade também seria privada dos benefícios da IA. Para garantir, então, uma incorporação segura da inteligência artificial na economia, é importante criar diretrizes e regras que orientem o bom uso da tecnologia. A regulação deve trazer clareza sobre responsabilização e um maior grau de transparência dos sistemas de IA.

 Isso é importante para que se tenha segurança jurídica e institucional para lidar com o descumprimento das regras. Além disso, uma maior transparência dos sistemas vai garantir uma melhor supervisão para garantir que o uso da IA esteja alinhado com o bem-estar da sociedade. É importante notar que a transparência nesse caso não trata apenas sobre o que comumente a regulação está acostumada a lidar, focada nas tomadas de decisão (de uma empresa, por exemplo), procurando entender quem tomou a decisão, como a decisão foi tomada e com base em que a decisão foi tomada. 

Já no âmbito tecnológico, é importante que o pilar da transparência verse sobre questões processuais do sistema, para viabilizar a compreensão sobre como o sistema é desenvolvido, como ele é treinado, e como ele é implementado, além de explicações sobre fatores que podem ter impactado determinado resultado. 

Para alcançar um bom grau de transparência, especialistas indicam uma abordagem mista, combinando garantias teóricas, evidências estatísticas e técnicas de explanation36, na medida em que cada um desses métodos melhor se aplicar a cada circunstância.


Determinados os modelos de responsabilização e as regras de transparência, os reguladores podem determinar as regras de bom uso da tecnologia buscando endereçar os riscos já citados nesta Carta, além de outros que possam surgir, para garantir um uso da IA que seja alinhado com princípios éticos e legais da sociedade. Pode-se, por exemplo, exigir que se aplique métodos para reduzir os vieses e estabelecer requisitos mínimos para a segurança dos sistemas. Ao mesmo tempo, a determinação de um modelo de responsabilização e regras de transparência também reforça a capacidade das autoridades de aplicar regulações já existentes aos sistemas de IA, nesse sentido podendo endereçar, com pouco esforço de adaptação legal, riscos ligados à privacidade dos dados e manipulação de mercados, por exemplo. A construção de um marco regulatório para inteligência artificial, contudo, não é uma tarefa simples e em geral o debate se estende por algum longo tempo. 

Isso cria um problema comum à regulação de novas tecnologias, pois o processo de inovação é muito rápido nesse setor, de modo que, quanto mais demora a elaboração da legislação, maiores as chances de ela já nascer com algumas defasagens, como no caso do marco regulatório de criptomoedas recém aprovado na UE. O descasamento entre inovação tecnológica e avanço da regulação é um ponto central do debate regulatório de tecnologia e é importante que as autoridades estejam atentas às inovações que venham surgir ao longo do desenvolvimento do aparelho legal, e também que a legislação seja capaz de, em algum grau, absorver novos riscos que as inovações possam trazer. 


Mas nem todos os riscos podem ser endereçados com supervisão regulatória. Como visto, alguns dos possíveis impactos macroeconômicos que o uso da IA pode trazer estão associados à capacidade da tecnologia de revolucionar a organização econômica. Assim, para lidar com essas questões, é importante que as autoridades também tenham uma posição propositiva quanto ao uso da inteligência artificial, estimulando investimentos e pesquisa para que os benefícios do desenvolvimento tecnológico contemplem a sociedade de forma mais equânime e investindo também em qualificação e adaptação da força de trabalho para o que será o futuro do mercado de trabalho com a revolução da IA. 

Nesse sentido, podemos destacar as estratégias nacionais para inteligência artificial: planos de desenvolvimento da tecnologia a nível nacional, que buscam explorar pontos como: 

pesquisa em IA, como estímulos à criação de centros de pesquisa para se manter na fronteira do debate sobre a tecnologia; 

IA na indústria, que abarca tanto o investimento em infraestrutura para o desenvolvimento de soluções de IA, quanto o uso da tecnologia em setores estratégicos, como saúde e transportes; 

questões relacionadas ao futuro do trabalho para que governos, empresas e trabalhadores saibam lidar com a revolução da IA; 

e discussões sobre os limites éticos do uso da inteligência artificial. 

Hoje, países de todos os continentes do globo já estão, pelo menos, desenvolvendo planos nacionais de desenvolvimento de IA. Esses planos estratégicos, portanto, complementam a ação regulatória das autoridades, para garantir, não só a mitigação de determinados riscos, mas também um investimento e uma distribuição socialmente justa dos benefícios da implementação da tecnologia. Uma abordagem nessas duas frentes é extremamente importante para que as autoridades consigam endereçar uma ampla gama de riscos associados ao uso da IA, ao mesmo tempo em que estimula setores estratégicos para o melhor uso social da tecnologia. 

Paralelamente a esses dois tipos de iniciativas das autoridades, há um movimento, tanto de autoridades e organizações internacionais, quanto de instituições de mercado, para garantir um desenvolvimento ético da inteligência artificial: a publicação de princípios de IA.

Entre organizações internacionais, a Organização para a Cooperação e Desenvolvimento Econômico (OCDE) publicou em 2019 sua lista de princípios para que garantir inovação e idoneidade no uso de uma inteligência artificial centrada no ser humano e confiável.


Os princípios sugeridos pela organização se propõem a servir de referência não só para futuras políticas públicas a níveis nacionais, mas também para corporações e outros agentes privados que estejam envolvidos no desenvolvimento da IA. 

Além disso, a lista de princípios se propõe a ser um benchmark internacional, podendo ser usada para viabilizar uma cooperação de políticas para IA a nível transacional. 

Esse ponto é de grande relevância para o tema, considerado o caráter transfronteiriço das tecnologias digitais, como é o caso da inteligência artificial. Assim, a lista de princípios da OCDE é um excelente ponto de partida para analisar iniciativas para um uso seguro e socialmente benéfico da tecnologia. 

Mas nem só autoridades se preocupam com a publicação de princípios norteadores do uso da IA. Grandes empresas de tecnologia que se mostram players cruciais no mercado, como Googlee Microsoft, também publicaram seus próprios princípios sobre inteligência artificial. 

Outra iniciativa interessante nesse sentido são os princípios divulgados pela Academia de Inteligência Artificial de Pequim

Em comum, todos eles citam aspectos relacionados à transparência, equidade, impacto social, confiabilidade e segurança, responsabilidade, privacidade e segurança. 

A publicação de princípios por todos esses agentes, sobretudo o da OCDE devido à sua relevância enquanto autoridade internacional no cenário global, é muito importante: ajuda a nortear o debate sobre o uso seguro da IA e propõe soluções para lidar com determinados riscos que podem vir a ser incorporadas pela legislação. É importante notar, contudo, que não possuem o poder normativo, não sendo, assim, suficientes para substituí-lo, mas servindo como um bom parâmetro para examinar as iniciativas oficiais dos países com relação à segurança no uso da IA.


3. Análise do cenário internacional



Diversos países, sobretudo as principais economias do mundo, hoje já possuem algo que pode ser considerado um plano estratégico nacional para IA. 

A maioria deles focado na pesquisa para se manter na fronteira tecnológica e debates éticos sobre o uso da inteligência artificial. Já o cenário regulatório ainda está em fase de desenvolvimento e o mercado internacional ainda aguarda a publicação do primeiro marco regulatório para inteligência artificial que deve vir ainda esse ano com o AI Act da União Europeia (UE), já endereçando riscos ligados à IA generativa. Como explicitado anteriormente, existe uma tendência de descasamento entre o desenvolvimento de um marco regulatório (processo longo) e a evolução inovativa de uma tecnologia (processo veloz). 

Assim, a publicação do primeiro marco regulatório é muito aguardada para balizar os projetos futuros, podendo torná-los mais rápidos e mais eficientes. Isso, portanto, coloca os olhos do mercado sobre a UE como um destaque para regulação do setor. 

Por outro lado, um marco regulatório amplo não é a única possibilidade. 

A China, por exemplo, tem se dedicado a regulações focalizadas para lidar com áreas específicas da IA e vem sendo considerada pioneira nesse tipo de abordagem. 

Dessa forma, a potência asiática tem construído a sua estrutura regulatória para IA pouco a pouco, com normas que se complementam para criar um ambiente institucional para o uso legal da tecnologia no país. Nas regras mais recentes publicadas, as autoridades se debruçaram sobre usos da GenAI, destacando o país no cenário internacional, com uma resposta rápida a uma evolução tecnológica recente que promete ser bastante disruptiva. 

Assim, China e UE são considerados o principal referencial comparativo da regulação de IA atualmente, dado o estágio avançado de ambos os projetos (ainda que apresentem abordagens distintas). 

Por isso, esses dois casos são analisados para que o modelo brasileiro seja, então, estudado em perspectiva com o mercado internacional. 

O Brasil tem uma estratégia nacional para IA desde 2021 e tem, hoje, um projeto de lei para o setor sendo analisado no Senado. Essas iniciativas serão avaliadas com referência aos princípios adotados (tendo os princípios da OCDE como parâmetro), as principais áreas consideradas estratégicas para a nação e abrangência da legislação (ou proposta de legislação). 

Dessa forma, é possível verificar o quanto do que é demandado em termos de regulação está sendo atendido pelos projetos considerados referência e quão longe disso o Brasil está. Tal análise colabora para uma identificação do estado geral do debate regulatório em IA, tendo em vista que, se nem mesmo os países referenciais estiverem caminhando na direção de atender boa parte das demandas regulatórias, então passa a ser razoável concluir um grande atraso no debate e práticas regulatórias. Tais países funcionam como uma proxy do quão avançado está o ambiente regulatório para IA.


CHINA



A China tem uma abordagem pioneira com relação à inteligência artificial: é um dos primeiros países a adotar uma estratégia nacional para IA, segundo o tracker da OCDE e vem construindo seu ambiente regulatório para IA, pelo menos, desde agosto de 2021, com a publicação de uma minuta de regulação sobre o uso de algoritmos de recomendação. 

Começando pela estratégia nacional, o Estado chinês anunciou em 2017 o Plano Nacional da Nova Geração de IA, cujos principais objetivos envolvem manter a China na fronteira tecnológica e transformá-la em um centro de inovação em IA. O plano tem uma abordagem holística com iniciativas de pesquisa, industrialização, qualificação da mão de obra, além do debate regulatório e de diretrizes éticas para IA. 

Dentre os princípios propostos pela OCDE, o plano aborda os cinco:

  •  comprometimento com o crescimento inclusivo, desenvolvimento sustentável e bem-estar; 
  • ter valores centrados no ser humano e equidade;
  •  ter transparência e explicabilidade;
  •  garantir robustez, segurança e proteção; 
  • e ter responsabilização. 

Já as áreas estratégicas cobertas pelo plano são: 

  • agricultura; 
  • defesa; 
  • economia digital; 
  • educação; 
  • mercado de trabalho; 
  • saúde; 
  • indústria; 
  • bem-estar social; 
  • e transportes. 

Paralelamente ao desenvolvimento estratégico nacional da tecnologia, a China também apresenta avanços no que tange à regulação. Ainda em 2021, a Administração do Ciberespaço da China (Cyberspace Administration of China, ou CAC, em inglês), a autoridade nacional que regula a internet, publicou uma minuta com disposições gerais sobre algoritmos de recomendação online, como os algoritmos de propaganda em sites50. A regra final entrou em vigor em março do ano seguinte e tem como destaques: a necessidade de licenciamento perante o CAC de provedores de serviços de algoritmo de recomendação que operam em notícias on-line; a proibição de geração algorítmica de fakenews; uma recomendação específica acerca das necessidades dos usuários idosos; e a proibição de “atos monopolísticos ou concorrência imprópria” no setor.

Ainda em 2022, o CAC publicaria mais uma minuta com normas para lidar com algoritmos generativos, deep learning e realidade virtual. A norma final, que entrou em vigor em janeiro de 2023, ficou conhecida como regras de deepfakes e tem como principal destaque a responsabilização primária dos provedores de serviço enquadrados na norma, com regras sobre implementação de sistemas de gerenciamento de risco, revisão de mecanismos algorítmicos, revisão de ética científica, segurança de dados, proteção da privacidade de informações, entre outros. 

A movimentação mais recente foi em abril de 2023, com a publicação de uma minuta sobre os serviços de IA generativa, com regras sobre treinamento de dados e precisão do resultado gerado. Especialistas tratam a minuta como mais uma etapa da estrutura regulatória que a China tem estabelecido para lidar com a inteligência artificial, complementando as regras já em vigor. 

Alguns destaques da minuta ficam por conta 

  • da obrigatoriedade de passar pela avaliação de segurança da CAC para ser autorizado a prestar o serviço de GenIA; 
  • responsabilização dos provedores de serviço de GenIA sobre o conteúdo produzido, assumindo responsabilidades legais sobre o processamento de informações pessoais; 
  • obrigatoriedade de mecanismos de filtragem de conteúdo “inapropriado”; 
  • obrigatoriedade de identificação de conteúdo gerado por IA; 
  • e regras para uso de dados em treinamentos algorítmicos. 

Além dessas iniciativas, a China também traz mais robustez à segurança institucional do ambiente de IA aproveitando regulações relacionadas, como a Lei de Cibersegurança, a Lei de Segurança de Dados e a Lei de Proteção à Informação Pessoal.


É interessante notar essa abordagem das autoridades chinesas, que optaram por uma construção “tijolo a tijolo” de um ambiente institucional, utilizando normas já existentes e publicando normas com direcionamentos específicos de acordo com a identificação de riscos mais latentes. 

Assim, o país tem hoje uma das regulações mais avançadas sobre IA, com uma minuta endereçada diretamente à GenAI. É interessante notar a constante preocupação do regulador com o estabelecimento de responsabilidades, além de diretrizes para um bom e seguro uso dos dados e com a disseminação de informações falsas e conteúdos enganosos. Ressalta-se, ainda, um pioneirismo no plano estratégico nacional para IA, sua preocupação em manter a pesquisa nacional na fronteira tecnológica e sua adesão aos 5 princípios da OCDE. Por fim, a figura a seguir oferece um resumo das iniciativas chinesas para o setor de IA.


UNIÃO EUROPEIA



A União Europeia também é destaque internacional quando o assunto é ambiente institucional para IA. Em 2018 foi publicado o Plano Coordenado para a Inteligência Artificial no âmbito da UE, que consolidou uma série de iniciativas do grupo e estabeleceu uma estratégia explícita para lidar com a tecnologia na região. 

Os principais objetivos do plano são: 

  • maximizar o impacto dos investimentos em IA a nível nacional e de grupo; 
  • incentivar a cooperação em toda a região; 
  • e promover o intercâmbio de melhores práticas. 

Dentre os princípios da OCDE, os 5 são abordados. 

O plano apresentou uma estratégia específica para o setor público, além de uma proposta de expansão da pesquisa e desenvolvimento em IA; prepara a sociedade para lidar com a tecnologia; e possui um estudo conjunto para desenvolvimento de padrões éticos e de segurança; entre outros. 

As áreas estratégicas do plano são: 

  • concorrência; 
  • educação; 
  • indústria; 
  • inovação; 
  • e governança pública. 
O orçamento estimado inicialmente era de mais de USD 500 milhões e as nações que aderissem ao plano deveriam implementar estratégias nacionais até meados de 2019. 

Em 2021 o plano foi revisado e, entre os novos objetivos, passou-se a incluir o alinhamento da política de IA para evitar a fragmentação. É nesse sentido que começa a se desenhar uma proposta para regulação de IA, a fim de harmonizar as regras de inteligência artificial. 

Após receber comentários de diversos órgãos relevantes, como o Banco Central Europeu e do Comitê Econômico e Social Europeu, a Comissão Europeia apresentou em dezembro de 2022 sua proposta ao Parlamento Europeu. 

Dentre os destaques do documento, podemos citar seu comprometimento com um ambiente regulatório para o desenvolvimento de uma IA segura e que respeite os direitos fundamentais. 

A proposta adota um modelo baseado em riscos, em que determinadas ferramentas que apresentem riscos inaceitáveis serão proibidas, as de alto risco e médio risco podem ser permitidas desde que submetidas a requerimentos específicos e avaliação de conformidade, além de regras específicas de transparência e outras obrigações. As demais ferramentas que apresentam risco mínimo ou nenhum risco serão permitidas sem restrições.


Dentre as ferramentas proibidas podemos citar as com alta probabilidade de reforçar vieses negativos da sociedade, como scores pessoais ou sistemas de policiamento preditivo, por exemplo, e ferramentas que violam diretamente direitos humanos fundamentais e o direito à privacidade, como a coleta não sinalizada de dados faciais para montagem de banco de dados de reconhecimento facial. 

Dentre as de alto risco estão aquelas que apresentam significativo risco à saúde, à segurança e aos direitos fundamentais. Um exemplo são os sistemas de recomendação de redes sociais que podem ser usados para influenciar o resultado de eleições. Além disso, de modo geral, as ferramentas terão que indicar que o resultado foi gerado por IA. 

Dessa forma, conteúdos oriundos de GenAI já estão sujeitos às mesmas normas de transparência. A conformidade com as regras é de responsabilidade do provedor do serviço de IA. A regulação é ainda complementada pelo Regulamento Geral de Proteção de Dados e a Diretiva de Proteção de Dados Pessoais.


Em junho de 2023, o projeto passou pela primeira aprovação no Parlamento e agora existe uma negociação com os Estados-membros para desenvolver o texto final da lei. O AI Act é muito aguardado pelo mercado, pois irá estabelecer um novo padrão regulatório aplicado a um mercado bastante relevante para o setor, não só em termos de mercado consumidor, mas também com fortes ambientes de desenvolvimento tecnológico. Além disso, a União Europeia tem sido uma referência importante para a regulação de novas tecnologias, como por exemplo no caso de PSD2, que deu origem ao open banking, e o marco regulatório dos mercados de criptoativos (MiCA). Um ponto de destaque da norma é que, como ela foi construída de forma abrangente, ela se aplica a inovações surgidas. Já se aplica à GenAI e pode se aplicar a novidades que ainda venham surgir. 

Ainda assim é sempre importante acompanhar as inovações para saber se não desafiam os limites da regulação. 


BRASIL



Já o Brasil apresenta um plano estratégico nacional desde 2021, a Estratégia Brasileira de Inteligência Artificial (EBIA), com o papel de “nortear as ações do Estado brasileiro em prol do desenvolvimento de soluções em Inteligência Artificial, bem como, seu uso consciente, ético e em prol de um futuro melhor”. 

O plano se compromete, ainda, com os direitos humanos e o desenvolvimento sustentável da tecnologia. 

A EBIA é alinhada com os 5 princípios da OCDE e apresenta os seguintes objetivos: 

  • contribuir para a elaboração de princípios éticos para o desenvolvimento e uso de IA responsáveis; 
  • promover investimentos sustentados em pesquisa e desenvolvimento em IA; 
  • remover barreiras à inovação; capacitar e formar profissionais para o ecossistema da IA; 
  • estimular o desenvolvimento da IA brasileira em ambiente internacional; 
  • promover ambiente de cooperação entre os entes públicos e privados, a indústria e os centros de pesquisas para o desenvolvimento da IA. 
As áreas estratégicas para o plano são: 

  • debate ético e de governança; 
  • mercado de trabalho; 
  • capacitação; 
  • pesquisa; 
  • indústria; 
  • segurança e 
  • governança pública. 
Parte do debate ético e de governança tem a ver com a legislação e, de fato, estimulou a discussão no país e atualmente um projeto de lei (PL) para um marco regulatório de IA tramita no Senado Federal. 

O PL apresentado em 2023 é oriundo do trabalho de uma comissão de juristas encabeçada pelo Superior Tribunal de Justiça. O texto, que atualmente está em análise em uma Comissão Temporária Interna do Senado criada para lidar com o tema, se compromete com um uso ético da IA e alinhado aos direitos humanos, apresenta uma abordagem baseada em riscos, cria modelos de transparência e responsabilização, versa sobre direitos autorais e prevê a criação de um sandbox experimental como forma de estimular a inovação. A redação, contudo, ainda deve sofrer muitos pontos de modificação antes da publicação da norma final e uma grande expectativa é de que inclua diretrizes mais claras para riscos da GenAI. 

O texto atual também sofre algumas críticas com relação a falta de especificações sobre como ocorrerá a prestações de contas. O projeto de lei, portanto, ainda está bem distante de uma aprovação final, em uma comparação com o AI Act da UE. Apesar disso, a sua existência coloca o Brasil em situação de destaque no desenvolvimento de um marco regulatório para IA. 

Quando comparamos o histórico de iniciativas oficiais voltadas para IA, é notório que o Brasil apresenta uma linha do tempo mais curta que China e UE. 

Essas últimas já apresentam planos estratégicos há mais de cinco anos, com investimentos robustos no ambiente de inteligência artificial. Ainda que estejam em estágios distintos, contudo, todos os casos analisados mostraram uma preocupação comum com o futuro da IA na economia, a importância de desenvolver diretrizes para um uso ético da tecnologia, visando o bem estar da população, e a ampla adesão aos princípios da OCDE. 

Já em termos das diferenças, do ponto de vista da regulação, a da China é a que se encontra em estágio mais avançado, pois optou por ir regulando soluções específicas aos poucos, ao invés de se debruçar sobre a criação de um marco regulatório. 

Sua última minuta publicada endereça diretamente questões ligadas à GenAI e, observando a tendência recente de tempo entre a publicação da minuta e da norma final, se pode esperar que até meados de 2024 esse aparato regulatório já esteja totalmente válido. 

A União Europeia, por outro lado, optou por desenvolver um marco regulatório, o que pode se explicar pela sua característica de União de nações independentes e a sua aspiração em harmonizar as regras em todo o seu espaço econômico. Ainda sem a legislação final publicada, a regulação de IA da UE já é considerada a mais avançada do tipo, já nos estágios finais de aprovação no Parlamento. Durante seu período de discussão a norma absorveu comentários importantes e o texto atual já endereça riscos da IA generativa. 

O Brasil visivelmente se espelhou no projeto da União Europeia, apresentando um projeto de lei com uma abordagem baseada em riscos. O PL brasileiro está em fase inicial de análise no Senado e ainda apresenta alguns pontos críticos, sobretudo com relação à falta de clareza sobre como lidar com alguns riscos da IA generativa. Continuar olhando para a evolução do caso na UE pode ser interessante para absorver soluções propostas por lá. 

Por outro lado, a proposta brasileira, ainda que bastante inicial, já apresenta alguns pontos interessantes, como a questão dos direitos autorais e a criação do sandbox regulatório. Além disso, devido ao estágio ainda inicial do debate da regulação de IA pelo mundo, mesmo que o PL brasileiro ainda esteja em fase preliminar de análise, só o fato de já ter um projeto de marco regulatório sobre o qual trabalhar em cima já coloca o Brasil em uma posição de destaque perante o cenário internacional. O quadro a seguir apresenta de forma comparativa o resumo das iniciativas para o setor de IA nos casos aqui apresentados. 


4. Propague Tendências



A inteligência artificial se apresenta como uma grande revolução tecnológica com potencial disruptivo sobre a economia, tornando a produção mais eficiente, por um lado, mas acendendo alertas com relação aos riscos da disseminação do seu uso, sejam de ordem ética, segurança e privacidade dos dados, impactos macroeconômicos e instabilidade financeira. Para lidar com esses riscos, indica-se uma abordagem dupla por parte das autoridades: o desenvolvimento de um plano estratégico nacional para o desenvolvimento da IA e ações regulatórias. Tudo isso guiado por princípios que guiam um entendimento comum sobre o que é um uso bom e seguro da IA. Em geral, os princípios adotados são os sugeridos pela OCDE. 

Diversas economias (sobretudo as mais desenvolvidas) já possuem um plano estratégico nacional para IA, mas o cenário regulatório ainda está dando os primeiros passos. 

Destacam- -se as ações da China e da União Europeia, em que o país asiático vem construindo seu ambiente regulatório institucional a partir de diversas normas que lidam com nichos de uso da IA e o grupo europeu está prestes a anunciar um marco regulatório amplo para IA. Em ambos os casos, questões ligadas à GenAI já são levadas em consideração. 

O Brasil já possui um plano nacional e tem um projeto de lei em análise no Senado para a criação de um marco regulatório de IA. O projeto brasileiro é inspirado no europeu, mas, devido ao seu estágio inicial de desenvolvimento, ainda apresenta diversos pontos sensíveis em aberto. 

Além disso, a forma como os princípios da OCDE são endereçados na prática às vezes não é muito clara, ou ainda estão em estágio inicial. Por exemplo, o simples investimento em pesquisa pode ser necessário, mas não suficiente em si para garantir um desenvolvimento equânime da tecnologia. 

O mesmo pode ser dito com relação ao investimento em qualificação, essencial para lidar com as demandas futuras de trabalho, mas uma medida insuficiente em si mesma, já que nem toda a mão de obra poderá ser alocada em empregos de alta qualificação. 

Outro exemplo versa sobre questões de transparência e explicabilidade: ter esses itens como “obrigatórios” pode não ser suficiente pois não explicita como fazê-los na prática. A ideia, contudo, é que se tenha mais clareza quanto a essas questões conforme os projetos ganhem maturidade. Uma tendência esperada é que movimentos regulatórios se intensifiquem nos próximos anos e, nesse sentido, a publicação final do AI Act, da União Europeia, deve servir de benchmark para o desenvolvimento de novos marcos regulatórios de IA. 

Um ponto de atenção no desenvolvimento dessas normas é a velocidade de inovação tecnológica, que tende a se desenvolver mais rápido que o desenvolvimento da regulação, podendo fazer com que a legislação já nasça defasada em relação a novos riscos. 

Um caso atual é o da GenAI, que promete intensificar os riscos da IA, além de possivelmente trazer novos riscos. Esse é um dos pontos sensíveis do PL brasileiro, por exemplo, pois o texto atual não endereça claramente questões inerentes a essa novidade tecnológica. 

Outro movimento que se observa é o uso de outras leis que tratam de temas correlatos (como privacidade de dados e segurança cibernética) para reforçar o arcabouço institucional legal de inteligência artificial. Isso reduz parte do custo regulatório e ajuda a criar uma institucionalidade mais ampla para lidar com questões diversas. Por fim, outro movimento que deve ganhar tração conforme se devolvam as legislações nacionais são as discussões acerca da cooperação internacional, dada a natureza transfronteiriça das tecnologias digitais. 

  Fonte: Carta Propague. Acesse o arquivo em pdf AQUI

Nenhum comentário:

Postar um comentário