Nos últimos meses, avançaram no Legislativo projetos para regulamentar o uso da tecnologia de inteligência artificial (IA) no País. A proposição mais adiantada é da Câmara, de autoria do deputado Eduardo Bismarck (PDT-CE), e está pronta para votação no plenário da Casa. Especialistas ouvidos pelo Estadão consideraram que os projetos têm pontos positivos, mas disseram que a regulação pode ser prematura, dada a velocidade com que a tecnologia de IA se desenvolve.
Na ficção, a inteligência artificial geralmente é retratada em histórias ameaçadoras, às vezes envolvendo máquinas que se rebelam contra os seres humanos. Ela está, por exemplo, em filmes como 2001: Uma Odisseia no Espaço (1968), ou Matrix (1999). Na vida real, a inteligência artificial é um tipo de programa de computador capaz de interpretar dados, aprender a partir deles e tomar decisões de forma autônoma para cumprir uma determinada tarefa definida pelo seu criador.
Hoje, a inteligência artificial está presente em uma série de ações cotidianas. Os algoritmos também estão em lojas online, no controle de estoques de empresas, em ferramentas de reconhecimento facial, em sistemas de prevenção de fraudes e na análise de padrões de comportamento de consumidores.
Na Câmara, há pelo menos outros três projetos além do apresentado por Eduardo Bismarck: as propostas dos deputados Léo Moraes (Podemos-RO), Bosco Costa (PL-SE) e Gustavo Fruet (PDT-PR). Todas tramitam em conjunto, apensadas ao projeto de Bismarck. No Senado, a inteligência artificial é assunto de mais três projetos. A mais adiantada é a de autoria do senador Veneziano Vital do Rêgo (MDB-PB) e tem como relator o líder do governo no Senado, Eduardo Gomes (MDB-TO).
A versão inicial do projeto de Bismarck, em tramitação na Câmara, é simples: são apenas nove artigos, estabelecendo os princípios gerais que devem reger o uso dos algoritmos de inteligência artificial no Brasil. Pela proposta, este tipo de software deve ser construído respeitando princípios como a dignidade humana, a proteção de dados pessoais, a não discriminação, a transparência e a segurança. A relatora da proposta é a deputada Luísa Canziani (PTB-PR).
O texto da Câmara também cria a figura do “agente de IA”, que pode ser tanto o desenvolvedor quanto o operador do software. O “agente de IA” é o responsável legal pelas decisões tomadas pelo algoritmo. Ao agente também cabe garantir que o software respeite as normas da Lei Geral de Proteção de Dados (LGPD).
O projeto do Senado é ainda mais sintético, com seis artigos. De forma similar à proposta da Câmara, o texto de Veneziano determina que o desenvolvimento da IA no Brasil respeite princípios como ética, direitos humanos, valores democráticos e proteção da privacidade, entre outros. O projeto entrou na pauta e recebeu quase 20 emendas, mas foi retirado para que o relator pudesse aprimorar o texto final. Uma das emendas é do senador Paulo Paim (PT-RS), para determinar que a adoção da IA leve em conta o impacto sobre os empregos, inclusive no setor público.
Restrição
Nos últimos meses, a Câmara e o Senado realizaram audiências para debater a possível regulamentação da IA. Entidades de classe que representam empresas do setor de tecnologia se manifestaram contra a regulamentação. O temor é o de que novas regras possam restringir o desenvolvimento da tecnologia, cujas possibilidades e implicações futuras ainda são pouco conhecidas.
Bismarck disse que percebeu a necessidade do projeto ao ver que outros países avançam no tema, com a criação de leis sobre a tecnologia, muitas vezes com base em princípios definidos pela Organização para a Cooperação e o Desenvolvimento Econômico (OCDE). “Nós criamos princípios, direitos e deveres, para poder ajudar a tecnologia a se desenvolver. A gente não entra nos pequenos gargalos. Isso vai ficar para uma legislação complementar depois, se for o caso, quando a tecnologia estiver mais avançada”, disse ele ao Estadão.
O deputado também rejeita a ideia de que o projeto possa atrapalhar o desenvolvimento da tecnologia. “As grandes empresas hoje não querem mais lidar com fronteiras, com regras, porque acham que o próprio compliance delas supera as leis locais. Mas elas não são países soberanos capazes de instituir esses princípios, da forma como o Parlamento pode fazer”, declarou. “A nossa proposta está alinhada com a lei do Reino Unido, de Cingapura, do Japão, dos Estados Unidos. E por que lá não tem essas críticas?”, questionou o parlamentar.
Tema complexo
Especialistas em inteligência artificial ouvidos pelo Estadão afirmaram que o tema é complexo e que uma regulamentação efetiva sobre a tecnologia requer um nível de detalhamento bem maior do que o apresentado nas propostas atuais em tramitação no Congresso.
“É bem difícil definir o que é a inteligência artificial. É muito difícil fixar os limites do que está sendo regulamentado, embora a proposta (da Câmara) apresente uma definição. Então, isso torna um pouco arriscado você tentar fixar agora uma legislação quando a tecnologia ainda está num momento de desenvolvimento, de consolidação”, disse o professor da Escola Politécnica da Universidade de São Paulo (USP) Fabio Gagliardi Cozman. Ele é diretor do Centro de Inteligência Artificial da instituição.
“O outro aspecto é que, na (legislação da) União Europeia, há uma abordagem voltada a riscos. Você tenta verificar qual a possibilidade de algo criar um problema. E, dentro deste risco, há níveis diferentes de ações que podem ser tomadas. Para termos algo deste tipo, seria preciso uma discussão mais detalhada. Isto eu acho que está um pouco vago no projeto, ainda”, afirmou Cozman. Ele, no entanto, disse considerar o debate pertinente. “Não sou totalmente crítico. Acho que a preocupação com o assunto é válida e a discussão precisa ser feita. Não é que seja errado legislar sobre o assunto, é que ainda não existem direitos e deveres claros sobre isto.”
Na avaliação do professor da Universidade Federal de Goiás (UFG) Anderson Soares, o projeto do deputado Eduardo Bismarck (PDT-CE) é o mais detalhado até o momento e tem, segundo ele, o mérito de se preocupar com a qualificação dos trabalhadores que vão lidar com a inteligência artificial, ou que terão seus empregos atingidos pela nova tecnologia.
Apesar disso, o professor observou que o texto pode criar um problema ao atribuir “intencionalidade” às decisões tomadas por algoritmos, já que a inteligência artificial não faz julgamento moral antes de tomar uma decisão da mesma forma que um humano faria. “Eventualmente, o algoritmo toma uma decisão como ‘vou dar este desconto a este cliente’. E isso não pode ser 100% interpretado. E, se essa interpretação for muito rígida, a gente pode inviabilizar a inteligência artificial da forma como ela é usada hoje”, afirmou Soares, que coordena o Centro de Excelência em Inteligência Artificial da UFG.
Ainda de acordo com o professor, chama a atenção a tentativa, nas propostas, de responsabilizar civilmente quem construiu ou quem vai operar o algoritmo. “Pode até ser que a gente chegue à conclusão de que isso é necessário, lá na frente. Mas, no atual momento, em que está todo mundo descobrindo onde esse tipo de tecnologia cria vantagens ou não, isso pode levar a uma burocratização excessiva da tecnologia. Neste momento, é inoportuno definir esses papéis”, afirmou Soares.