skip to Main Content

PL 2338/2023 – Inteligência Artificial | CTIA: Novo Parecer + Incluído na Pauta

O senador Eduardo Gomes (PL/TO) apresentou novo substitutivo ao PL 2338/2023 (Inteligência Artificial), com emendas, no âmbito da Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA).

A matéria foi incluída na pauta da reunião deliberativa da Comissão Temporária, agendada para quarta (12), às 14h.

Destaca-se ainda a matéria será objeto de Sessão de Debates no Plenário do Senado na manhã desta terça (11).

PRÓXIMOS PASSOS

Após a votação na CTIA, o projeto seguirá para deliberação em Plenário, o que deve ocorrer na próxima semana.

Uma vez aprovado pelo Senado, o projeto seguirá para análise pela Câmara dos Deputados, que criou há algumas semanas o Grupo de Trabalho sobre Inteligência Artificial (GTIA), composto por 12 deputados e coordenado pelo deputado Sargento Portugal (PODE/RJ), de maneira a avançar mais rapidamente nas discussões sobre a matéria.

Observa-se que senador Rodrigo Pacheco defende que o Congresso conclua a votação da matéria antes da Cúpula do G20 prevista para ocorrer em novembro deste ano, no Rio de Janeiro/RJ.

O SUBSTITUTIVO

O novo texto terá como base o PL nº 2338/2023, ao qual serão feitos os necessários ajustes e incorporações, de modo a contemplar as demais proposições examinadas e suas emendas. Assim, ficam prejudicadas as demais proposições que tramitam em conjunto com a matéria em análise, incluindo o PL 21/2022, já aprovado pela Câmara dos Deputados.

A redação apresentada incorpora às regras principiológicas que disciplinam a inteligência artificial, contemplando as propostas que tratam da vedação a sistemas de inteligência artificial destinados à difusão de notícias falsas ou à promoção do ódio, da discriminação ou da violência. Sobre a inteligência artificial generativa, o texto passa a determinar que todo conteúdo sintético deverá incluir marcas identificadoras. Também passa a tratar em normas prescritivas sobre as notificas falsas e à promoção da violência em sistemas de IA.

A listagem de sistemas de alto risco foi revisada, tendo sido substancialmente reduzidos os sistemas de identificação biométrica considerados de risco elevado.

Foram incorporadas ao texto novas regras de proteção ao trabalho e aos trabalhadores, organizadas em seção específica, na qual é determinada a adoção de medidas para mitigar os impactos negativos e potencializar os positivos da inteligência artificial.

O relator incluiu ainda algumas inovações para promover maior alinhamento da norma ao contexto internacional. Nesse sentido, foram disciplinados os sistemas de inteligência artificial de propósito geral, os quais, treinados com bases de dados em grande escala, são capazes de realizar uma ampla variedade de tarefas distintas e servir diferentes finalidades.

Foi também valorizada a autorregulação dos agentes de inteligência artificial como forma de incentivar e assegurar melhores práticas de governança ao longo de todo o ciclo de vida de sistemas de inteligência artificial.

Finalmente, no que tange à responsabilidade civil, o texto elaborado optou por aplicar aos sistemas de inteligência artificial as regras gerais definidas no Código Civil e no Código de Defesa do Consumidor.

Das alterações propostas, destacam-se:

CAPÍTULO I – DISPOSIÇÕES PRELIMINARES
Retira do alcance da Lei o sistema de inteligência artificial:

  • Atividades de testagem, desenvolvimento e pesquisa e aqueles que não sejam colocados em circulação no mercado, sem prejuízo de observar a Lei nº 6.938, de 31 de agosto de 1981 (Política Nacional do Meio Ambiente).

 

Inclui que o Poder Executivo regulamentará regimes simplificados de obrigação, envolvendo flexibilização de obrigações regulatórias previstas nesta Lei, nos seguintes casos:

  • Padrões e formatos abertos e livres, com exceção daqueles considerados de alto risco ou que se enquadrarem na Seção V, do Capítulo IV ? Medidas de Governança para Sistemas de Inteligência Artificial de Propósito Geral e Generativas; e
  • Fomento nacional.

 

 Inclui dentre os fundamentos de sistema de inteligência artificial no Brasil:

  • Promoção da pesquisa e do desenvolvimento com a finalidade de estimular o desenvolvimento social e a redução de desigualdades, bem como a inovação nos setores produtivos e no poder público e as parcerias público-privadas;
  • Educação e a conscientização sobre os sistemas de inteligência artificial para a promoção do pleno desenvolvimento e do exercício da cidadania;
  • Proteção de direitos de propriedade intelectual, observada a sua função social;
  • Garantia da segurança da informação e segurança cibernética;
  • Inserção, integração e competitividade brasileira no mercado internacional.

 

Inclui dentre os princípios da boa-fé:

  • A proteção integral das crianças e dos adolescentes.

 

Inclui dentre as definições de IA:

 

  • Discriminação abusiva ou ilícita;
  • Autoridade setorial;
  • Sistemas de armas autônomas (SAA).

 

Altera a redação das seguintes definições de IA:

  • Sistema de inteligência artificial de propósito geral (SIAPG);
  • Sistema Nacional de Regulação e Governança de Inteligência Artificial (SAI);
  • Discriminação indireta abusiva ou ilícita;
  • Ambiente regulatório experimental (sandbox); e
  • Encarregado.

Exclui do texto a definição de modelos fundacionais da inteligência artificial

 

CAPÍTULO II – DOS DIREITOS
 Altera a redação para estabelecer que a pessoa ou o grupo afetado por sistema de inteligência artificial, independentemente do seu grau de risco, têm os seguintes direitos, a serem exercidos na forma e nas condições descritas neste Capítulo:

  • à informação prévia quanto às suas interações com sistemas de inteligência artificial, de forma acessível e de fácil compreensão inclusive sobre caráter automatizado da interação, exceto nos casos em que se trate de sistemas de IA dedicados única e exclusivamente à cibersegurança e à ciberdefesa;

 

Exclui o inciso sobre “outras informações definidas em regulamento”.

Altera parágrafo para dispor que os sistemas de inteligência artificial que se destinem a grupos vulneráveis deverão, em todas as etapas de seu ciclo de vida, ser transparentes e adotar linguagem simples, clara e apropriada à idade e capacidade cognitiva, e implementados considerando o melhor interesse desses grupos.

Inclui no texto novo artigo para determinar que a autoridade competente disciplinará prazos e procedimentos para o exercício do direito à informação, incluindo procedimento simplificado, considerando, entre outros, os seguintes critérios:

 

  • A complexidade dos sistemas de inteligência artificial; e
  • O porte dos agentes.
 Inclui no texto novo artigo para estabelecer que a supervisão humana de sistemas de inteligência artificial buscará prevenir ou minimizar os riscos para direitos e liberdades das pessoas que possam decorrer de seu uso normal ou de seu uso em condições de utilização indevida razoavelmente previsíveis, viabilizando que as pessoas responsáveis pela supervisão humana possam:

  • Compreender as capacidades e limitações do sistema de inteligência artificial e controlar devidamente o seu funcionamento;
  • Ter ciência da possível tendência para confiar automaticamente ou confiar excessivamente no resultado produzido pelo sistema de IA;
  • Decidir, em qualquer situação específica, por não usar o sistema de IA de alto risco ou ignorar, anular ou reverter seu resultado;
  • Intervir no funcionamento do sistema de IA de alto risco ou interromper seu funcionamento; e
  • Priorizar o gerenciamento de riscos e impactos irreversíveis ao desenvolvimento integral, à saúde ou à integridade psíquica especialmente de grupos vulneráveis.

 

Renomeia “disposições iniciais” como “disposições finais”. Além disso, determina que as diretrizes gerais sobre a forma e as condições de exercício de direitos perante cada um dos agentes de sistema de IA, deverão ser realizadas sempre em cooperações institucional formal com as autoridades sociais do SAI.
CAPÍTULO III – DA CATEGORIA DOS RISCOS
Estabelece prazo de 5 anos para que os agentes de inteligência artificial mantenham registro e documentação de todas as avaliações preliminares, independentemente do grau de risco, para fins de responsabilização e prestação de contas.
Altera redação para determinar que caberá às autoridades setoriais definir as hipóteses em que a avaliação preliminar será simplificada ou dispensada, observadas as normas gerais da autoridade competente.
 Promove as seguintes alterações nos dispositivos que vedam a implementação e o uso de sistemas de inteligência artificial:

 

  • Adequa redação para deixar claro que é vedada a produção, disseminação ou facilitação de matérias que represente abuso ou exploração sexual de crianças e adolescentes.
  • Adequa a redação para vedar a implementação e o uso de IA nos sistemas de armas autônomas (SAA), de modo geral;
  • Veda sistemas de identificação biométrica à distância, em tempo real e em espaços acessíveis ao público, com exceção das seguintes hipóteses:
  • flagrante delito de crimes punidos com pena privativa de liberdade máxima superior a 2 anos, com imediata comunicação à autoridade judicial.

 

Exclui da seção os dispositivos que detalham e específicam sistemas de armas autônomas (SAA).

 Inclui artigo na seção de alto risco para considerar sistemas de inteligência artificial de alto risco aqueles desenvolvidos e utilizados para as seguintes finalidades, dentre as quais destacam-se:

»      Aplicação como dispositivos de segurança na gestão e no funcionamento de infraestruturas críticas;

»      Educação e formação profissional;

»      Avaliação de critérios de acesso, elegibilidade, concessão, revisão, redução ou revogação de serviços privados e públicos;

»      Administração da justiça, no que toca o uso sistemas que auxiliem autoridades judiciárias em investigação dos fatos e na aplicação da lei, excluindo-se os sistemas que auxiliem atos e atividades administrativas;

»      Veículos autônomos em espaços públicos, quando seu uso puder gerar risco relevante à integridade física de pessoas;

»      Aplicações na área da saúde para auxiliar diagnósticos e procedimentos médicos;

»      Investigação por autoridades administrativas para avaliar a credibilidade dos elementos de prova no decurso da investigação ou repressão de infrações; e

»      Sistemas de identificação e autenticação biométrica para o reconhecimento de emoções.

Inclui na classificação da lista dos sistemas de IA de alto risco os seguintes itens:

 O sistema produzir, de forma ilícita ou abusiva, efeitos jurídicos relevantes e impactar negativamente o acesso a serviços públicos ou essenciais;

  • Histórico danoso, de ordem material ou moral;
  • Alto potencial danoso sistêmico, tais como à segurança cibernética, higidez do processo eleitoral e violência contra grupos vulneráveis;
  • Possibilidade de impactar negativamente o desenvolvimento e a integridade física, psíquica ou moral de crianças e adolescentes.

 

Ainda sobre esse tema, adequa a redação dos riscos significativos à saúde humana integral nas dimensões individual e coletiva, para incluir como saúde integral a parte física, mental e social.

 Inclui os seguintes dispositivos em trecho sobre participação social e Análise de Impacto Regulatória sobre a regulamentação da lista e classificação de novas hipóteses de sistemas de IA de alto risco, cabendo:

  • Às autoridades setoriais, no âmbito de suas atribuições e em caráter prevalente aos órgãos do SIA, dispor sobre os aspectos técnicos e específicos de aplicações de IA no mercado regulado, inclusive podendo:
  • estabelecer listas sobre hipóteses classificadas ou não classificadas como de alto risco;
  • precisar o rol exemplificativo de sistemas de alto risco desta Lei.

 

Ainda sobre o assunto, inclui parágrafo para determinar que não são considerados de alto risco, quando utilizadas para as finalidades previstas nesse artigo, as tecnologias intermediárias que não influenciam ou determinem resultado ou decisão.

CAPÍTULO IV – DA GOVERNANÇA DOS SISTEMAS DE INTELIGÊNCIA ARTIFICIAL
Altera a redação para estabelecer que caberá às autoridades setoriais definir as hipóteses em que as obrigações estabelecidas nos incisos do caput serão flexibilizadas ou dispensadas, observadas as normas gerais da autoridade competente.

Exclui “participação no mercado nacional” dentre os fatores de flexibilização ou dispensa a serem levados em consideração da autoridade competente.

 Inclui dentre as medidas de governança a serem adotas pelos agentes de inteligência artificial de sistemas de alto risco:

  • Utilizar dados de treinamento, validação e teste que sejam adequados, contendo propriedades estatísticas apropriadas em relação às pessoas afetadas e levando em conta características e elementos específicos do contexto geográfico, comportamental ou funcional no qual o sistema de IA de alto risco será utilizado;
  • Adoção de procedimentos e mecanismos para notificação de incidentes e de mau funcionamento do sistema de inteligência artificial;

 

Também adequa redação para estabelecer que caberá às autoridades setoriais definir as hipóteses em que as obrigações estabelecidas serão flexibilizadas, observadas as normas gerais da autoridade competente.

Exclui dispositivo que trata sobre a supervisão humana de sistemas de IA de alto risco.

 Inclui o seguinte dispositivo na seção sobre medidas de governança aplicadas pelo poder público:

  • Ao desenvolver, contratar ou adotar os sistemas referidos considerados de alto risco, o poder público deve garantir que:
  • o acesso integral aos bancos de dados nos termos da Lei Geral de Proteção de Dados Pessoais (LGPD), e a plena portabilidade de dados dos cidadãos brasileiros e da gestão pública;
  • a padronização mínima dos sistemas em termos de sua arquitetura de dados e metadados, a fim de promover interoperabilidade entre sistemas e promover uma boa governança de dados.

 

Ademais, estabelece que o caberá ao Poder Executivo Federal fixar padrões mínimos de transparência para os sistemas de IA utilizados por órgãos e entidades do setor público federal, além de monitorar regularmente o cumprimento dessas obrigações.

Para buscar a mitigação de riscos relacionados à produção e circulação de conteúdo sintético deverá promover capacidades para identificar e rotular conteúdo sintético produzido por sistemas de IA e estabelecer a autenticidade e a proveniência do conteúdo digital produzidos.

 Inclui a “preparação” dentre as etapas de metodologia da avaliação de impacto algorítmico.

Também inclui dentre as considerações e registros da avaliação de impacto:

  • finalidade e características relevantes de funcionamento do sistema de inteligência artificial;
  • medidas adotadas para gestão de riscos, garantindo a eliminação ou redução dos riscos tanto quanto possível por meio de um plano de mitigação e controle com metas e responsabilidades estabelecidas para gestão de riscos residuais.

 

Adequa a redação para dispor que a autoridade competente poderá estabelecer outros critérios e elementos para a elaboração de avaliação de impacto e a periodicidade de atualização das avaliações de impacto, a partir das diretrizes do Conselho de Cooperação Regulatória Permanente/CRIA.

Passa a determinar que caberá à autoridade competente a regulamentação, em colaboração com as demais entidades do SIA, definir as hipóteses em que a avaliação de impacto algorítmico será simplificada, considerando o tipo de agentes de sistemas de IA.

Inclui redação para estabelecer que as situações em que a obrigação de cooperação entre agentes privados de IA não será exigida, serão previstas em regulamento e levarão em consideração:

  • os variados riscos possíveis para as diversas áreas de utilização dos serviços de sistemas fundacionais;
  • a capacidade técnica dos agentes de inteligência artificial em mitigar os riscos de forma individual;
  • a viabilidade econômico-operacional da adoção de mecanismos tecnológicos que garantam de forma suficiente e segura a mitigação de riscos;
  • outros critérios relevantes presentes no regulamento.

 

Estabelece que caberá à autoridade competente a aprovação de códigos de conduta e de autorregulação de sistemas de inteligência artificial de propósito geral.

CAPÍTULO V – DA RESPONSABILIDADE CIVIL
 Inclui dispositivos para determinar que as hipóteses de responsabilização civil decorrentes de danos causados por agentes de inteligência artificial no âmbito das relações de consumo permanecem sujeitas às regras de responsabilidade previstas no Código de Defesa do Consumidor.
 Altera a redação para estabelecer que as hipóteses de responsabilização civil decorrentes de danos causados por sistemas de inteligência artificial explorados, empregados ou utilizados, direta ou indiretamente, por agentes de inteligência artificial permanecem sujeitas às regras de responsabilidade previstas no Código Civil.

Além disso, inclui que as definições do regime de responsabilização civil devem levar em consideração os seguintes critérios, salvo disposição em sentido contrário:

  • o nível de autonomia do sistema de inteligência artificial e o seu grau de risco, conforme definido por esta lei;
  • a natureza dos agentes envolvidos e a consequente existência de regime de responsabilidade civil próprio na legislação;
  • grau de impacto sobre pessoa ou grupos afetados, em especial à luz da violação a direitos fundamentais.

 

Adicionalmente, o juiz deverá avaliar a caracterização do alto risco nos termos definidos por esta Lei e pela regulamentação do SIA.

CAPÍTULO VI – BOAS PRÁTICAS E GOVERNANÇA
 Altera a redação de compartilhamento de experiência sobre o uso da IA, prevista dentre as funções da autorregulaçãopara vedar o compartilhamento de informações concorrencialmente sensíveis.

Inclui parágrafo para determinar que a associação entre agentes de inteligência artificial para fins de autorregulação deverá observar os preceitos da Lei de Sistema Brasileiro de Defesa da Concorrência, vedada qualquer atuação que possa restringir a livre concorrência.

CAPÍTULO IX – DA SUPERVISÃO E FISCALIZAÇÃO
Inclui artigo para dispor que os agentes de IA, adicionalmente às disposições desta lei, permanecem sujeitos à legislação específica relativa a cibersegurança, proteção de infraestruturas críticas, proteção à vida e à integridade física de pessoas, danos a propriedade ou ao meio ambiente, proteção aos direitos fundamentais, disseminação de desinformação, discursos que provam o ódio ou a violência e a proteção ao processo democrático.
 Inclui no Sistema Nacional de Regulação e Governança de Inteligência Artificial – SAI, além da autoridade competente a ser designada pelo Poder Executivo:

  • Autoridades setoriais: órgãos e entidades públicos federais responsáveis pela regulação de setores específicos da atividade econômica e governamental;
  • Conselho de Cooperação Regulatória de Inteligência Artificial – CRIA, observado e limitado ao disposto na Seção III, do Capítulo IX desta Lei.

 

Além disso, determina que o Conselho terá como atribuição a produção de diretrizes e será fórum permanente de comunicação, inclusive por meio de acordos de cooperação técnica, com órgãos e entidades da administração pública responsáveis pela regulação de setores específicos da atividade econômica a fim de harmonizar e facilitar o exercício das atribuições da Autoridade Competente.

Exclui dos objetivos e fundamento do SAI a “colaboração descentralizada entre agência e órgãos reguladores federais, estaduais, distritais e municipais.”
Inclui entre os temas de normas vinculantes a seguem expedidos pela autoridade competente os “procedimentos para a comunicação de incidentes graves, notadamente quando afetarem direitos fundamentais.”

 Exclui entre os temas de normas vinculantes a seguem expedidos pela autoridade competente o “exercício dos direitos previstos nesta lei.”

Inclui dentre as competências da autoridade competente:

  • Promover e incentivar o disposto no Capítulo VI – Boas Práticas e Governança; e
  • Expedir orientações normativas gerais sobre certificados e acreditação de organismos de certificação com o objetivo de incentivar e assegurar melhores práticas de governança ao longo de todo o ciclo de vida de sistemas de inteligência artificial.

Atenciosamente


Christian Tadeu – Presidente da Federação Assespro

Josefina Gonzalez – Presidente da Assespro-PR

Veja também:

PL 2338/2023 – Inteligência Artificial | CTIA: Análise Novas Emendas

Comunicados do Presidente e Diretorias, Serviços
Foram apresentadas 6 novas emendas ao substitutivo do PL 2338/2023, no âmbito da Comissão Temporária Interna sobre Inteligência Artificial no Brasil.
Continue lendo

PLP 122/2022 – Preposto de MPEs para participação em audiências nos juizados especiais cíveis | CCJC: Apresentado Parecer + Pronto para Pauta

Comunicados do Presidente e Diretorias, Serviços
O deputado Ricardo Ayres (REP/TO) apresentou parecer favorável ao PLP 122/2022, na Comissão de Constituição e Justiça e de Cidadania.
Continue lendo
Back To Top