Um projeto de lei que cria uma série de regras de transparência para desenvolvedores de inteligência artificial foi aprovado, na semana passada, por senadores norte-americanos.
Chamado RAISE Act (Responsible AI Safety and Education, em inglês), o projeto está agora nas mãos da governadora de Nova York, Kathy Hochul. As informações são do Olhar Digital.
De acordo com o texto, as empresas terão de criar planos de segurança para proteção contra crimes automatizados, armas biológicas e outros danos e destruições generalizadas.
A nova regra vale apenas para companhias que investiram mais de US$ 100 milhões em recursos computacionais para treinar modelos avançados de IA.
Com base o Relatório Internacional de Segurança da IA, o projeto alerta para “impactos em larga escala no mercado de trabalho, ataques de hackers ou biológicos com IA, e na perda de controle da sociedade sobre a IA de uso geral”.
O que diz a lei:
- Maiores empresas de IA devem publicar protocolos de segurança e avaliações de risco. Esses protocolos abrangem riscos graves, como auxiliar na criação de armas biológicas ou realizar atividades criminosas automatizadas;
- As empresas devem divulgar incidentes graves, como quando um modelo de IA perigoso é roubado por um agente malicioso ou se comporta de maneira perigosa;
- Permite que o Procurador-Geral do Estado de Nova York aplique penalidades civis contra grandes empresas de IA que não cumpram esses padrões.