Está nas mãos da governadora de Nova York, Kathy Hochul, o projeto de lei que cria uma série de regras de transparência para desenvolvedores de inteligência artificial. O chamado RAISE Act (Responsible AI Safety and Education, em inglês) foi aprovado por senadores do estado americano na semana passada.
De maneira geral, as empresas terão de criar planos de segurança para proteção contra crimes automatizados, armas biológicas e outros danos e destruições generalizadas. A lei se aplica apenas às companhias que investiram mais de US$ 100 milhões em recursos computacionais para treinar modelos avançados de IA.
O projeto tem como base o Relatório Internacional de Segurança da IA — liderado por um painel de consultores especialistas — que alerta para “impactos em larga escala no mercado de trabalho, ataques de hackers ou biológicos com IA, e na perda de controle da sociedade sobre a IA de uso geral”. O texto foi elaborado pelo senador estadual Andrew Gounardes (Partido Democrata) e pelo deputado Alex Bores (Partido Democrata).
O que prevê a lei RAISE?
- Exige que as maiores empresas de IA publiquem protocolos de segurança e avaliações de risco. Esses protocolos abrangem riscos graves, como auxiliar na criação de armas biológicas ou realizar atividades criminosas automatizadas;
- Exige que as empresas divulguem incidentes graves, como quando um modelo de IA perigoso é roubado por um agente malicioso ou se comporta de maneira perigosa;
- Permite que o Procurador-Geral do Estado de Nova York aplique penalidades civis contra grandes empresas de IA que não cumpram esses padrões.
“É exatamente o tipo de salvaguarda razoável e sensata que esperaríamos de qualquer empresa que trabalhe com um produto potencialmente perigoso, e garante que ninguém tenha incentivo para economizar ou priorizar os lucros em detrimento da segurança”, afirmou o senador Gounardes.

Leia Mais:
- Por que IA superinteligente está longe de virar realidade, segundo a Apple
- IA mais humana? É o seu consumo que está ensinando isso às máquinas
- Regulação da IA já existe, mas não é democrática, diz especialista
Críticas ao projeto
O RAISE Act compartilha semelhanças com a lei de segurança de IA da Califórnia, SB 1047, que acabou sendo vetada sob o argumento de que pudesse inibir o desenvolvimento de startups ou de pesquisas acadêmicas, como lembra o site TechCrunch.
Para Gounardes, o novo projeto apenas estabelece padrões de segurança e relatórios de incidentes para os modelos de IA mais poderosos, garantindo que Nova York fique à frente das ameaças emergentes sem sufocar a inovação.

No X, o cofundador da Anthropic, laboratório de IA focado em segurança que defende uma regulamentação federal sobre o assunto, Jack Clark, afirmou que o RAISE é “pouco claro em algumas de suas principais definições, o que dificulta saber como cumprir”.
“A definição de ‘incidente de segurança’ é extremamente ampla/obscura e o prazo de resposta é muito curto (72 horas!). Isso pode gerar muitos relatórios desnecessários. Quaisquer propostas estaduais devem ser focadas estritamente na transparência e não excessivamente prescritivas. O ideal seria que houvesse uma regra única para o país”, escreveu.
O post Nova York aprova lei que previne “catástrofes” da IA; entenda apareceu primeiro em Olhar Digital.