O EU AI Act pode parecer um acordo fechado, mas a pressão dos EUA está mudando o jogo.
Pressão dos EUA sobre o EU AI Act
A Pressão dos EUA sobre o EU AI Act está se intensificando à medida que o processo de elaboração do código de práticas se aproxima do prazo final. Embora o EU AI Act pareça um acordo fechado, ainda há muito debate sobre as regras que regerão os modelos de inteligência artificial de uso geral (GPAI), especialmente aqueles que apresentam riscos sistêmicos.
Recentemente, o presidente dos EUA, Donald Trump, começou a pressionar os reguladores europeus para que abandonem o livro de regras proposto. A administração dos EUA e outros críticos argumentam que as novas regras sufocam a inovação e impõem encargos desnecessários, criando obrigações adicionais que vão além do que está estipulado no texto legal do AI Act.
A Missão dos EUA na UE contatou a Comissão Europeia e vários governos europeus para se opor à adoção do AI Act em sua forma atual. Thomas Randall, diretor de pesquisa de mercado em IA do Info-Tech Research Group, explicou que as novas obrigações, como testes de modelos por terceiros e divulgação completa dos dados de treinamento, seriam desafiadoras para implementar em larga escala.
Responsabilidade mudando do fornecedor para a empresa
De acordo com a Comissão Europeia, o código de práticas deve ser uma ferramenta central para que os provedores demonstrem conformidade com o AI Act, incorporando práticas de ponta. Embora o código seja voluntário, seu objetivo é ajudar os provedores a se prepararem para atender às regulamentações do AI Act em relação à transparência, direitos autorais e mitigação de riscos.
O prazo para a conclusão do código é o final de abril, com a versão final prevista para ser apresentada aos representantes da UE em maio e entrar em vigor em agosto, um ano após a entrada em vigor do AI Act. A não conformidade pode resultar em multas de até 7% da receita global, além de uma fiscalização mais rigorosa por parte dos reguladores.
Independentemente de como Bruxelas decidir lidar com o rascunho atual, a responsabilidade pela IA responsável está mudando das empresas fornecedoras para as organizações clientes que implementam a tecnologia. Randall aconselha que qualquer organização que opere na Europa deve ter seus próprios planos de risco em IA, incluindo verificações de impacto na privacidade e testes de segurança, para evitar danos contratuais, regulatórios e reputacionais.
Se Bruxelas decidir suavizar seu código de IA, isso não apenas daria um passe livre às empresas, mas também entregaria o controle da situação. Regras claras e bem definidas podem ajudar a estabelecer limites, enquanto a falta delas obrigaria cada empresa, desde startups até grandes corporações, a traçar seu próprio caminho em questões de privacidade, direitos autorais e segurança de modelos.
“Os CIOs precisam tratar os controles de IA responsável como infraestrutura central, e não como um projeto secundário”, disse Randall.
Um ambiente regulatório mais leve
Se outros países seguirem a abordagem da atual administração dos EUA em relação à legislação de IA, o resultado provavelmente será um ambiente regulatório mais leve, com menos supervisão federal. Bill Wong, pesquisador de IA do Info-Tech Research Group, destacou que, em janeiro, a administração dos EUA emitiu a Ordem Executiva 14179, que visa “remover barreiras à liderança americana em inteligência artificial”. Após isso, o Instituto Nacional de Padrões e Tecnologia (NIST) atualizou suas diretrizes para cientistas que trabalham com o Instituto de Segurança em Inteligência Artificial dos EUA (AISI), removendo referências a “segurança em IA”, “IA responsável” e “justiça em IA”, e enfatizando a redução de viés ideológico para permitir o florescimento humano e a competitividade econômica.
Wong afirmou que as diretrizes atualizadas parecem encorajar os parceiros a se alinharem com a postura desregulatória da ordem executiva.
Fonte: Computer World
Impacto nas empresas e na regulamentação
O Impacto nas empresas e na regulamentação é um tema crucial no contexto da nova legislação sobre inteligência artificial na União Europeia. O AI Act da UE está em fase de elaboração, e as partes interessadas estão trabalhando na criação de um código de prática que definirá regras para modelos de IA de uso geral, especialmente aqueles que apresentam riscos sistêmicos.
Recentemente, houve pressão do governo dos EUA, liderado pelo ex-presidente Donald Trump, para que os reguladores europeus abandonem esse código, alegando que ele inibe a inovação e impõe regras desnecessárias. Críticos afirmam que as obrigações adicionais, como testes de modelos por terceiros e a divulgação completa dos dados de treinamento, vão além do que o AI Act exige e seriam difíceis de implementar em larga escala.
O código de prática é voluntário, mas visa ajudar os provedores a se prepararem para atender às regulamentações do AI Act, que incluem transparência, direitos autorais e mitigação de riscos. Este código está sendo elaborado por um grupo diversificado que inclui provedores de modelos de IA, organizações da indústria, representantes da sociedade civil e acadêmicos, sob a supervisão do Escritório de IA da Europa.
A data limite para a conclusão do código é o final de abril, com a versão final a ser apresentada em maio e a entrar em vigor em agosto. A não conformidade pode resultar em multas de até 7% da receita global, além de um escrutínio mais rigoroso por parte dos reguladores.
Além disso, a responsabilidade pela IA responsável está mudando do fornecedor para as organizações que utilizam a tecnologia. As empresas que operam na Europa precisam desenvolver seus próprios planos de risco em IA, incluindo verificações de impacto na privacidade e registros de proveniência, para evitar danos contratuais, regulatórios e reputacionais.
Se a UE decidir suavizar o código de IA, isso não apenas daria um passe livre às empresas, mas também transferiria o controle sobre a regulamentação. Sem regras claras, cada empresa, desde startups até grandes corporações, terá que traçar seu próprio caminho em questões de privacidade, direitos autorais e segurança de modelos.
Por fim, se outros países seguirem a abordagem do governo dos EUA, poderemos ver um cenário regulatório mais leve, com menos supervisão federal. A nova orientação do Instituto Nacional de Padrões e Tecnologia dos EUA, que removeu referências a “segurança em IA” e “IA responsável”, enfatiza a redução de viés ideológico para promover a competitividade econômica.
Portanto, as empresas precisam tratar os controles de IA responsável como uma infraestrutura essencial, e não como um projeto secundário.
Fonte: Computer World