Blog
Lei de IA da UE: novo rascunho e regras para modelos de IA
- 11 de Março, 2025
- Publicado por: Natxos
- Categoria: Tecnologia & Inovação

Antes de um prazo de maio para bloquear a orientação para os provedores de modelos de propósito universal AI (GPAI) sobre o cumprimento das disposições do Ato da UE AI que se aplicam à grande IA, um Terceiro rascunho do Código de Prática foi publicado na terça -feira. O código está em formulação desde ano passadoe esse rascunho deve ser a última rodada de revisão antes que as diretrizes sejam finalizadas nos próximos meses.
UM site também foi lançado com o objetivo de aumentar a acessibilidade do código. O feedback por escrito sobre o rascunho mais recente deve ser enviado até 30 de março de 2025.
O livro de regras fundamentado em risco do conjunto para IA inclui um subconjunto de obrigações que se aplicam somente aos fabricantes de modelos de IA mais poderosos-cobrindo áreas porquê transparência, direitos autorais e mitigação de riscos. O código tem porquê objetivo ajudar os fabricantes de modelos GPAI a entender porquê executar as obrigações legais e evitar o risco de sanções para não conformidade. A IA Act Penalies por violações dos requisitos da GPAI, especificamente, poderia atingir até 3% do faturamento anual global.
Simplificado
A revisão mais recente do código é cobrada porquê tendo “uma estrutura mais simplificada com compromissos e medidas refinados” em verificação com as iterações anteriores, com base no feedback no segundo rascunho publicado em dezembro.
Feedback suplementar, discussões e workshops do grupo de trabalho alimentarão o processo de transformar o terceiro rascunho em orientação final. E os especialistas dizem que esperam perceber a maior “nitidez e conformidade” na versão final adotada do código.
O rascunho é dividido em um punhado de seções que cobrem compromissos de GPAIs, juntamente com orientações detalhadas para medidas de transparência e direitos autorais. Há também uma seção sobre obrigações de segurança que se aplicam aos modelos mais poderosos (com o chamado risco sistêmico, ou GPaisr).
Na transparência, a orientação inclui um exemplo de um formulário de documentação de padrão GPAIs, pode -se preencher para prometer que os implantadores a jusante de sua tecnologia tenham aproximação a informações importantes para ajudar com sua própria conformidade.
Em outros lugares, a seção de direitos autorais provavelmente continua sendo a superfície mais imediatamente controversa para a grande IA.
O rascunho atual está repleto de termos porquê “melhores esforços”, “medidas razoáveis” e “medidas apropriadas” quando se trata de executar compromissos, porquê respeitar os requisitos de direitos ao rastejar a Web para comprar dados para treinamento de modelos ou mitigando o risco de modelos que produzem saídas infratores de direitos autorais.
O uso dessa linguagem mediada sugere que os gigantes da mineração de dados podem sentir que têm muito espaço de manobra para continuar a captar informações protegidas para treinar seus modelos e Peça perdão mais tarde – Mas resta saber se o linguagem é endurecido no rascunho final do código.
O linguagem usado em uma iteração anterior do código – dizendo que os GPAIs devem fornecer um único ponto de contato e manuseio de reclamações para facilitar os apostadores de relevos para remeter queixas “direta e rapidamente” – parece ter perdido. Agora, há somente uma risco afirmando: “Os signatários designarão um ponto de contato para informação com os diretores afetados e fornecerão informações facilmente acessíveis sobre isso.”
O texto atual também sugere que os GPAIs podem se recusar a agir de negócio com as queixas de direitos autorais dos diretores, se eles “manifestamente infundados ou excessivos, em pessoal por pretexto de seu caráter repetitivo”. Ele sugere que as tentativas de criativos giram as escalas, usando ferramentas de IA para tentar detectar problemas de direitos autorais e automatizar reclamações de arquivamento contra a IA grande pode resultar em elas … simplesmente sendo ignoradas.
Quando se trata de segurança, os requisitos da Lei da AI da UE para julgar e mitigar riscos sistêmicos já se aplicam somente a um subconjunto dos modelos mais poderosos (aqueles treinados usando Um poder de computação totalidade de mais de 10^25 flops) – mas nascente rascunho mais recente vê algumas medidas recomendadas anteriormente sendo reduzidas em resposta ao feedback.
Pressão dos EUA
Não mencionado na UE Comunicado de imprensa Sobre o último rascunho estão ataques empolgantes à legislação européia em universal, e os do conjunto regras para ai especificamentesaindo do governo dos EUA liderado pelo presidente Donald Trump.
Na cúpula de ação de Paris ai mês passadoO vice -presidente dos EUA, JD Vance, rejeitou a urgência de regular para prometer que a IA seja a segurança aplicada – o governo de Trump estaria se inclinando para a “oportunidade da IA”. E ele alertou a Europa que a regulação excessiva poderia matar o ganso de ouro.
Desde portanto, o conjunto se mudou para matar uma iniciativa de segurança da IA - colocando o Diretiva de responsabilidade da IA no bloco de corte. Os legisladores da UE também seguiram um pacote de “omnibus” de reformas simplificadoras para as regras existentes que eles dizem ter porquê objetivo reduzir a burocracia e a burocracia para os negócios, com foco em áreas porquê relatórios de sustentabilidade. Mas com a Lei da IA ainda em processo de implementação, há claramente a pressão sendo aplicada para diluir os requisitos.
Na Mobile World Congress Show de Congresso em Barcelona no início deste mêsObreiro de modelos franceses GPAI Mistral – um oponente particularmente alto da Lei da UE AI Durante as negociações para concluir a legislação em 2023 – com o fundador Arthur Mensh alegou que está tendo dificuldades em encontrar soluções tecnológicas para executar algumas das regras. Ele acrescentou que a empresa está “trabalhando com os reguladores para prometer que isso seja resolvido”.
Enquanto esse código GPAI está sendo elaborado por especialistas independentes, a Percentagem Europeia – através do escritório da IA que supervisiona a realização e outras atividades relacionadas à lei – é, paralelamente, produzindo algumas orientações de “explicação” que também moldarão porquê a lei se aplica. Incluindo definições para GPais e suas responsabilidades.
Portanto, procure mais orientações, “no devido tempo”, do escritório da IA-que a Percentagem diz que “esclarecerá … o escopo das regras”-pois isso poderia oferecer um caminho para os legisladores que perderão nervosos respondem ao lobby dos EUA para desregulamentar a IA.
(Tagstotranslate) Código de prática GPAI (T) Código GPAI da Lei AI (T) Regras da UE AI para GPAIs
Leia Tambem: Nova ferramenta de IA da Adobe edita imagem instantaneamente
Deixe um comentário Cancelar resposta
Tem de iniciar a sessão para publicar um comentário.