UE publica primeiro projeto de diretrizes regulatórias para modelos de IA de uso geral

A União Europeia divulgou na quinta-feira o primeiro esboço de um código de conduta para modelos de inteligência artificial de uso geral (GPAI). O documento, que será finalizado em maio, estabelece diretrizes para gestão de riscos e oferece às empresas um modelo para cumprir e evitar pesadas multas. A Lei de IA da UE entrou em vigor em 1º de agosto, mas deixou espaço para definir as especificidades dos regulamentos do GPAI no futuro. Este esboço é a primeira tentativa de esclarecer o que se espera desses modelos mais avançados, dando às partes interessadas tempo para dar feedback e refiná-los antes de colocá-los em prática.

Os GPAIs são aqueles treinados com poder computacional total superior a 10²⁵ FLOPs. As empresas que deverão seguir as diretrizes da UE incluem OpenAI, Google, Meta, Anthropic e Mistral. No entanto, a lista pode crescer.

O documento aborda várias áreas importantes para os criadores de GPAI: transparência, conformidade com direitos autorais, avaliação e mitigação de riscos técnicos e de governança. Este esboço de 36 páginas cobre muito terreno e destaca-se em diversos pontos.

O código enfatiza a transparência no desenvolvimento de IA e exige que as empresas forneçam informações sobre os rastreadores da web usados para treinar seus modelos – uma preocupação central para proprietários e criadores de direitos autorais. A seção de avaliação de risco visa prevenir o crime cibernético, a discriminação generalizada e a perda de controle sobre a inteligência artificial.

Espera-se que os fornecedores de IA adotem um Quadro de Segurança e Proteção (SSF) para decompor suas políticas de gestão de riscos e mitigá-las proporcionalmente aos riscos sistêmicos. As regras também abrangem áreas técnicas como a proteção de dados de modelos, o fornecimento de controles de acesso seguros e a avaliação contínua de sua eficácia. A seção de governança está empenhada em garantir a responsabilização dentro das empresas, exigindo uma avaliação contínua dos riscos e envolvendo especialistas externos quando necessário.

Assim como em outras regulamentações da UE relacionadas à tecnologia, as empresas que violarem a lei de IA podem enfrentar pesadas multas, que podem chegar a 35 milhões de euros ou até 7% de seus lucros anuais globais, o que for maior.

As partes interessadas são convidadas a enviar comentários através da plataforma Futurium dedicada até 28 de novembro para ajudar a refinar o próximo esboço. As regras devem ser finalizadas até 1º de maio de 2025.

FONTE

Por Staff

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *