A União Europeia divulgou na quinta-feira o primeiro esboço de um código de conduta para modelos de inteligência artificial de uso geral (GPAI). O documento, que será finalizado em maio, estabelece diretrizes para gestão de riscos e oferece às empresas um modelo para cumprir e evitar pesadas multas. A Lei de IA da UE entrou em vigor em 1º de agosto, mas deixou espaço para definir as especificidades dos regulamentos do GPAI no futuro. Este esboço é a primeira tentativa de esclarecer o que se espera desses modelos mais avançados, dando às partes interessadas tempo para dar feedback e refiná-los antes de colocá-los em prática.
Os GPAIs são aqueles treinados com poder computacional total superior a 10²⁵ FLOPs. As empresas que deverão seguir as diretrizes da UE incluem OpenAI, Google, Meta, Anthropic e Mistral. No entanto, a lista pode crescer.
O documento aborda várias áreas importantes para os criadores de GPAI: transparência, conformidade com direitos autorais, avaliação e mitigação de riscos técnicos e de governança. Este esboço de 36 páginas cobre muito terreno e destaca-se em diversos pontos.
O código enfatiza a transparência no desenvolvimento de IA e exige que as empresas forneçam informações sobre os rastreadores da web usados para treinar seus modelos – uma preocupação central para proprietários e criadores de direitos autorais. A seção de avaliação de risco visa prevenir o crime cibernético, a discriminação generalizada e a perda de controle sobre a inteligência artificial.
Espera-se que os fornecedores de IA adotem um Quadro de Segurança e Proteção (SSF) para decompor suas políticas de gestão de riscos e mitigá-las proporcionalmente aos riscos sistêmicos. As regras também abrangem áreas técnicas como a proteção de dados de modelos, o fornecimento de controles de acesso seguros e a avaliação contínua de sua eficácia. A seção de governança está empenhada em garantir a responsabilização dentro das empresas, exigindo uma avaliação contínua dos riscos e envolvendo especialistas externos quando necessário.
Assim como em outras regulamentações da UE relacionadas à tecnologia, as empresas que violarem a lei de IA podem enfrentar pesadas multas, que podem chegar a 35 milhões de euros ou até 7% de seus lucros anuais globais, o que for maior.
As partes interessadas são convidadas a enviar comentários através da plataforma Futurium dedicada até 28 de novembro para ajudar a refinar o próximo esboço. As regras devem ser finalizadas até 1º de maio de 2025.
FONTE