20 de Agosto de 2025

Como é que a nova lei europeia da IA afeta as empresas portuguesas? O que precisam de fazer antes de 2025?

Resumo executivo (para quem tem pressa)

A Lei Europeia da IA (Regulamento (UE) 2024/1689) está em vigor desde 1 de agosto de 2024. As primeiras obrigações começaram a aplicar-se a 2 de fevereiro de 2025 (proibições e literacia em IA). As regras para modelos de IA de propósito geral (GPAI) e governação nacional aplicam-se a partir de 2 de agosto de 2025. As exigências completas para sistemas de alto risco entram em vigor a 2 de agosto de 2026 e, para certos produtos com IA embutida, a 2 de agosto de 2027. As coimas podem chegar a 35 M€ ou 7% do volume de negócios mundial para violações graves. Em Portugal, o Governo tem de designar as autoridades competentes e definir o regime sancionatório; o tema está em avanço a nível europeu e nacional

Porque é que isto interessa já às empresas em Portugal?

A IA deixou de ser apenas um tema tecnológico: passou a ser uma questão regulatória com impacto operacional. Mesmo PME que “apenas” usam chatbots, scoring de clientes, automações internas ou ferramentas de geração de conteúdos podem cair no âmbito do regulamento. Três razões para agir já:

  1. Prazos escalonados mas próximos: há obrigações que já se aplicam desde 2 de fevereiro de 2025 (proibições e literacia em IA) e novas regras que começam a 2 de agosto de 2025 (GPAI e governação). A Comissão confirmou recentemente que não haverá adiamentos.
  2. Risco financeiro e reputacional: as coimas máximas podem chegar a 7% do volume de negócios global (ou 35 M€), e alguns Estados-Membros já estão a afinar sanções nacionais ligadas, por exemplo, à rotulagem de conteúdos gerados por IA (deepfakes).
  3. Vantagem competitiva: quem alinha cedo ganha confiança do mercado, acelera ciclos de venda B2B e reduz fricção contratual (due diligence de clientes pedirá evidências de conformidade). A própria Comissão publicou códigos de prática e orientações para GPAI que ajudam a demonstrar conformidade.

A lei, em poucas linhas (mas com datas)

Base jurídica: Regulamento (UE) 2024/1689, versão oficial PT disponível no EUR-Lex.

Quero implementar IA no meu negócio?

Entre em contato conosco e descubra como os agentes de IA podem otimizar suas operações.

Fale conosco

Quem está abrangido em Portugal?

  • Fornecedores de sistemas de IA (quem desenvolve, treina, comercializa ou coloca um sistema no mercado da UE).
  • Deployers (utilizadores empresariais) que implementam sistemas de IA (próprios ou de terceiros) no contexto profissional.
  • Distribuidores e importadores de sistemas de IA.
  • Provedores de modelos GPAI (p. ex., quem disponibiliza LLMs/fundações) – mesmo que fora da UE, se o modelo for colocado/serviço na UE

Em Portugal, além das regras europeias diretas (por ser um regulamento), o Estado tem de designar autoridades nacionais (supervisão) e aprovar sanções nacionais noutras áreas (ex.: literacia em IA). O processo está em avanço na UE e Estados-Membros; a Comissão publicou Q&A e confirmou os marcos temporais.

O que está proibido desde 2 de fevereiro de 2025

A Lei da IA proíbe usos considerados de risco inaceitável, incluindo (exemplos não exaustivos):

  • Sistemas de pontuação social por autoridades públicas.
  • Manipulação subliminar que cause danos.
  • Categorização biométrica por características sensíveis (p. ex., crenças, orientação sexual).
  • Identificação biométrica remota em tempo real em espaços públicos para aplicação da lei (com exceções muito limitadas).

Empresas portuguesas devem auditar fornecedores e contratos para garantir que não recorrem a funcionalidades proibidas (direta ou indiretamente). Países como a Espanha já anunciaram fortes sanções a deepfakes não rotulados, refletindo o enquadramento da UE.

Obrigações de literacia em IA (aplicáveis desde 2 de fevereiro de 2025)

Todas as organizações que fornecem ou utilizam IA devem “adotar medidas para assegurar um nível suficiente de literacia em IA” do pessoal que interage com estes sistemas. Isto significa formação adequada aos papéis, consciencialização de riscos, competências de supervisão humana e noções de proteção de dados. A Comissão publicou Q&A esclarecendo que a obrigação já se aplica, embora a fiscalização plena só arranque com o quadro de supervisão a partir de agosto de 2026.

Dica prática: documente o plano de formação, conteúdos, públicos-alvo e métricas. Vários analistas e centros de políticas sugerem boas práticas (sem criar burocracia excessiva).

Sistemas de alto risco (Annexo III): quando é que uma solução “normal” se torna regulada “a sério”?

A Lei classifica como alto risco diversos casos de uso (Annexo III), como:

  • Biometria (p. ex., identificação/“reconhecimento facial”, exceto usos proibidos).
  • Infraestruturas críticas (energia, água, transportes, digital).
  • Educação e formação (ex.: avaliação automática).
  • Emprego e gestão de trabalhadores (recrutamento, avaliação).
  • Serviços essenciais (crédito, seguros, saúde).
  • Aplicação da lei, migração/asilo, administração da justiça.

A doutrina especializada sublinha que, em certos cenários, o simples uso para perfis/profiling de pessoas num domínio do Annexo III pode bastar para a classificação como alto risco.


Exemplo prático em Portugal: uma fintech que utiliza modelos para concessão de crédito ao consumo, ou um retalhista que recorre a IA para triagem de currículos: ambos são candidatos fortes a “alto risco”, logo com obrigações acrescidas a partir de 2 de agosto de 2026.

O que exige a lei para alto risco (a partir de 2 de agosto de 2026)

Para fornecedores de sistemas de alto risco (Cap. III), os requisitos incluem, entre outros:

  • Sistema de gestão de risco (art. 9).
  • Governação de dados e qualidade (art. 10).
  • Documentação técnica detalhada e registo na base de dados da UE.
  • Registo de eventos (logging) e marcação CE.
  • Transparência e instruções de utilização (art. 13).
  • Supervisão humana (art. 14).
  • Exatidão, robustez e cibersegurança (art. 15).

Para deployers (utilizadores) de alto risco (art. 26), as obrigações passam por:

  • Cumprir estritamente as instruções do fornecedor e atribuir supervisão humana competente.
  • Garantir relevância dos dados de entrada e monitorizar o funcionamento.
  • Guardar logs (tipicamente ≥ 6 meses) e informar trabalhadores e pessoas afetadas quando decisões lhes digam respeito.
  • Cooperar com autoridades e interromper o uso perante riscos graves.

Interação com o RGPD: há pontos de contacto com o art. 22 do RGPD (decisões automatizadas) e princípios de minimização/licitude. Projetar supervisão humana não elimina automaticamente restrições à decisão totalmente automatizada; convém alinhar DPIA (Avaliação de Impacto) com o plano de gestão de risco do AI Act.

GPAI (Modelos de Propósito Geral) e “risco sistémico”: o que muda já em 2025

Desde 2 de agosto de 2025, os fornecedores de modelos GPAI (como LLMs e modelos multimodais de base) têm obrigações específicas, incluindo:

  • Documentação técnica do modelo e disponibilização de informação aos utilizadores “downstream”.
  • Política de direitos de autor (p. ex., forma de gerir conteúdos protegidos no treino).
  • Cooperação com o AI Office e, quando aplicável, com autoridades nacionais.
  • Para modelos com risco sistémico (capacidades muito avançadas), existem medidas reforçadas; a lei presume risco sistémico quando o treino excede 10^25 FLOPs de computação cumulativa (limiar presuntivo ajustável).

A Comissão lançou um Código de Prática GPAI (voluntário) com três capítulos (Transparência, Direitos de Autor e Segurança & Robustez) que facilita a demonstração de conformidade. Vários pareceres jurídicos destacam a utilidade do código para reduzir encargos e incerteza.

Transparência para sistemas de risco limitado: rótulos de conteúdo gerado por IA e chatbots

Mesmo fora do alto risco, há obrigações de transparência para certos sistemas (Cap. IV), incluindo:

  • Chatbots: informar claramente o utilizador de que interage com uma máquina.
  • Deepfakes / conteúdos gerados ou manipulados: rotular de forma “claray visível” que o conteúdo é artificial. As regras detalhadas (Art. 50) entram com o grosso do regime, mas alguns Estados estão a acelerar medidas nacionais (ex.: Espanha) em linha com o AI Act.

Sanções: quanto custa “não cumprir”

O AI Act prevê três patamares principais de coimas máximas, consoante a infração:

Há ajustes proporcionais para PME e startups.


Além disso, a aplicação nacional (regime sancionatório complementar, fiscalização setorial) pode criar riscos adicionais, por exemplo, no domínio de conteúdos artificiais ou em setores regulados (financeiro, saúde, energia).

Setores portugueses: impactos e exemplos práticos

Banca, seguros e fintech

  • Concessão de crédito, scoring e pricing com IA podem cair no Annexo III (alto risco), exigindo gestão de risco, qualidade de dados e explicabilidade.
  • Atenção à decisão automatizada (RGPD art. 22) e comunicação ao cliente quando decisões significativas envolverem IA.

Saúde e farmacêutico

  • Dispositivos médicos com IA e software clínico inserem-se muitas vezes no quadro de produto (Annexo II) + AI Act, com marcação CE e avaliação de conformidade.

Retalho e RH

  • Triagem de CVs e avaliação de desempenho com IA são domínios do Annexo III; deployers devem informar trabalhadores e monitorizar viés.

Energia, água e transportes

  • Infraestruturas críticas: se a IA for componente de segurança/gestão operacional, é alto risco. Convém articular o AI Act com requisitos de cibersegurança e resiliência. 

Setor público e justiça

  • Custos de conformidade e limitações claras (p. ex., identificação biométrica remota), com exceções específicas e controladas.

Passo-a-passo: roteiro de conformidade para empresas portuguesas

Objetivo: transformar um projeto nebuloso em evidências auditáveis de conformidade (que resistam a due diligence, auditorias e fiscalizações).

Mapeamento de casos de uso e inventário de IA

  • Liste todos os sistemas de IA em uso (internos e de terceiros), incluindo LLMs em low-code e integrações em SaaS.
  • Classifique por risco: proibido / limitado / alto risco / fora do escopo. Use checklists do AI Act Explorer e ferramentas de avaliação iniciais para orientar.

Avaliação de fornecedores e contratos

  • Exija documentação técnica e instruções de uso (para alto risco), responsabilidades de logging, marcação CE, registo em base de dados UE quando aplicável.
  • Claúsulas sobre dados de treino, direitos de autor, limitações de capacidade (GPAI) e atuações perante incidentes.

Literacia em IA (aplica-se já)

  • Defina um plano de formação por perfil (devs, data/ML, produto, jurídico, RH, marketing).
  • Documente conteúdos, datas, avaliação; alinhe com as necessidades de supervisão humana (art. 14).

Transparência e UX

  • Chatbots: sinalizar claramente “interage com um sistema de IA”.
  • Conteúdo gerado/manipulado: rótulo visível (deepfake disclosure). Prepare templates e “watermarks” (quando viável).

Gestão de risco e dados (alto risco)

  • Implante processos de risco (identificação, mitigação, testes antes/depois da entrada em produção).
  • Governação de dados: qualidade, representatividade e mitigação de enviesamentos; data lineage.
  • Logging e monitorização contínua; relatórios de incidentes conforme regras.

Supervisão humana e explicabilidade

  • Desenhe pontos de intervenção humana, limites de autonomia, e painéis que exponham sinais de confiança/alertas.
  • Forneça explicações compatíveis com o contexto (técnicas para equipas internas, compreensíveis para utilizadores).

Interação com RGPD e segurança

  • Alinhe DPIA com o plano de risco do AI Act; reavalie bases legais de tratamento e retenções.
  • Refine cibersegurança (robustez, adversarial testing) face ao art. 15.

Preparação para auditorias

  • Guarde evidências (registos, atas, resultados de testes, versões de modelos/datasets).
  • Mantenha “AI System File” por caso de uso (índice único para inspeções e due diligence).

O que esperar em 2025 em Portugal

  • Governação nacional: os Estados-Membros têm de designar autoridades competentes e acertar mecanismos de supervisão. O AI Office e a AI Board coordenam a nível europeu; a Comissão tem publicado guias e Q&A.
  • Diretrizes setoriais: esperar convergência com financeiro, saúde e produto, incluindo interação com RGPD (CNPD continuará a ter papel central em proteção de dados).
  • GPAI: o Código de Prática já está publicado; para empresas portuguesas que integram LLMs de terceiros, o foco é conhecer as limitações do modelo, rotular e mitigar riscos com base na documentação do fornecedor.


Nota: a Comissão reiterou em julho de 2025 que não haverá pausa no calendário legal, apesar de pedidos da indústria. Para empresas, isto significa planeamento imediato.

Perguntas frequentes das equipas de negócio (em português europeu, sem “juridiquês”)

“Uso um chatbot no site para leads. O que tenho de fazer?”

Sinalizar que é IA (banner ou texto imediato), preparar handover rápido para humano, registar interações essenciais, treinar a equipa (literacia). Se o bot não afeta direitos/serviços essenciais, é risco limitado (transparência) e não alto risco — mas confirme se não faz decisões significativas automatizadas.

“O nosso RH usa um filtro de CVs com IA.”

Provável alto risco (Annexo III). Exige gestão de risco, dados de qualidade, explicabilidade, informação aos candidatos quando decisões lhes digam respeito, supervisão humana e logging.

“Geramos imagens e vídeos para marketing com IA.”

Implemente rótulos claros (deepfake disclosure quando aplicável), guarde evidências de geração e direitos de autor. Monitorize desenvolvimentos nacionais sobre sanções.

“Treinamos um LLM interno com dados próprios.”

Se for GPAI, aplicam-se obrigações de documentação e copyright; riscos sistémicos têm medidas reforçadas (marco de 10^25 FLOPs como presunção). Se é específico (não GPAI), mapeie o caso de uso: pode ser alto risco dependendo do domínio.

Checklist de conformidade (orientativo)

  1. Nomear um/a responsável por IA (ou comité) com mandato claro.
  2. Inventariar todos os casos de uso de IA e classificá-los.
  3. Bloquear quaisquer funcionalidades potencialmente proibidas.
  4. Plano de literacia por perfil + registo de formação.
  5. Política de transparência (rótulos, avisos, chatbots, deepfakes).
  6. Para alto risco: Gestão de risco (art. 9) + dados (art. 10) + documentação técnica. Logging e monitorização contínua;marcação CE/Registo quando aplicável. Supervisão humana (art. 14) e explicabilidade adequada.
  7. Para GPAI: Documentação do modelo, fluxo de informação a downstream, política de copyright. Avaliar adesão ao Código de Prática GPAI (mesmo como integrador).

Armadilhas comuns (e como evitá-las)

  • “Shadow AI”: equipas a usar ferramentas sem aprovação. Implemente governança interna e catálogo de ferramentas aprovadas.
  • Transparência esquecida: chatbots sem aviso, conteúdos não rotulados. Crie normas de UX e componentes reutilizáveis.
  • Contratos fracos com fornecedores: sem garantias de qualidade de dados, segurança e suporte regulatório (p. ex., pacotes de conformidade para alto risco).
  • Falta de prova: fazer “o certo” sem evidências guardadas. Sem registos, não há conformidade auditável.
  • RGPD vs. IA: assumir que cumprir o RGPD chega. Não chega: o AI Act tem requisitos próprios (gestão de risco, robustez, CE, etc.).

O que as equipas técnicas devem preparar

  • Data governance: catálogos de dados, controle de versões de datasets, cartografia de enviesamentos e métricas de qualidade.
  • MLOps/AIOps: pipelines com gates de conformidade (pré-produção e pós-produção), monitorização de deriva, alertas.
  • Model cards e system cards adaptados ao AI Act (explicabilidade por público).
  • Segurança: testes de robustez (ataques adversariais), abuso e jailbreaks em LLMs, mitigação de alucinações para casos críticos.

Pergunta de um milhão: é caro? Como otimizar o esforço

Depende do risco e da maturidade atual. Boas notícias: muito do que o AI Act pede pode ser encaixado em práticas já conhecidas (p. ex., ISO 27001, ISO 9001, gestão de risco e ciclos DevOps). Aproveite ativos existentes (DPIA, matriz de riscos, runbooks) e adapte para cobrir lacunas específicas do AI Act (artigos 9–15, 26).

Linha temporal com marcos essenciais

  • 12.07.2024 – Publicação no Jornal Oficial.
  • 01.08.2024 – Entrada em vigor.
  • 02.02.2025 – Proibições + Literacia em IA aplicáveis.
  • 02.08.2025 – GPAI e governação aplicáveis; Código de Prática GPAI disponível.
  • 02.08.2026 – Alto risco (Annexo III) plenamente aplicável.
  • 02.08.2027 – Restantes obrigações, incluindo alguns produtos com IA embutida.

A Comissão confirmou em 2025 que mantém o calendário. Planeie em conformidade.

“Quem me pode bater à porta?” – Supervisão e fiscalização

  • AI Office (Comissão Europeia) coordena GPAI e a rede de autoridades; publicou o Código de Prática e FAQs.
  • Autoridades nacionais (a designar em cada Estado-Membro) supervisionarão mercados e deployers; setores regulados (financeiro, saúde, energia, telecom) manterão autoridades setoriais com competências próprias.
  • CNPD continuará a atuar em proteção de dados (RGPD), com áreas de interseção com IA.

Conclusão: É urgente estruturar a conformidade

Para a maioria das empresas portuguesas, há três tarefas incontornáveis:

  1. Treinar pessoas (literacia em IA) e rotular conteúdos quando devido;
  2. Rever fornecedores/contratos e documentar responsabilidades;
  3. Desenhar (ou afinar) o sistema de gestão de risco para casos de alto risco e preparar evidências.

O caminho não tem de ser pesado nem caro: com um inventário claro, processos leves mas rigorosos e automação de controlos, as equipas podem continuar a inovar com IA, e fazê-lo com segurança regulatória.

Fontes e leituras recomendadas

  • Texto oficial e cronograma: Regulamento (UE) 2024/1689 – EUR-Lex (PT/EN); cronograma e FAQs da Comissão.
  • Proibições e literacia (a vigor desde 02/2025): Q&A da Comissão sobre literacia; análises jurídicas (Latham & Watkins; Mayer Brown).
  • Alto risco – requisitos técnicos (arts. 9–15) e obrigações de deployers (art. 26): AI Act Explorer.
  • GPAI e risco sistémico: Código de Prática GPAI e FAQs; notas de escritórios internacionais (Skadden, Steptoe).
  • Transparência (chatbots/deepfakes): Art. 50 e análises setoriais (WilmerHale).
  • Exemplos nacionais e setoriais: Reguladores locais.

Este artigo foi redigido em português europeu com base em fontes oficiais e análises de referência. Para decisões jurídicas, consulte sempre o texto oficial do regulamento e assessoria legal especializada.

Pronto para ser o próximo case de sucesso com IA?

Agora é a sua vez.

O futuro dos negócios já é inteligente. E quem se antecipa colhe os maiores benefícios. Fale com nossos especialistas e descubra como aplicar agentes de IA de forma estratégica e segura na sua empresa.

Não espere. Transforme. Cresça com IA.

Telefone (83) 99830-6505