18 de Agosto de 2025

Como é que a nova lei europeia da IA afeta as empresas portuguesas? O que precisam de fazer antes de 2025?

Resumo executivo (para quem tem pressa)

A Lei Europeia da IA (Regulamento (UE) 2024/1689) está em vigor desde 1 de agosto de 2024. As primeiras obrigações começaram a aplicar-se a 2 de fevereiro de 2025 (proibições e literacia em IA). As regras para modelos de IA de propósito geral (GPAI) e governação nacional aplicam-se a partir de 2 de agosto de 2025. As exigências completas para sistemas de alto risco entram em vigor a 2 de agosto de 2026 e, para certos produtos com IA embutida, a 2 de agosto de 2027. As coimas podem chegar a 35 M€ ou 7% do volume de negócios mundial para violações graves. Em Portugal, o Governo tem de designar as autoridades competentes e definir o regime sancionatório; o tema está em avanço a nível europeu e nacional

Porque é que isto interessa já às empresas em Portugal?

A IA deixou de ser apenas um tema tecnológico: passou a ser uma questão regulatória com impacto operacional. Mesmo PME que “apenas” usam chatbots, scoring de clientes, automações internas ou ferramentas de geração de conteúdos podem cair no âmbito do regulamento. Três razões para agir já:

  1. Prazos escalonados mas próximos – há obrigações que já se aplicam desde 2 de fevereiro de 2025 (proibições e literacia em IA) e novas regras que começam a 2 de agosto de 2025 (GPAI e governação). A Comissão confirmou recentemente que não haverá adiamentos.
  2. Risco financeiro e reputacional – as coimas máximas podem chegar a 7% do volume de negócios global (ou 35 M€), e alguns Estados-Membros já estão a afinar sanções nacionais ligadas, por exemplo, à rotulagem de conteúdos gerados por IA (deepfakes).
  3. Vantagem competitiva – quem alinha cedo ganha confiança do mercado, acelera ciclos de venda B2B e reduz fricção contratual (due diligence de clientes pedirá evidências de conformidade). A própria Comissão publicou códigos de prática e orientações para GPAI que ajudam a demonstrar conformidade.

A lei, em poucas linhas (mas com datas)

  • Publicação e entrada em vigor: a Lei da IA foi publicada no Jornal Oficial a 12 de julho de 2024 e entrou em vigor a 1 de agosto de 2024.
  • 2 de fevereiro de 2025: começam a aplicar-se as proibições de práticas inaceitáveis e a obrigação transversal de literacia em IA para fornecedores e utilizadores (deployers).
  • 2 de agosto de 2025: entram em aplicação as regras para modelos de IA de propósito geral (GPAI) e os pilares de governação (autoridades nacionais, AI Office, etc.). A Comissão publicou o Código de Prática GPAI (voluntário, mas útil para demonstrar conformidade).
  • 2 de agosto de 2026: passam a aplicar-se as obrigações para sistemas de alto risco (Annexo III), com requisitos técnicos, documentação, gestão de risco, conformidade e marcação CE.
  • 2 de agosto de 2027: aplica-se o remanescente, incluindo produtos com IA embutida abrangidos por legislação de produto (Annexo II).
  • Base jurídica: Regulamento (UE) 2024/1689, versão oficial PT disponível no EUR-Lex.

Quero implementar IA no meu negócio?

Entre em contato conosco e descubra como os agentes de IA podem otimizar suas operações.

Fale conosco

Quem está abrangido em Portugal?

  • Fornecedores de sistemas de IA (quem desenvolve, treina, comercializa ou coloca um sistema no mercado da UE).
  • Deployers (utilizadores empresariais) que implementam sistemas de IA (próprios ou de terceiros) no contexto profissional.
  • Distribuidores e importadores de sistemas de IA.
  • Provedores de modelos GPAI (p. ex., quem disponibiliza LLMs/fundações) – mesmo que fora da UE, se o modelo for colocado/serviço na UE

Em Portugal, além das regras europeias diretas (por ser um regulamento), o Estado tem de designar autoridades nacionais (supervisão) e aprovar sanções nacionais noutras áreas (ex.: literacia em IA). O processo está em avanço na UE e Estados-Membros; a Comissão publicou Q&A e confirmou os marcos temporais.

O que está proibido desde 2 de fevereiro de 2025

A Lei da IA proíbe usos considerados de risco inaceitável, incluindo (exemplos não exaustivos):

  • Sistemas de pontuação social por autoridades públicas. 
  • Manipulação subliminar que cause danos.
  • Categorização biométrica por características sensíveis (p. ex., crenças, orientação sexual).
  • Identificação biométrica remota em tempo real em espaços públicos para aplicação da lei (com exceções muito limitadas).

Empresas portuguesas devem auditar fornecedores e contratos para garantir que não recorrem a funcionalidades proibidas (direta ou indiretamente). Países como a Espanha já anunciaram fortes sanções a deepfakes não rotulados, refletindo o enquadramento da UE.

Obrigações de literacia em IA (aplicáveis desde 2 de fevereiro de 2025)

Todas as organizações que fornecem ou utilizam IA devem “adotar medidas para assegurar um nível suficiente de literacia em IA” do pessoal que interage com estes sistemas. Isto significa formação adequada aos papéis, consciencialização de riscos, competências de supervisão humana e noções de proteção de dados. A Comissão publicou Q&A esclarecendo que a obrigação já se aplica, embora a fiscalização plena só arranque com o quadro de supervisão a partir de agosto de 2026.

Dica prática: documente o plano de formação, conteúdos, públicos-alvo e métricas. Vários analistas e centros de políticas sugerem boas práticas (sem criar burocracia excessiva).

Sistemas de alto risco (Annexo III): quando é que uma solução “normal” se torna regulada “a sério”?

A Lei classifica como alto risco diversos casos de uso (Annexo III), como:

  • Biometria (p. ex., identificação/“reconhecimento facial”, exceto usos proibidos).
  • Infraestruturas críticas (energia, água, transportes, digital).
  • Educação e formação (ex.: avaliação automática).
  • Emprego e gestão de trabalhadores (recrutamento, avaliação).
  • Serviços essenciais (crédito, seguros, saúde).
  • Aplicação da lei, migração/asilo, administração da justiça.

A doutrina especializada sublinha que, em certos cenários, o simples uso para perfis/profiling de pessoas num domínio do Annexo III pode bastar para a classificação como alto risco.


Exemplo prático em Portugal: uma fintech que utiliza modelos para concessão de crédito ao consumo, ou um retalhista que recorre a IA para triagem de currículos – ambos são candidatos fortes a “alto risco”, logo com obrigações acrescidas a partir de 2 de agosto de 2026.

O que exige a lei para alto risco (a partir de 2 de agosto de 2026)

Para fornecedores de sistemas de alto risco (Cap. III), os requisitos incluem, entre outros:

  • Sistema de gestão de risco (art. 9).
  • Governação de dados e qualidade (art. 10).
  • Documentação técnica detalhada e registo na base de dados da UE.
  • Registo de eventos (logging) e marcação CE.
  • Transparência e instruções de utilização (art. 13).
  • Supervisão humana (art. 14).
  • Exatidão, robustez e cibersegurança (art. 15).

Para deployers (utilizadores) de alto risco (art. 26), as obrigações passam por:

  • Cumprir estritamente as instruções do fornecedor e atribuir supervisão humana competente.
  • Garantir relevância dos dados de entrada e monitorizar o funcionamento.
  • Guardar logs (tipicamente ≥ 6 meses) e informar trabalhadores e pessoas afetadas quando decisões lhes digam respeito.
  • Cooperar com autoridades e interromper o uso perante riscos graves.

Interação com o RGPD: há pontos de contacto com o art. 22 do RGPD (decisões automatizadas) e princípios de minimização/licitude. Projetar supervisão humana não elimina automaticamente restrições à decisão totalmente automatizada; convém alinhar DPIA (Avaliação de Impacto) com o plano de gestão de risco do AI Act.

GPAI (Modelos de Propósito Geral) e “risco sistémico”: o que muda já em 2025

Desde 2 de agosto de 2025, os fornecedores de modelos GPAI (como LLMs e modelos multimodais de base) têm obrigações específicas, incluindo:

  • Documentação técnica do modelo e disponibilização de informação aos utilizadores “downstream”.
  • Política de direitos de autor (p. ex., forma de gerir conteúdos protegidos no treino).
  • Cooperação com o AI Office e, quando aplicável, com autoridades nacionais.
  • Para modelos com risco sistémico (capacidades muito avançadas), existem medidas reforçadas; a lei presume risco sistémico quando o treino excede 10^25 FLOPs de computação cumulativa (limiar presuntivo ajustável).

A Comissão lançou um Código de Prática GPAI (voluntário) com três capítulos – Transparência, Direitos de Autor e Segurança & Robustez – que facilita a demonstração de conformidade. Vários pareceres jurídicos destacam a utilidade do código para reduzir encargos e incerteza.

Transparência para sistemas de risco limitado: rótulos de conteúdo gerado por IA e chatbots

Mesmo fora do alto risco, há obrigações de transparência para certos sistemas (Cap. IV), incluindo:

  • Chatbots: informar claramente o utilizador de que interage com uma máquina.
  • Deepfakes / conteúdos gerados ou manipulados: rotular de forma “claray visível” que o conteúdo é artificial. As regras detalhadas (Art. 50) entram com o grosso do regime, mas alguns Estados estão a acelerar medidas nacionais (ex.: Espanha) em linha com o AI Act.

Sanções: quanto custa “não cumprir”

O AI Act prevê três patamares principais de coimas máximas, consoante a infração:

  • Violação de práticas proibidas: até 35 M€ ou 7% do volume de negócios mundial.
  • Outras violações (ex.: requisitos de alto risco): até 15 M€ ou 3%.
  • Informações incorretas fornecidas às autoridades: até 7,5 M€ ou 1%.
Há ajustes proporcionais para PME e startups.


Além disso, a aplicação nacional (regime sancionatório complementar, fiscalização setorial) pode criar riscos adicionais – por exemplo, no domínio de conteúdos artificiais ou em setores regulados (financeiro, saúde, energia).

Setores portugueses: impactos e exemplos práticos

Banca, seguros e fintech

  • Concessão de crédito, scoring e pricing com IA podem cair no Annexo III (alto risco), exigindo gestão de risco, qualidade de dados e explicabilidade.
  • Atenção à decisão automatizada (RGPD art. 22) e comunicação ao cliente quando decisões significativas envolverem IA.

Saúde e farmacêutico

  • Dispositivos médicos com IA e software clínico inserem-se muitas vezes no quadro de produto (Annexo II) + AI Act, com marcação CE e avaliação de conformidade.

Retalho e RH

  • Triagem de CVs e avaliação de desempenho com IA são domínios do Annexo III; deployers devem informar trabalhadores e monitorizar viés.

Energia, água e transportes

  • Infraestruturas críticas: se a IA for componente de segurança/gestão operacional, é alto risco. Convém articular o AI Act com requisitos de cibersegurança e resiliência. 

Setor público e justiça

  • Custos de conformidade e limitações claras (p. ex., identificação biométrica remota), com exceções específicas e controladas.

Setores portugueses: impactos e exemplos práticos

Pronto para ser o próximo case de sucesso com IA?

Agora é a sua vez.

O futuro dos negócios já é inteligente. E quem se antecipa colhe os maiores benefícios. Fale com nossos especialistas e descubra como aplicar agentes de IA de forma estratégica e segura na sua empresa.

Não espere. Transforme. Cresça com IA.

Telefone (83) 99830-6505