20 de Agosto de 2025
Como é que a nova lei europeia da IA afeta as empresas portuguesas? O que precisam de fazer antes de 2025?

Resumo executivo (para quem tem pressa)
Porque é que isto interessa já às empresas em Portugal?
- Prazos escalonados mas próximos: há obrigações que já se aplicam desde 2 de fevereiro de 2025 (proibições e literacia em IA) e novas regras que começam a 2 de agosto de 2025 (GPAI e governação). A Comissão confirmou recentemente que não haverá adiamentos.
- Risco financeiro e reputacional: as coimas máximas podem chegar a 7% do volume de negócios global (ou 35 M€), e alguns Estados-Membros já estão a afinar sanções nacionais ligadas, por exemplo, à rotulagem de conteúdos gerados por IA (deepfakes).
- Vantagem competitiva: quem alinha cedo ganha confiança do mercado, acelera ciclos de venda B2B e reduz fricção contratual (due diligence de clientes pedirá evidências de conformidade). A própria Comissão publicou códigos de prática e orientações para GPAI que ajudam a demonstrar conformidade.
A lei, em poucas linhas (mas com datas)
- Publicação e entrada em vigor: a Lei da IA foi publicada no Jornal Oficial a 12 de julho de 2024 e entrou em vigor a 1 de agosto de 2024.
- 2 de fevereiro de 2025: começam a aplicar-se as proibições de práticas inaceitáveis e a obrigação transversal de literacia em IA para fornecedores e utilizadores (deployers).
- 2 de agosto de 2025: entram em aplicação as regras para modelos de IA de propósito geral (GPAI) e os pilares de governação (autoridades nacionais, AI Office, etc.). A Comissão publicou o Código de Prática GPAI (voluntário, mas útil para demonstrar conformidade).
- 2 de agosto de 2026: passam a aplicar-se as obrigações para sistemas de alto risco (Annexo III), com requisitos técnicos, documentação, gestão de risco, conformidade e marcação CE.
- 2 de agosto de 2027: aplica-se o remanescente, incluindo produtos com IA embutida abrangidos por legislação de produto (Annexo II).
Quem está abrangido em Portugal?
- Fornecedores de sistemas de IA (quem desenvolve, treina, comercializa ou coloca um sistema no mercado da UE).
- Deployers (utilizadores empresariais) que implementam sistemas de IA (próprios ou de terceiros) no contexto profissional.
- Distribuidores e importadores de sistemas de IA.
- Provedores de modelos GPAI (p. ex., quem disponibiliza LLMs/fundações) – mesmo que fora da UE, se o modelo for colocado/serviço na UE
O que está proibido desde 2 de fevereiro de 2025
A Lei da IA proíbe usos considerados de risco inaceitável, incluindo (exemplos não exaustivos):
- Sistemas de pontuação social por autoridades públicas.
- Manipulação subliminar que cause danos.
- Categorização biométrica por características sensíveis (p. ex., crenças, orientação sexual).
- Identificação biométrica remota em tempo real em espaços públicos para aplicação da lei (com exceções muito limitadas).
Empresas portuguesas devem auditar fornecedores e contratos para garantir que não recorrem a funcionalidades proibidas (direta ou indiretamente). Países como a Espanha já anunciaram fortes sanções a deepfakes não rotulados, refletindo o enquadramento da UE.
Obrigações de literacia em IA (aplicáveis desde 2 de fevereiro de 2025)
Todas as organizações que fornecem ou utilizam IA devem “adotar medidas para assegurar um nível suficiente de literacia em IA” do pessoal que interage com estes sistemas. Isto significa formação adequada aos papéis, consciencialização de riscos, competências de supervisão humana e noções de proteção de dados. A Comissão publicou Q&A esclarecendo que a obrigação já se aplica, embora a fiscalização plena só arranque com o quadro de supervisão a partir de agosto de 2026.
Dica prática: documente o plano de formação, conteúdos, públicos-alvo e métricas. Vários analistas e centros de políticas sugerem boas práticas (sem criar burocracia excessiva).
Sistemas de alto risco (Annexo III): quando é que uma solução “normal” se torna regulada “a sério”?
A Lei classifica como alto risco diversos casos de uso (Annexo III), como:
- Biometria (p. ex., identificação/“reconhecimento facial”, exceto usos proibidos).
- Infraestruturas críticas (energia, água, transportes, digital).
- Educação e formação (ex.: avaliação automática).
- Emprego e gestão de trabalhadores (recrutamento, avaliação).
- Serviços essenciais (crédito, seguros, saúde).
- Aplicação da lei, migração/asilo, administração da justiça.
A doutrina especializada sublinha que, em certos cenários, o simples uso para perfis/profiling de pessoas num domínio do Annexo III pode bastar para a classificação como alto risco.
Exemplo prático em Portugal: uma fintech que utiliza modelos para concessão de crédito ao consumo, ou um retalhista que recorre a IA para triagem de currículos: ambos são candidatos fortes a “alto risco”, logo com obrigações acrescidas a partir de 2 de agosto de 2026.
O que exige a lei para alto risco (a partir de 2 de agosto de 2026)
Para fornecedores de sistemas de alto risco (Cap. III), os requisitos incluem, entre outros:
- Sistema de gestão de risco (art. 9).
- Governação de dados e qualidade (art. 10).
- Documentação técnica detalhada e registo na base de dados da UE.
- Registo de eventos (logging) e marcação CE.
- Transparência e instruções de utilização (art. 13).
- Supervisão humana (art. 14).
- Exatidão, robustez e cibersegurança (art. 15).
Para deployers (utilizadores) de alto risco (art. 26), as obrigações passam por:
- Cumprir estritamente as instruções do fornecedor e atribuir supervisão humana competente.
- Garantir relevância dos dados de entrada e monitorizar o funcionamento.
- Guardar logs (tipicamente ≥ 6 meses) e informar trabalhadores e pessoas afetadas quando decisões lhes digam respeito.
- Cooperar com autoridades e interromper o uso perante riscos graves.
Interação com o RGPD: há pontos de contacto com o art. 22 do RGPD (decisões automatizadas) e princípios de minimização/licitude. Projetar supervisão humana não elimina automaticamente restrições à decisão totalmente automatizada; convém alinhar DPIA (Avaliação de Impacto) com o plano de gestão de risco do AI Act.
GPAI (Modelos de Propósito Geral) e “risco sistémico”: o que muda já em 2025
Desde 2 de agosto de 2025, os fornecedores de modelos GPAI (como LLMs e modelos multimodais de base) têm obrigações específicas, incluindo:
- Documentação técnica do modelo e disponibilização de informação aos utilizadores “downstream”.
- Política de direitos de autor (p. ex., forma de gerir conteúdos protegidos no treino).
- Cooperação com o AI Office e, quando aplicável, com autoridades nacionais.
- Para modelos com risco sistémico (capacidades muito avançadas), existem medidas reforçadas; a lei presume risco sistémico quando o treino excede 10^25 FLOPs de computação cumulativa (limiar presuntivo ajustável).
A Comissão lançou um Código de Prática GPAI (voluntário) com três capítulos (Transparência, Direitos de Autor e Segurança & Robustez) que facilita a demonstração de conformidade. Vários pareceres jurídicos destacam a utilidade do código para reduzir encargos e incerteza.
Transparência para sistemas de risco limitado: rótulos de conteúdo gerado por IA e chatbots
Mesmo fora do alto risco, há obrigações de transparência para certos sistemas (Cap. IV), incluindo:
- Chatbots: informar claramente o utilizador de que interage com uma máquina.
- Deepfakes / conteúdos gerados ou manipulados: rotular de forma “claray visível” que o conteúdo é artificial. As regras detalhadas (Art. 50) entram com o grosso do regime, mas alguns Estados estão a acelerar medidas nacionais (ex.: Espanha) em linha com o AI Act.
Sanções: quanto custa “não cumprir”
O AI Act prevê três patamares principais de coimas máximas, consoante a infração:
- Violação de práticas proibidas: até 35 M€ ou 7% do volume de negócios mundial.
- Outras violações (ex.: requisitos de alto risco): até 15 M€ ou 3%.
- Informações incorretas fornecidas às autoridades: até 7,5 M€ ou 1%.
Além disso, a aplicação nacional (regime sancionatório complementar, fiscalização setorial) pode criar riscos adicionais, por exemplo, no domínio de conteúdos artificiais ou em setores regulados (financeiro, saúde, energia).
Setores portugueses: impactos e exemplos práticos
Banca, seguros e fintech
- Concessão de crédito, scoring e pricing com IA podem cair no Annexo III (alto risco), exigindo gestão de risco, qualidade de dados e explicabilidade.
- Atenção à decisão automatizada (RGPD art. 22) e comunicação ao cliente quando decisões significativas envolverem IA.
Saúde e farmacêutico
- Dispositivos médicos com IA e software clínico inserem-se muitas vezes no quadro de produto (Annexo II) + AI Act, com marcação CE e avaliação de conformidade.
Retalho e RH
- Triagem de CVs e avaliação de desempenho com IA são domínios do Annexo III; deployers devem informar trabalhadores e monitorizar viés.
Energia, água e transportes
- Infraestruturas críticas: se a IA for componente de segurança/gestão operacional, é alto risco. Convém articular o AI Act com requisitos de cibersegurança e resiliência.
Setor público e justiça
- Custos de conformidade e limitações claras (p. ex., identificação biométrica remota), com exceções específicas e controladas.
Passo-a-passo: roteiro de conformidade para empresas portuguesas
Objetivo: transformar um projeto nebuloso em evidências auditáveis de conformidade (que resistam a due diligence, auditorias e fiscalizações).
Mapeamento de casos de uso e inventário de IA
- Liste todos os sistemas de IA em uso (internos e de terceiros), incluindo LLMs em low-code e integrações em SaaS.
- Classifique por risco: proibido / limitado / alto risco / fora do escopo. Use checklists do AI Act Explorer e ferramentas de avaliação iniciais para orientar.
Avaliação de fornecedores e contratos
- Exija documentação técnica e instruções de uso (para alto risco), responsabilidades de logging, marcação CE, registo em base de dados UE quando aplicável.
- Claúsulas sobre dados de treino, direitos de autor, limitações de capacidade (GPAI) e atuações perante incidentes.
Literacia em IA (aplica-se já)
- Defina um plano de formação por perfil (devs, data/ML, produto, jurídico, RH, marketing).
- Documente conteúdos, datas, avaliação; alinhe com as necessidades de supervisão humana (art. 14).
Transparência e UX
- Chatbots: sinalizar claramente “interage com um sistema de IA”.
- Conteúdo gerado/manipulado: rótulo visível (deepfake disclosure). Prepare templates e “watermarks” (quando viável).
Gestão de risco e dados (alto risco)
- Implante processos de risco (identificação, mitigação, testes antes/depois da entrada em produção).
- Governação de dados: qualidade, representatividade e mitigação de enviesamentos; data lineage.
- Logging e monitorização contínua; relatórios de incidentes conforme regras.
Supervisão humana e explicabilidade
- Desenhe pontos de intervenção humana, limites de autonomia, e painéis que exponham sinais de confiança/alertas.
- Forneça explicações compatíveis com o contexto (técnicas para equipas internas, compreensíveis para utilizadores).
Interação com RGPD e segurança
- Alinhe DPIA com o plano de risco do AI Act; reavalie bases legais de tratamento e retenções.
- Refine cibersegurança (robustez, adversarial testing) face ao art. 15.
Preparação para auditorias
- Guarde evidências (registos, atas, resultados de testes, versões de modelos/datasets).
- Mantenha “AI System File” por caso de uso (índice único para inspeções e due diligence).
O que esperar em 2025 em Portugal
- Governação nacional: os Estados-Membros têm de designar autoridades competentes e acertar mecanismos de supervisão. O AI Office e a AI Board coordenam a nível europeu; a Comissão tem publicado guias e Q&A.
- Diretrizes setoriais: esperar convergência com financeiro, saúde e produto, incluindo interação com RGPD (CNPD continuará a ter papel central em proteção de dados).
- GPAI: o Código de Prática já está publicado; para empresas portuguesas que integram LLMs de terceiros, o foco é conhecer as limitações do modelo, rotular e mitigar riscos com base na documentação do fornecedor.
Nota: a Comissão reiterou em julho de 2025 que não haverá pausa no calendário legal, apesar de pedidos da indústria. Para empresas, isto significa planeamento imediato.
Perguntas frequentes das equipas de negócio (em português europeu, sem “juridiquês”)
“Uso um chatbot no site para leads. O que tenho de fazer?”
“O nosso RH usa um filtro de CVs com IA.”
“Geramos imagens e vídeos para marketing com IA.”
“Treinamos um LLM interno com dados próprios.”
Checklist de conformidade (orientativo)
- Nomear um/a responsável por IA (ou comité) com mandato claro.
- Inventariar todos os casos de uso de IA e classificá-los.
- Bloquear quaisquer funcionalidades potencialmente proibidas.
- Plano de literacia por perfil + registo de formação.
- Política de transparência (rótulos, avisos, chatbots, deepfakes).
- Para alto risco: Gestão de risco (art. 9) + dados (art. 10) + documentação técnica. Logging e monitorização contínua;marcação CE/Registo quando aplicável. Supervisão humana (art. 14) e explicabilidade adequada.
- Para GPAI: Documentação do modelo, fluxo de informação a downstream, política de copyright. Avaliar adesão ao Código de Prática GPAI (mesmo como integrador).
Armadilhas comuns (e como evitá-las)
- “Shadow AI”: equipas a usar ferramentas sem aprovação. Implemente governança interna e catálogo de ferramentas aprovadas.
- Transparência esquecida: chatbots sem aviso, conteúdos não rotulados. Crie normas de UX e componentes reutilizáveis.
- Contratos fracos com fornecedores: sem garantias de qualidade de dados, segurança e suporte regulatório (p. ex., pacotes de conformidade para alto risco).
- Falta de prova: fazer “o certo” sem evidências guardadas. Sem registos, não há conformidade auditável.
- RGPD vs. IA: assumir que cumprir o RGPD chega. Não chega: o AI Act tem requisitos próprios (gestão de risco, robustez, CE, etc.).
O que as equipas técnicas devem preparar
- Data governance: catálogos de dados, controle de versões de datasets, cartografia de enviesamentos e métricas de qualidade.
- MLOps/AIOps: pipelines com gates de conformidade (pré-produção e pós-produção), monitorização de deriva, alertas.
- Model cards e system cards adaptados ao AI Act (explicabilidade por público).
- Segurança: testes de robustez (ataques adversariais), abuso e jailbreaks em LLMs, mitigação de alucinações para casos críticos.
Pergunta de um milhão: é caro? Como otimizar o esforço
Depende do risco e da maturidade atual. Boas notícias: muito do que o AI Act pede pode ser encaixado em práticas já conhecidas (p. ex., ISO 27001, ISO 9001, gestão de risco e ciclos DevOps). Aproveite ativos existentes (DPIA, matriz de riscos, runbooks) e adapte para cobrir lacunas específicas do AI Act (artigos 9–15, 26).
Linha temporal com marcos essenciais
- 12.07.2024 – Publicação no Jornal Oficial.
- 01.08.2024 – Entrada em vigor.
- 02.02.2025 – Proibições + Literacia em IA aplicáveis.
- 02.08.2025 – GPAI e governação aplicáveis; Código de Prática GPAI disponível.
- 02.08.2026 – Alto risco (Annexo III) plenamente aplicável.
- 02.08.2027 – Restantes obrigações, incluindo alguns produtos com IA embutida.
A Comissão confirmou em 2025 que mantém o calendário. Planeie em conformidade.
“Quem me pode bater à porta?” – Supervisão e fiscalização
- AI Office (Comissão Europeia) coordena GPAI e a rede de autoridades; publicou o Código de Prática e FAQs.
- Autoridades nacionais (a designar em cada Estado-Membro) supervisionarão mercados e deployers; setores regulados (financeiro, saúde, energia, telecom) manterão autoridades setoriais com competências próprias.
- CNPD continuará a atuar em proteção de dados (RGPD), com áreas de interseção com IA.
Conclusão: É urgente estruturar a conformidade
Para a maioria das empresas portuguesas, há três tarefas incontornáveis:
- Treinar pessoas (literacia em IA) e rotular conteúdos quando devido;
- Rever fornecedores/contratos e documentar responsabilidades;
- Desenhar (ou afinar) o sistema de gestão de risco para casos de alto risco e preparar evidências.
O caminho não tem de ser pesado nem caro: com um inventário claro, processos leves mas rigorosos e automação de controlos, as equipas podem continuar a inovar com IA, e fazê-lo com segurança regulatória.
Fontes e leituras recomendadas
- Texto oficial e cronograma: Regulamento (UE) 2024/1689 – EUR-Lex (PT/EN); cronograma e FAQs da Comissão.
- Proibições e literacia (a vigor desde 02/2025): Q&A da Comissão sobre literacia; análises jurídicas (Latham & Watkins; Mayer Brown).
- Alto risco – requisitos técnicos (arts. 9–15) e obrigações de deployers (art. 26): AI Act Explorer.
- GPAI e risco sistémico: Código de Prática GPAI e FAQs; notas de escritórios internacionais (Skadden, Steptoe).
- Transparência (chatbots/deepfakes): Art. 50 e análises setoriais (WilmerHale).
- Exemplos nacionais e setoriais: Reguladores locais.
Este artigo foi redigido em português europeu com base em fontes oficiais e análises de referência. Para decisões jurídicas, consulte sempre o texto oficial do regulamento e assessoria legal especializada.
Pronto para ser o próximo case de sucesso com IA?
Agora é a sua vez.
O futuro dos negócios já é inteligente. E quem se antecipa colhe os maiores benefícios. Fale com nossos especialistas e descubra como aplicar agentes de IA de forma estratégica e segura na sua empresa.
Não espere. Transforme. Cresça com IA.