Para aqueles que trabalham na governança de IA, o turbilhão de 2024 deixou pouco tempo para recuperar o fôlego, e 2025 já começou rapidamente. Em 2 de fevereiro de 2025, os primeiros requisitos importantes da Lei de IA da UE entraram em vigor, e a alfabetização em IA está chamando a atenção. Esse requisito implica que todos os fornecedores e implantadores de sistemas de IA devem garantir que suas equipes sejam adequadamente treinadas e informadas sobre os sistemas com os quais trabalham, embora a Lei não determine com precisão como as organizações devem cumprir o princípio. A alfabetização em IA é uma das principais obrigações da Lei de IA da UE que se aplica a todos os sistemas de IA, independentemente do nível de risco.
A Lei define “alfabetização em IA” como habilidades, conhecimento e compreensão para permitir que os informados uso e operação de sistemas de IA e aumentar a conscientização sobre as oportunidades, riscos e possíveis danos que os sistemas de IA podem apresentar — com o objetivo final de garantir que a equipe seja capaz de tomar decisões informadas em relação à IA, como interpretar os resultados da IA e os processos de tomada de decisão e seu impacto nas pessoas físicas.
À medida que o prazo se aproxima, as caixas de entrada estão cheias de webinars sobre conformidade com IA, whitepapers, ofertas de consultoria e materiais de treinamento de alfabetização. Parece familiar? Para profissionais de privacidade, essa pressa pode trazer de volta memórias do lançamento do GDPR. Mais uma vez, todo mundo parece ter conselhos, mas a verdadeira questão é: quais ações você realmente precisa tomar?
Vamos eliminar o barulho e nos concentrar nas três questões que importam:
- Esses requisitos se aplicam a você?
- Se sim, como você deve começar e que tipo de treinamento você precisa?
- Como você pode implementá-lo de forma eficaz?
1. Quem precisa obedecer?
O escopo pode ser mais amplo do que o previsto. Você será afetado se for:
- Desenvolvendo soluções de IA que interagem com os dados dos clientes da UE
- Usando a IA para decisões importantes (por exemplo, contratação ou aprovação de crédito)
- Criação de aplicativos personalizados com base em modelos básicos
Semelhante ao GDPR, o escopo territorial se estende além da UE, impactando qualquer pessoa que tome ou influencie decisões baseadas em IA.
Entendendo seu nível de risco
As aplicações de rotina podem ser classificadas como de “alto risco” de acordo com a Lei. Exemplos comuns incluem:
- Ferramentas de recrutamento que selecionam candidatos
- Sistemas que monitoram o desempenho dos funcionários
- A automação do atendimento ao cliente afeta o acesso ao serviço
- Reconhecimento de voz para autenticação
A Lei de IA exige atenção extra para sistemas de alto risco, semelhante ao tratamento de dados pessoais confidenciais pelo GDPR. Felizmente, as estruturas de avaliação de impacto na privacidade podem ser adaptadas para avaliação de risco de IA.
2. Construindo seu programa de treinamento
Para criar um programa eficaz de alfabetização em IA, aproveite sua experiência com o programa de privacidade e siga o exemplo dos fornecedores de alfabetização em IA. Adapte o conteúdo às diferentes funções dos funcionários, incorpore exercícios práticos e estudos de caso e atualize regularmente os materiais de treinamento para refletir os desenvolvimentos da IA e as mudanças regulatórias.
O treinamento de alfabetização em IA pode ser categorizado em quatro grupos:
- Os responsáveis pelo cumprimento com a Lei de IA: líderes de privacidade, especialistas jurídicos ou oficiais de IA, entre outras funções semelhantes, precisam entender os requisitos específicos de conformidade, como avaliações de conformidade.
- Exemplo: O IAPP oferece a certificação como profissional de governança de IA, o que demonstra que um indivíduo pode garantir segurança e confiança no desenvolvimento e implantação de IA ética e no gerenciamento contínuo de sistemas de IA.
- Funções de liderança: Os líderes precisam de uma combinação de inspiração prática, exemplos de casos de uso, treinamento prático, insights sobre riscos e danos e estratégia de mercado.
- Exemplo: A Aliança Europeia de IA oferece cursos on-line gratuitos sobre ética e governança da IA
- Usuários: O treinamento para usuários deve equilibrar o conteúdo de “instruções” com ênfase em riscos e danos.
- Exemplo: o Coursera oferece um curso “IA para todos”, adequado para profissionais não técnicos.
- Tecnólogos, gerentes de projeto, construtores, analistas de dados e equipes de compras: Essas funções exigem um entendimento mais técnico.
- Exemplo: A Linux Foundation oferece um certificado profissional em “Ética e Governança da IA”.
2.1 Planejando seu programa de treinamento

Comece com funções críticas AGORA (1º trimestre de 2025):
- Tomadores de decisão aprovando sistemas de IA.
- Equipes técnicas criando soluções.
- Equipes de compras avaliando fornecedores.
Use as abordagens de treinamento do GDPR como modelo, adaptando o conteúdo aos riscos específicos da IA.
Adicione funções de supervisão (segundo trimestre de 2025):
- Equipes de risco e conformidade.
- Agentes de privacidade e DPoS.
- Comitês de auditoria.
- Gerentes de projeto.
Muitas dessas equipes já entendem os requisitos de conformidade — com base nessa base.
Expandir para usuários (terceiro trimestre de 2025):
- Equipes que usam ferramentas de IA diariamente.
- Funções de suporte.
Aplique as lições aprendidas com o treinamento de conscientização sobre privacidade.
3. Fazendo funcionar
Propriedade clara é crucial
- O Data Protection Officer (DPO) está bem posicionado para defender a governança da IA, pelo menos inicialmente, em todas as organizações. Sua experiência em proteção de dados, avaliação de riscos e conformidade os torna ideais para essa função e para a conformidade com a Lei de IA da UE. (No longo prazo, os líderes de governança de IA precisarão de mais conhecimento técnico em IA e de amplos desafios éticos, estratégicos e multidisciplinares dos sistemas de IA além do foco do DPO.
- Nomeie um líder sênior (normalmente CRO, CCO ou CPO) como principal interessado/apoiador.
- Garanta que eles tenham autoridade real e suporte multifuncional.
Aproveite a experiência existente em privacidade
Profissionais de privacidade trazem habilidades valiosas para a governança da IA:
- Construindo e documentando programas de conformidade
- Metodologias de avaliação de risco
- Melhores práticas de treinamento e conscientização
- Estratégias de engajamento regulatório
- Estruturas de avaliação de impacto
Essas competências existentes podem ser adaptadas para enfrentar os desafios específicos da IA, simplificando a implementação dos processos de governança da IA.
Suporte externo
Ao procurar consultores externos, priorize equipes com:
- Experiência em privacidade/proteção de dados
- Experiência de governança de IA
- Conhecimento específico do setor
- Estruturas de treinamento comprovadas
- Experiência regulatória da UE
Essa combinação de habilidades garante que os consultores possam fornecer suporte abrangente, adaptado às necessidades de sua organização e aos requisitos específicos da Lei de IA da UE.
Não vamos complicar demais
Aqui está uma pergunta incômoda: na pressa de preencher todos os requisitos de alfabetização em IA e lançar programas de treinamento, estamos complicando demais a governança da IA? E se precisarmos de menos consultores, menos estruturas e mais foco nos fundamentos que sempre importam: propriedade clara, avaliação prática de riscos e treinamento direcionado para as pessoas que realmente precisam?
Com base no que aprendemos com o GDPR, podemos abordar os requisitos de alfabetização em IA com confiança e eficácia, sem reinventar a roda.
Próximas etapas da governança de IA
- Mapeie seu sistema de IA como você mapeou fluxos de dados para o GDPR. Identifique aplicativos de alto risco usando estruturas de avaliação de impacto.
- Atribuir controles baseado em classificação de risco
- Gerenciar avaliações de conformidade
- Conheça o requisitos de relatórios documentando e monitorando o status de conformidade.
Veja como a TrustWorks simplifica a descoberta de casos de uso de IA e garante a conformidade com a Lei de IA e, ao mesmo tempo, reduz o esforço manual e os riscos de conformidade.
