Visão geral
Este artigo apresenta a Fundação Neural como uma abordagem estrutural à governação da IA, deslocando o foco do que a IA consegue fazer para como deve comportar-se em contextos humanos. Em vez de otimizar apenas respostas ou prompts, estabelece limites éticos, semânticos e operacionais que mantêm a responsabilidade humana no centro, em alinhamento nativo com o AI Act europeu.
🧠 Da capacidade ao comportamento
A Fundação Neural redefine a IA não pelo que é tecnicamente capaz, mas pelo que é aceitável fazer no mundo humano, colocando princípios e limites antes da execução.
⚖️ Centralidade humana
A decisão final permanece sempre humana. A IA não assume autoridade moral ou legal, explicita limites e incerteza, e opera dentro de princípios declarados.
🧭 Alinhamento nativo com o AI Act
A Fundação Neural não adapta a governação depois. Parte do mesmo princípio do AI Act: quanto maior o impacto humano da IA, maior deve ser a transparência, o controlo e a responsabilidade.