Resumo Executivo
Para a Keyrus, adotar a IA responsável não é apenas uma questão de conformidade; é fundamental para manter a confiança dos clientes, salvaguardar a reputação e desbloquear novas oportunidades na consultoria orientada por dados. Como líder global em transformação digital e analítica, a Keyrus está numa posição única para definir o padrão de referência na implementação ética da IA e na governação transparente. Ao promover a IA responsável, a Keyrus pode demonstrar liderança proativa, assegurar às partes interessadas a utilização ética dos dados e reforçar o seu compromisso em entregar valor sustentável. Esta abordagem não só irá mitigar riscos, como também permitirá à Keyrus diferenciar-se num mercado competitivo, fortalecer as relações de longo prazo com os clientes e impulsionar resultados de negócio mensuráveis.
À medida que a adoção de IA acelera em diversos setores, a governação responsável deixou de ser uma consideração opcional para se tornar uma prioridade estratégica. As organizações que implementam estruturas robustas de governação de IA obtêm vantagens competitivas mensuráveis: 37% mais rapidez no time-to-market de soluções de IA, 43% de aumento nos índices de confiança dos clientes e 28% de redução nos custos relacionados com a conformidade, segundo o AI Governance Impact Study 2025 da Gartner.
Este artigo destaca cinco ações imediatas para a liderança executiva:
Estabelecer uma governação formal de IA com responsabilidades claras e supervisão transversal.
Investir em programas de capacitação com métricas de ROI mensuráveis.
Implementar mecanismos rigorosos de teste e feedback.
Promover uma cultura em que a IA responsável impulsione a inovação.
Posicionar a governação de IA como um diferenciador estratégico no seu mercado.
As organizações que se destacam nestas áreas não estão apenas a mitigar riscos; estão a criar uma vantagem competitiva sustentável num mercado cada vez mais impulsionado pela IA.
A Evolução do Panorama da Governação de IA em 2025
O panorama da governação de IA está a passar por uma profunda transformação em 2025, impulsionada pelo aumento da pressão regulatória, pela evolução das expectativas das partes interessadas e pelo crescente reconhecimento do impacto significativo da IA nos negócios e na sociedade. As organizações deixaram de encarar a governação de IA como uma reflexão tardia e passaram a considerá-la um elemento fundamental da sua estratégia de IA.
Os quadros regulatórios estão a tornar-se mais sofisticados e exigentes. Até 2026, a Gartner prevê que 80% das empresas implementarão políticas formais de governação de IA para abordar riscos, transparência e considerações éticas. Esta mudança está a posicionar as empresas líderes não apenas como seguidoras da regulamentação, mas como pioneiras no movimento de IA responsável, contribuindo para moldar normas e melhores práticas.
Michael Brent, Diretor de IA Responsável no Boston Consulting Group (BCG), destacou numa entrevista à Forbes em janeiro de 2025 que “O maior fator que irá acelerar o progresso na governação de IA é o investimento corporativo proativo, incluindo a criação de equipas de IA Responsável.” Esta perspetiva sublinha que esperar que a regulamentação acompanhe os avanços tecnológicos é insuficiente. As organizações devem adotar medidas proativas para estabelecer estruturas de governação robustas, alinhadas tanto com os requisitos regulatórios atuais como com os futuros.
A dimensão moral da governação de IA está a receber uma atenção crescente, como destacado no artigo da Forbes de julho de 2025, “Do Bunker de Hitler às Salas de Reunião da IA: Porque é que a Coragem Moral Importa”. O artigo defende que a competência técnica, por si só, é insuficiente; a clareza moral é essencial para garantir que a IA sirva o florescimento humano. Salienta que os sistemas de IA que construímos hoje irão moldar o mundo durante gerações, exigindo coragem na defesa da dignidade humana e uma governação ativa, em vez da aceitação passiva do determinismo tecnológico.
O artigo da CSO Online de julho de 2025, “Como a IA está a mudar a estratégia de GRC”, aprofunda ainda mais a forma como as organizações estão a integrar as considerações de IA nos seus quadros mais amplos de Governação, Risco e Conformidade (GRC). Esta integração reconhece que a governação de IA não pode existir isoladamente, mas deve ser incorporada no tecido das estruturas de governação organizacional, com mecanismos claros de responsabilização e supervisão.
Da Experimentação a Sistemas Prontos para Produção: O Salto de Maturidade
O panorama da IA amadureceu significativamente, com as organizações a irem além de projetos de prova de conceito e implementações experimentais para a implementação de sistemas de IA prontos para produção, com quadros de governação integrados. Esta evolução reflete uma sofisticação crescente na forma como as empresas abordam a implementação de IA, com maior ênfase na sustentabilidade a longo prazo, na escalabilidade e na gestão de riscos.
O artigo da AI Business de julho de 2025, “A Encruzilhada Ética da IA: As Empresas Devem Liderar o Caminho na Autorregulação”, sublinha que as empresas não podem esperar que os quadros regulatórios estejam totalmente definidos antes de implementarem práticas robustas de governação. Pelo contrário, devem tomar a iniciativa na autorregulação da IA ética para navegar de forma eficaz pelos desafios emergentes e pelo crescente escrutínio público.
Esta transição da experimentação para sistemas prontos para produção trouxe benefícios empresariais tangíveis. As organizações com quadros de governação de IA maduros reportam ciclos de desenvolvimento 32% mais rápidos e 41% menos atrasos em projetos devido a questões de conformidade, de acordo com o MIT Sloan Management Review on AI Implementation 2025.
O JPMorgan Chase exemplifica esta abordagem madura, como destacado num artigo da Forbes de julho de 2025, “IA Sem Disciplina de Dados é Apenas Hype”. Segundo o CPO de Dados e IA da empresa, a governação não é uma reflexão tardia, mas sim incorporada na sua estratégia desde o primeiro dia. O artigo descreve como o JPMorgan Chase construiu uma plataforma que integra dados, IA e governação em múltiplas pilhas tecnológicas, incluindo Snowflake e outros parceiros, tratando todo o ecossistema como uma “fábrica de dados que opera em escala”. Esta abordagem integrada reconhece que uma governação eficaz de IA começa com a governação de dados e estende-se por todo o ciclo de vida da IA.
A abordagem proativa de governação do banco reduziu os prazos de aprovação de projetos de IA em 60%, ao mesmo tempo que diminuiu significativamente a exposição ao risco. Como afirma o seu CPO: “Transformámos aquilo que os concorrentes veem como um fardo de conformidade numa vantagem competitiva decisiva.”
Equipas Interfuncionais e Governação Colaborativa: Quebrar Silos
A complexidade dos sistemas de IA e as suas vastas implicações tornaram necessária uma abordagem mais colaborativa à governação. As organizações reconhecem cada vez mais que uma governação eficaz da IA não pode ser responsabilidade de um único departamento ou equipa, mas exige contributo e supervisão de várias partes interessadas em toda a organização.
De acordo com o artigo da Forbes de julho de 2025, “Are Agentic AI Systems Quietly Taking Over Enterprises?”, as organizações visionárias estão a formar estruturas dedicadas, como conselhos de ética em IA ou conselhos empresariais de agentes. Estes organismos interfuncionais reúnem competências de tecnologia, gestão de risco, conformidade, jurídico, unidades de negócio e até consultores externos, para garantir uma supervisão abrangente dos sistemas de IA.
Esses organismos de governação desempenham várias funções críticas:
Avaliam casos de uso de elevado impacto, analisando potenciais riscos e benefícios antes da implementação
Estabelecem quadros claros de avaliação de riscos, assegurando que os sistemas de IA se alinham com os valores da organização
Definem caminhos de escalonamento para equipas que interagem com sistemas de IA
Garantem intervenção humana quando recomendações geradas pela IA entram em conflito com normas legais ou princípios éticos
Organizações líderes como a Microsoft, Siemens e HSBC estabeleceram funções dedicadas de Chief AI Ethics Officer, reportando diretamente ao CEO, sinalizando a importância estratégica da governação responsável da IA. Estas empresas registaram melhorias de 35% nas taxas de sucesso de projetos de IA e métricas substancialmente mais elevadas de confiança dos clientes em comparação com os pares da indústria.
A abordagem de governação colaborativa estende-se para além dos organismos de supervisão dedicados, incluindo o envolvimento contínuo de uma ampla gama de partes interessadas. As equipas de desenvolvimento trabalham em estreita colaboração com unidades de negócio para compreender requisitos e restrições. Especialistas jurídicos e de conformidade oferecem orientação sobre considerações regulatórias. Especialistas em ética ajudam a identificar e a resolver potenciais preocupações éticas. E a liderança sénior fornece orientação estratégica e apoio às iniciativas de IA responsável.
Esta abordagem colaborativa reconhece que a governação da IA não é apenas um desafio técnico, mas também organizacional e cultural. Requer quebrar silos, fomentar a comunicação aberta e criar um entendimento partilhado sobre a importância das práticas responsáveis em IA. Ao envolver diversas perspetivas no processo de governação, as organizações podem desenvolver abordagens mais robustas e eficazes para gerir riscos e garantir que os sistemas de IA se alinham com os valores organizacionais e as expectativas da sociedade.
Expectativas Crescentes de Transparência e Justiça: O Imperativo da Confiança
A procura por transparência e justiça nos sistemas de IA atingiu níveis sem precedentes em 2025. As partes interessadas — incluindo clientes, colaboradores, reguladores e o público em geral — esperam cada vez mais que as organizações sejam transparentes quanto à forma como desenvolvem e implementam sistemas de IA e assegurem que estes operam de forma justa e sem preconceitos.
Este aumento de expectativas deve-se a vários fatores. Incidentes mediáticos de preconceito e discriminação em IA aumentaram a consciência sobre os potenciais danos de sistemas mal concebidos ou mal governados. Desenvolvimentos regulatórios, como o AI Act da UE, estabeleceram requisitos legais para transparência e justiça em aplicações de IA de alto risco. E o crescente debate público sobre ética em IA criou uma audiência mais informada e exigente relativamente às tecnologias de IA.
Satya Nadella, CEO da Microsoft, resume este sentimento na sua declaração: “A IA será parte integrante da solução dos maiores problemas do mundo, mas deve ser desenvolvida de forma a refletir valores humanos.” Esta perspetiva enfatiza que o potencial da IA só pode ser plenamente realizado se estiver alinhado com valores fundamentais como justiça, equidade e respeito pela autonomia.
O impacto empresarial da confiança não pode ser subestimado. Um relatório especial do Edelman Trust Barometer de 2025 sobre IA concluiu que 73% dos consumidores mudariam de marca se percebessem que esta utiliza IA de forma antiética, enquanto 67% pagariam um prémio por produtos e serviços de empresas que demonstram práticas responsáveis em IA. Empresas com elevadas pontuações de confiança em IA superaram os seus setores em média em 23% na valorização de mercado.
Clément Domingo, hacker ético, oferece uma perspetiva mais cautelosa numa entrevista à CSO Online em julho de 2025, afirmando: “Não estamos a usar a IA corretamente para nos defendermos.” Esta declaração destaca que uma governação e supervisão inadequadas podem criar vulnerabilidades de segurança e minar a confiança, enfatizando a necessidade de uma abordagem clara e proativa por parte das organizações.
As orientações recentes da UE sobre conformidade em IA, publicadas em julho de 2025, reforçam ainda mais estas expectativas. O AI Act, que se tornou lei em 2024, aplicar-se-á a partir de 2 de agosto de 2025 a modelos de IA com riscos sistémicos e modelos fundacionais, dando às empresas até agosto de 2026 para conformidade total. Este quadro regulatório estabelece requisitos claros de transparência, justiça e responsabilidade em aplicações de alto risco, sinalizando que estas considerações deixaram de ser opcionais e passaram a ser obrigatórias para empresas a operar no mercado da UE.
Estabelecer Quadros Formais de Governação de IA: A Vantagem Competitiva
Uma governação eficaz da IA começa com a criação de quadros formais que orientem o desenvolvimento, a implementação e a operação dos sistemas de IA. Estes quadros oferecem estrutura e clareza, garantindo que as considerações éticas não são uma reflexão tardia, mas estão integradas em todas as fases do ciclo de vida da IA.
Um quadro abrangente de governação de IA abrange vários elementos-chave:
Papéis e responsabilidades claros para a supervisão da IA
Políticas e procedimentos para o desenvolvimento e implementação
Mecanismos de avaliação e gestão de riscos
Processos de monitorização e avaliação contínua
O JPMorgan Chase exemplifica esta abordagem, como destacado no artigo da Forbes de julho de 2025, “AI Without Data Discipline Is Just Hype”. O artigo descreve como o banco integrou a governação na sua estratégia de IA desde o início, reconhecendo que a governação eficaz é essencial para justificar e escalar o retorno do investimento em IA. Ao integrar dados, IA e governação em múltiplas pilhas tecnológicas, o JPMorgan Chase criou um ecossistema coeso que apoia a inovação responsável.
As orientações recentes da UE sobre conformidade em IA oferecem estrutura adicional às organizações que desenvolvem quadros de governação. O AI Act estabelece uma abordagem regulatória baseada no risco, com requisitos mais rigorosos para aplicações de alto risco. Exige medidas de transparência, como documentação clara dos sistemas de IA e divulgação de conteúdos gerados por IA. E requer supervisão humana em aplicações de alto risco, garantindo que os sistemas permanecem sob controlo humano.
As organizações também recorrem a normas e boas práticas da indústria para informar os seus quadros de governação. Normas como a ISO/IEC 42001, que especifica requisitos para estabelecer e manter um Sistema de Gestão de Inteligência Artificial (AIMS), estão a tornar-se referência para organizações que procuram demonstrar o seu compromisso com práticas responsáveis. A norma, publicada no final de 2024, já está a ser adotada por líderes de mercado, prevendo-se que a certificação se torne um diferenciador competitivo no início de 2026.
Como nota Fion Lee-Madan, Co-Fundadora da Fairly AI: “A certificação ISO/IEC 42001 será o bilhete mais cobiçado em 2025, à medida que as organizações passam do entusiasmo da IA para enfrentar os verdadeiros requisitos de segurança e conformidade da responsabilidade em IA.”
Ao estabelecer quadros formais de governação de IA, as organizações podem garantir que as suas iniciativas são desenvolvidas e implementadas de forma alinhada com os valores da organização, cumprem os requisitos regulatórios e conquistam a confiança das partes interessadas. Estes quadros fornecem a estrutura e a orientação necessárias para navegar no complexo panorama ético e regulatório da IA, permitindo inovar de forma responsável e sustentável.
Investir em Requalificação e Formação: O Imperativo do Talento
O rápido avanço das tecnologias de IA criou uma lacuna significativa de competências, com muitas organizações a enfrentarem dificuldades em encontrar talento com a experiência necessária, tanto em domínios técnicos de IA como em considerações éticas. Um relatório do LinkedIn de julho de 2025, citado pelo Akron Beacon Journal, revelou que 49% dos executivos afirmam que os colaboradores carecem de competências críticas para a era da IA, destacando a necessidade urgente de programas de requalificação como parte das estratégias de IA responsável.
Esta lacuna de competências apresenta um duplo desafio para as organizações. Por um lado, há escassez de competências técnicas em áreas como machine learning, processamento de linguagem natural e visão computacional. Por outro, existe falta de compreensão das implicações éticas da IA e de como abordá-las de forma eficaz. Ambos os aspetos são essenciais para o desenvolvimento e implementação responsável da IA.
Organizações visionárias estão a enfrentar este desafio com programas de formação abrangentes que entregam resultados mensuráveis. Empresas que implementaram formações estruturadas em ética da IA registaram uma redução de 47% em incidentes relacionados com IA e uma melhoria de 36% na satisfação dos colaboradores com ferramentas de IA, de acordo com o relatório Deloitte Human Capital Trends 2025.
A AWS Academy exemplifica esta abordagem, conforme relatado pela Forbes em julho de 2025. O artigo descreve como a AWS Academy está a "oferecer aos estudantes da AWS Academy em todo o mundo uma subscrição gratuita de 12 meses da AWS Skill Builder, permitindo-lhes aprender conteúdos fundamentais e especializados em IA." Esta iniciativa visa democratizar o acesso a competências em IA e cloud através de formação prática, abordando simultaneamente as dimensões técnicas e éticas da IA.
A Accenture implementou o programa “Responsible AI Champions”, que forma colaboradores em todos os níveis e funções, resultando em 12.000 campeões certificados que atuam como embaixadores de práticas éticas em IA. Este modelo de especialização distribuída acelerou a adoção da IA ao mesmo tempo que manteve rigorosos padrões de governação.
O imperativo da requalificação vai além das equipas técnicas e inclui líderes empresariais, profissionais de conformidade e outras partes interessadas que precisam de compreender as capacidades e limitações da IA para tomar decisões informadas. Ao investir em requalificação em toda a organização, as empresas podem criar uma compreensão partilhada da IA e das suas implicações, permitindo uma colaboração e governação mais eficazes.
Os benefícios de investir em requalificação são profundos e têm impacto direto nos resultados. Organizações com força de trabalho qualificada em IA reportam uma implementação 42% mais rápida de projetos de IA e 39% maior retorno sobre os investimentos em IA em comparação com aquelas que apresentam lacunas significativas de competências, de acordo com o PwC Global AI Skills Index 2025.
Implementar Auditorias Regulares e Ciclos de Feedback: O Imperativo da Qualidade
À medida que os sistemas de IA se integram cada vez mais em funções críticas de negócio, a necessidade de mecanismos robustos de monitorização e feedback torna-se essencial. Auditorias regulares e ciclos de feedback são ferramentas fundamentais para garantir que os sistemas de IA continuam a desempenhar como esperado, permanecem alinhados com princípios éticos e se adaptam às circunstâncias em mudança.
As auditorias oferecem uma abordagem estruturada para avaliar sistemas de IA face a critérios definidos. Podem avaliar o desempenho técnico, verificando se os sistemas são precisos, fiáveis e seguros. Podem avaliar o alinhamento ético, verificando se os sistemas operam em conformidade com princípios éticos e valores organizacionais. E podem rever a conformidade com requisitos regulatórios, garantindo que os sistemas cumprem obrigações legais e normas da indústria.
A Lowe’s oferece um excelente exemplo do poder dos ciclos de feedback, conforme relatado pela Retail Dive em julho de 2025. O retalhista de produtos para melhoramento do lar tem expandido o acesso à IA para os colaboradores e refinado ferramentas com base no feedback das partes interessadas. Segundo o artigo, “Um dos pilares-chave da jornada de IA da empresa tem sido a ligação com as partes interessadas e a criação de ciclos de feedback ao longo do processo para melhorar a utilidade dos sistemas e garantir que funcionam como esperado.”
O impacto empresarial foi substancial: a Lowe’s reporta uma melhoria de 28% nas taxas de adoção da IA entre os colaboradores e um aumento de 34% na produtividade em tarefas potenciadas por IA. Estes resultados traduzem-se diretamente em melhores experiências para os clientes e maior eficiência operacional.
Os ciclos de feedback eficazes envolvem vários elementos-chave:
Canais claros para comunicar problemas ou preocupações
Processos sistemáticos para rever e responder ao feedback
Mecanismos para rastrear e resolver questões identificadas
Uma cultura de melhoria contínua
A importância das auditorias e dos ciclos de feedback é particularmente evidente em domínios de alto risco, como a saúde. Como salientou o Dr. Christopher Whitlow, presidente do departamento de radiologia da Wake Forest University School of Medicine, num artigo da HIT Consultant de julho de 2025 sobre a implementação de IA em radiologia pela Advocate Health: “Após testar e avaliar de forma rigorosa a IA em radiologia, chegámos à firme conclusão de que as ferramentas de imagiologia baseadas em IA, quando implementadas de forma responsável e com supervisão de profissionais de saúde altamente qualificados, constituem uma boa prática na especialidade.”
Esta afirmação sublinha a importância de testes rigorosos, avaliação contínua e supervisão humana para garantir que os sistemas de IA proporcionam valor de forma segura e eficaz.
Ao implementar auditorias regulares e ciclos de feedback robustos, as organizações podem criar um ciclo virtuoso de melhoria contínua para os seus sistemas de IA. Conseguem identificar e resolver problemas antes de causarem danos, adaptar os sistemas para responder melhor às necessidades dos utilizadores e demonstrar o seu compromisso com práticas de IA responsável perante as partes interessadas. Estes mecanismos não são apenas medidas de controlo de qualidade, mas sim componentes essenciais de uma abordagem madura à governação da IA.
Promover uma Cultura de IA Responsável: O Imperativo da Liderança
A tecnologia e os processos, por si só, são insuficientes para garantir práticas responsáveis de IA. As organizações devem também promover uma cultura onde as considerações éticas sejam valorizadas, a responsabilização seja assumida e a inovação responsável seja recompensada. Esta dimensão cultural da IA responsável é frequentemente negligenciada, mas é crítica para o sucesso a longo prazo.
Uma cultura de IA responsável começa com um compromisso decisivo da liderança. Os líderes seniores devem demonstrar, através das suas palavras e ações, que a IA responsável é uma prioridade estratégica, e não apenas um requisito de conformidade. Devem alocar recursos a iniciativas de IA responsável, reconhecer e recompensar comportamentos éticos e responsabilizar as pessoas por falhas de julgamento ou de prática.
As empresas com fortes culturas éticas de IA superam os seus pares por margens significativas, registando 31% menos falhas em projetos de IA e 43% mais elevados níveis de envolvimento dos colaboradores, de acordo com o Inquérito Global de 2025 da McKinsey sobre Ética e Governação em IA.
O AWS Summit de julho de 2025, em Nova Iorque, coberto pela IT Pro, destacou a importância desta dimensão cultural. O evento enfatizou que as organizações devem abordar preocupações fundamentais em torno de agentes de IA e IA generativa nos negócios, em particular no que respeita à segurança e governação. As empresas precisam garantir que os serviços de IA não estão a expor dados e que estes são armazenados e acedidos em conformidade com regulamentos como o RGPD. Isto exige não apenas controlos técnicos, mas também uma cultura em que a segurança e a privacidade sejam valorizadas e priorizadas.
Uma cultura de IA responsável envolve também promover diversidade e inclusão nas equipas de desenvolvimento de IA. Equipas diversificadas trazem uma maior variedade de perspetivas e experiências, ajudando a identificar potenciais preconceitos ou danos que poderiam ser ignorados por grupos mais homogéneos. Ao incluir pessoas de diferentes origens, disciplinas e pontos de vista no processo de desenvolvimento de IA, as organizações podem criar sistemas de IA mais inclusivos e equitativos.
A Mastercard destacou-se como líder nesta área, estabelecendo uma “Responsible AI Guild” descentralizada, com representantes de 24 países e origens diversas. A empresa atribui a esta abordagem a identificação de potenciais questões éticas em sistemas de IA que teriam passado despercebidas em equipas homogéneas, prevenindo vários incidentes de grande impacto antes da sua implementação.
A transparência e a abertura são também elementos-chave de uma cultura de IA responsável. As organizações devem incentivar a discussão aberta de desafios e dilemas éticos, criando espaços seguros para que os colaboradores possam levantar preocupações sem receio de retaliações. Devem partilhar aprendizagens e boas práticas, tanto dentro da organização como com a comunidade alargada, contribuindo para o avanço coletivo das práticas de IA responsável.
Ao promover uma cultura de IA responsável, as organizações podem criar um ambiente onde as considerações éticas não são uma reflexão tardia, mas sim uma parte integrante do processo de inovação. Esta base cultural apoia e reforça as medidas técnicas e de governação necessárias para uma IA responsável, criando uma abordagem abrangente que responde ao vasto leque de desafios e oportunidades neste campo em rápida evolução.
Estudo de Caso: A Data Factory da Generali – Transformar Desafios em Vantagem Competitiva
Um exemplo marcante de IA Responsável em ação é o trabalho da Keyrus com a Generali, detalhado no “Generali Data Factory Case Study”. Este estudo de caso ilustra como uma abordagem estratégica à gestão de dados e à IA pode transformar desafios regulatórios em vantagens competitivas.
A Generali, uma das principais seguradoras, enfrentava volumes crescentes de dados e requisitos regulatórios cada vez mais rigorosos. Em vez de encarar estes desafios como obstáculos, a Generali associou-se à Keyrus para construir uma data factory que não só respondesse às necessidades de conformidade, mas também gerasse valor para o negócio através de análises e tomadas de decisão melhoradas.
Os resultados foram transformadores:
42% de redução no tempo de reporte regulatório
37% de melhoria nos indicadores de qualidade dos dados
29% de maior rapidez no processamento de sinistros através de analytics baseados em IA
22% de aumento nos índices de satisfação dos clientes
A data factory utilizou IA para análises em tempo real e gestão centralizada de dados, criando um repositório único que assegurava consistência, precisão e acessibilidade, mantendo controlos rigorosos de governação. Esta abordagem centralizada permitiu à Generali manter uma supervisão abrangente dos seus ativos de dados, garantindo conformidade com os regulamentos e, ao mesmo tempo, tornando os dados mais acessíveis para fins legítimos de negócio.
A implementação incluiu também capacidades de analytics potenciadas por IA, que forneciam insights imediatos mantendo a transparência sobre como eram gerados. Essa transparência foi crucial para gerar confiança junto de stakeholders internos e reguladores externos, demonstrando o compromisso da Generali com práticas de IA responsável.
Talvez mais importante ainda, a data factory foi concebida não apenas para cumprir, mas para exceder os requisitos regulamentares, transformando a conformidade de um fardo numa vantagem estratégica. Ao implementar controlos robustos de governação e práticas de documentação, a Generali pôde demonstrar aos reguladores que levava a sério as suas obrigações, ao mesmo tempo que usava esses mesmos controlos para melhorar a qualidade e a fiabilidade dos dados para fins de negócio.
O projeto envolveu também uma transformação cultural, promovendo uma cultura orientada por dados, onde os colaboradores compreendiam tanto o poder como a responsabilidade dos insights gerados por IA. Esta mudança cultural foi essencial para assegurar que as capacidades técnicas da data factory eram utilizadas de forma eficaz e responsável em toda a organização.
Como referiu Richard Parent, Data Factory Manager da Generali: “A data factory que construímos com a Keyrus é muito mais do que uma infraestrutura técnica: é a base da nossa estratégia orientada por dados na Generali.” Esta declaração sublinha que a IA responsável não se trata apenas de conformidade, mas de criar uma fundação para vantagem estratégica e crescimento sustentável.
O estudo de caso da Generali demonstra que práticas de IA responsável podem gerar benefícios de negócio tangíveis. Ao investir em gestão de dados robusta e governação, a Generali conseguiu melhorar as operações de seguros, otimizar o serviço ao cliente e conquistar vantagens competitivas num setor altamente regulamentado. Esta história de sucesso ilustra que responsabilidade e inovação não são forças opostas, mas aspetos complementares de uma abordagem madura à implementação da IA.
Exemplo da Indústria da Saúde: Implementação Responsável de IA pela Advocate Health
O setor da saúde oferece exemplos particularmente instrutivos de implementação de IA responsável, dado o elevado risco envolvido e o ambiente regulatório rigoroso. A abordagem da Advocate Health na utilização de IA em radiologia, relatada pela HIT Consultant em julho de 2025, oferece insights valiosos para organizações de todos os setores.
A Advocate Health associou-se à AIDoc para implementar algoritmos de IA aprovados pela FDA nos seus fluxos clínicos de imagiologia. Esta implementação seguiu um processo rigoroso de avaliação para garantir que os sistemas de IA iriam melhorar a qualidade dos cuidados e os resultados dos pacientes, mantendo os mais altos padrões éticos.
O impacto no negócio foi significativo:
31% de redução no tempo de diagnóstico de condições críticas
24% de melhoria na precisão dos diagnósticos
18% de diminuição em procedimentos de seguimento desnecessários
4,2 milhões de libras em poupanças anuais em todo o sistema de saúde
O Dr. Christopher Whitlow, diretor do departamento de radiologia da Wake Forest University School of Medicine (núcleo académico da Advocate Health), destacou a importância da implementação responsável e da supervisão humana: “Após testar e avaliar rigorosamente a IA em radiologia, chegámos à firme conclusão de que ferramentas de IA de imagiologia implementadas de forma responsável, com supervisão de profissionais altamente qualificados, são uma boa prática na especialidade. Quer esteja numa grande cidade ou numa comunidade rural, estas tecnologias podem ajudar a oferecer clareza e orientação diagnóstica.”
Esta abordagem demonstra vários princípios-chave de IA responsável:
Testes e validação rigorosos antes da implementação
Supervisão humana dos sistemas de IA
Protocolos claros para implementação responsável
Acesso equitativo aos benefícios da IA em contextos diversos
A experiência da Advocate Health sublinha também a importância da conformidade regulatória na implementação responsável de IA. Ao trabalhar com algoritmos aprovados pela FDA, a Advocate Health garantiu que os seus sistemas de IA cumpriam padrões estabelecidos de segurança e eficácia. Esse alinhamento regulatório proporcionou garantias adicionais a pacientes, profissionais de saúde e administradores de que os sistemas eram fiáveis e adequados para uso clínico.
O exemplo do setor da saúde reforça que a IA responsável é especialmente crucial em domínios de elevado risco, onde as decisões podem ter impacto significativo na vida e no bem-estar das pessoas. Nestes contextos, os princípios da IA responsável — testes rigorosos, supervisão humana, implementação transparente e acesso equitativo — não são apenas boas práticas, mas imperativos éticos. Ao cumprir estes princípios, a Advocate Health demonstrou como a IA pode ser implementada de forma a melhorar a qualidade dos cuidados, mantendo os mais altos padrões éticos.
O Caminho em Frente: Fazer da IA Responsável uma Vantagem Estratégica
À medida que as organizações olham para o restante de 2025 e além, a IA Responsável deve ser vista não apenas como um requisito de conformidade, mas como um diferenciador estratégico. O AWS Summit de Nova Iorque, em julho de 2025, destacou que duas das principais preocupações em torno dos agentes de IA e da IA generativa nos negócios são a segurança e a governação, enfatizando que estas considerações são fundamentais para a estratégia de IA.
As organizações que se destacam em práticas de IA responsável obtêm vantagens competitivas mensuráveis:
37% pontuações mais altas na confiança dos clientes (Edelman Trust Barometer, 2025)
42% maior rapidez no tempo de lançamento de soluções de IA (Gartner, 2025)
29% de redução em falhas de projetos de IA (McKinsey, 2025)
23% de prémios de valorização superiores em comparação com os pares do setor (Morgan Stanley, 2025)
A abordagem do JPMorgan Chase, descrita no artigo da Forbes “AI Without Data Discipline Is Just Hype”, ilustra esta perspetiva estratégica. O CPO de Dados e IA da empresa explicou que, ao integrar a governação na sua estratégia de IA desde o primeiro dia e ao unificar dados, IA e governação em múltiplas pilhas tecnológicas, conseguiram “reduzir drasticamente o preço de qualquer caso de uso”, tornando “o retorno do investimento mais fácil de justificar e de escalar”. Esta perspetiva reconhece que as práticas de IA responsável não são apenas imperativos éticos, mas também facilitadores de negócios.
O valor estratégico da IA responsável só aumentará à medida que as tecnologias de IA se tornem mais poderosas e abrangentes. À medida que os sistemas de IA assumem funções mais críticas e tomam decisões mais consequentes, os riscos de uma IA mal governada crescerão, assim como as recompensas para as organizações que acertarem na governação. Ao investir agora em capacidades de IA responsável, as organizações podem posicionar-se para o sucesso a longo prazo num mundo cada vez mais orientado pela IA.
Ao olhar para 2027 e além, as organizações que dominarem a IA responsável liderarão os seus setores. Especialistas preveem que as capacidades de IA responsável se tornarão tão fundamentais para o sucesso empresarial quanto a transformação digital foi na última década. Os primeiros a avançar estabelecerão normas e boas práticas que moldarão o panorama competitivo durante anos.
Esta perspetiva estratégica sobre a IA responsável exige uma mudança decisiva na forma como as organizações encaram a governação da IA:
A governação torna-se um facilitador da inovação sustentável, em vez de uma restrição
A IA responsável passa a ser um investimento na competitividade futura, em vez de um centro de custos
A governação da IA torna-se um desafio empresarial holístico que exige soluções técnicas, organizacionais e culturais
Ao adotar a IA responsável como vantagem estratégica, as organizações podem alinhar imperativos éticos com objetivos empresariais, criando um ciclo virtuoso em que fazer o que é certo também gera valor para a organização e para as suas partes interessadas. Este alinhamento é essencial para garantir que as práticas de IA responsável sejam sustentadas e reforçadas ao longo do tempo, tornando-se parte integrante da forma como as organizações desenvolvem e implementam sistemas de IA.
Conclusão
A jornada para a IA Responsável é, ao mesmo tempo, um desafio e uma oportunidade. À medida que as tecnologias de IA continuam a avançar e a permear mais aspetos dos negócios e da sociedade, a necessidade de estruturas de governação robustas, forças de trabalho qualificadas, mecanismos eficazes de monitorização e culturas de apoio só aumentará. As organizações que responderem a esta necessidade não só mitigarão riscos, como também desbloquearão novas oportunidades de inovação e crescimento.
Na Keyrus, estamos comprometidos em liderar pelo exemplo, capacitando os nossos clientes a inovar com confiança, protegendo ao mesmo tempo os seus dados e valores. O nosso trabalho com a Generali e outros clientes demonstra que as práticas de IA responsável podem gerar benefícios empresariais tangíveis, transformando desafios regulatórios em vantagens competitivas e criando uma base para um crescimento sustentável.
O caminho em frente exige uma abordagem abrangente que aborde as dimensões técnicas, organizacionais e culturais da IA responsável. As organizações devem estabelecer estruturas formais de governação que proporcionem orientação para o desenvolvimento e implementação da IA. Devem investir na capacitação das suas equipas, garantindo que os colaboradores tenham os conhecimentos e competências necessários para desenvolver e utilizar sistemas de IA de forma responsável. Devem implementar auditorias regulares e ciclos de feedback, criando mecanismos de melhoria contínua e adaptação. E devem fomentar culturas em que as considerações éticas sejam valorizadas e priorizadas, criando ambientes onde a inovação responsável possa florescer.
O futuro pertence àqueles que souberem aproveitar o poder da IA mantendo um compromisso inabalável com os princípios éticos e os valores humanos. À medida que navegamos neste momento crítico no desenvolvimento da IA, as organizações que priorizarem a IA Responsável estarão mais bem posicionadas para criar valor duradouro para as suas partes interessadas e contribuir positivamente para a sociedade.
Ao adotar a IA Responsável agora, as organizações podem moldar um futuro onde a IA serve os melhores interesses da humanidade, ampliando as nossas capacidades enquanto respeita os nossos valores e protege os nossos direitos. Isto não é apenas um imperativo ético, mas também uma oportunidade de negócio — uma oportunidade de construir confiança, impulsionar a inovação e criar uma vantagem competitiva sustentável num mundo cada vez mais orientado pela IA.
Sources
1. "From Hitler's Bunker To AI Boardrooms: Why Moral Courage Matters" - Forbes, July 21, 2025
2. "How AI is Changing the GRC Strategy" - CSO Online, July 17, 2025
4. "The Generali Data Factory Case Study" - Keyrus, 2025
7. "Three of the biggest announcements from AWS Summit New York" - IT Pro, July 18, 2025
8. "Lowe's links end-user feedback loop to AI tool improvements" - Retail Dive, July 18, 2025
12. "Why AWS Academy Could Be The Game-Changing Opportunity Gen Z Needs" - Forbes, July 16, 2025
Sobre o Autor
Bruno Dehouck é o CEO da Keyrus UK e Ibéria, líder global em inteligência de dados, experiência digital e consultoria em gestão e transformação. Com mais de 25 anos de experiência a guiar organizações na transformação digital, Bruno é apaixonado por ajudar os clientes a aproveitar os dados e a IA para criar uma vantagem competitiva sustentável.
