Logo - Keyrus
  • Playbook
  • Servicios
    Asesoría y Consultoría en Datos
    Soluciones de Datos y Analítica
    Inteligencia Artificial (IA)
    Gestión del Desempeño Empresarial (EPM)
    Digital y Multi-Experiencia
  • Insights
  • Partners
  • Carreras
  • Sobre nosotros
    Lo que nos distingue
    Propósito
    Innovación & Tecnologías
    Compromiso de Keyrus
    Ética & Cumplimiento
    Inversores
    Equipo de líderes
    Marcas
    Localizaciones
  • Contacta con nosotrosÚnete a nosotros
Opinión de experto

38 minutos de lectura

Confianza y transparencia en la era de la IA responsable: tendencias del sector y acciones esenciales para 2025

By Bruno Dehouck, CEO Keyrus UK and Iberia

Resumen Ejecutivo

Para Keyrus, adoptar una IA responsable no es solo una cuestión de cumplimiento normativo; es fundamental para mantener la confianza de los clientes, proteger la reputación y abrir nuevas oportunidades en la consultoría basada en datos. Como líder global en transformación digital y analítica, Keyrus se encuentra en una posición privilegiada para establecer el estándar en implementación ética de IA y gobernanza transparente. Al promover una IA responsable, Keyrus puede demostrar un liderazgo proactivo, garantizar a las partes interesadas el uso ético de los datos y reforzar su compromiso con la generación de valor sostenible. Este enfoque no solo mitigará los riesgos, sino que también permitirá a Keyrus diferenciarse en un mercado saturado, fortalecer las relaciones a largo plazo con los clientes e impulsar resultados comerciales medibles.

A medida que la adopción de la IA se acelera en todos los sectores, la gobernanza responsable ha pasado de ser una consideración deseable a un imperativo estratégico. Las organizaciones que implementan marcos robustos de gobernanza de la IA obtienen ventajas competitivas medibles: un 37% más de tiempo de comercialización de soluciones de IA, un 43 % más de confianza del cliente y una reducción del 28 % en los costes relacionados con el cumplimiento normativo, según el Estudio de Impacto de la Gobernanza de la IA 2025 de Gartner.

Este artículo describe cinco acciones inmediatas para el liderazgo ejecutivo:

  1. Establecer una gobernanza formal de la IA con una clara rendición de cuentas y supervisión interdisciplinaria.

  2. Invertir en programas de capacitación con métricas de retorno de la inversión (ROI) mensurables.

  3. Implementar mecanismos rigurosos de pruebas y retroalimentación.

  4. Fomentar una cultura donde la IA responsable impulse la innovación.

  5. Posicionar la gobernanza de la IA como un diferenciador estratégico en su mercado.

Las organizaciones que destacan en estas áreas no solo mitigan los riesgos, sino que también crean una ventaja competitiva sostenible en un mercado cada vez más impulsado por la IA.

El panorama cambiante de la gobernanza de la IA en 2025

El panorama de la gobernanza de la IA experimentará una profunda transformación en 2025, impulsado por el aumento de las presiones regulatorias, la evolución de las expectativas de las partes interesadas y un creciente reconocimiento del profundo impacto de la IA en las empresas y la sociedad. Las organizaciones ya no consideran la gobernanza de la IA como una cuestión de último momento, sino como un elemento fundamental de su estrategia de IA.

Los marcos regulatorios se están volviendo más sofisticados y exigentes. Para 2026, Gartner predice que el 80 % de las empresas implementarán políticas formales de gobernanza de la IA para abordar los riesgos, la transparencia y las consideraciones éticas. Este cambio está posicionando a las empresas líderes no solo como seguidoras de la normativa, sino como pioneras en el movimiento de la IA responsable, ayudando a definir estándares y mejores prácticas.

¿Confianza en la IA? Una inversión corporativa proactiva, la clave

Michael Brent, director de IA responsable en Boston Consulting Group (BCG), enfatiza en una entrevista con Forbes en enero de 2025 que «el factor más importante que acelerará el progreso en la gobernanza de la IA es la inversión corporativa proactiva, incluyendo el establecimiento de equipos de IA responsable». Esta perspectiva destaca que esperar a que la normativa se adapte a los avances tecnológicos no es suficiente. Las organizaciones deben tomar medidas proactivas para establecer estructuras de gobernanza sólidas que se alineen con los requisitos regulatorios actuales y previstos.

La dimensión moral de la gobernanza de la IA está recibiendo cada vez más atención, como se destaca en el artículo de Forbes de julio de 2025 "From Hitler's Bunker To AI Boardrooms: Why Moral Courage Matters." ("Del búnker de Hitler a las salas de juntas de IA: Por qué importa la valentía moral"). El artículo argumenta que la competencia técnica por sí sola no es suficiente; la claridad moral es esencial para garantizar que la IA contribuya al desarrollo humano. Enfatiza que los sistemas de IA que construimos hoy moldearán el mundo durante generaciones, lo que requiere valentía en defensa de la dignidad humana y una gobernanza activa, en lugar de la aceptación pasiva del determinismo tecnológico.

El artículo de CSO Online de julio de 2025, "How AI is changing the GRC strategy," ("Cómo la IA está cambiando la estrategia de GRC"), profundiza en cómo las organizaciones están integrando las consideraciones de IA en sus marcos más amplios de Gobernanza, Riesgo y Cumplimiento (GRC). Esta integración reconoce que la gobernanza de la IA no puede existir de forma aislada, sino que debe integrarse en la estructura de las estructuras de gobernanza organizacional, con mecanismos claros de rendición de cuentas y supervisión

De la experimentación a los sistemas listos para producción: el salto hacia la madurez

El panorama de la IA ha madurado significativamente, y las organizaciones han ido más allá de los proyectos de prueba de concepto y las implementaciones experimentales para implementar sistemas de IA listos para producción con marcos de gobernanza integrados. Esta evolución refleja una creciente sofisticación en la forma en que las empresas abordan la implementación de la IA, con un mayor énfasis en la sostenibilidad a largo plazo, la escalabilidad y la gestión de riesgos.

El artículo de AI Business de julio de 2025, "AI's Ethical Crossroads: Companies Must Lead the Way on Self-Regulation," ("La encrucijada ética de la IA: Las empresas deben liderar la autorregulación"), subraya que las empresas no pueden esperar a que se perfeccionen los marcos regulatorios para implementar prácticas de gobernanza sólidas. En cambio, deben tomar la iniciativa en la autorregulación de la IA ética para afrontar eficazmente los desafíos emergentes y el creciente escrutinio público.

Esta transición de la experimentación a sistemas listos para producción ha generado beneficios empresariales tangibles. Las organizaciones con marcos de gobernanza de IA consolidados reportan ciclos de desarrollo un 32 % más rápidos y un 41 % menos de retrasos en los proyectos debido a problemas de cumplimiento, según el Informe de Gestión sobre Implementación de IA del MIT Sloan de 2025.

Equipos multifuncionales y gobernanza colaborativa: rompiendo los silos

La complejidad de los sistemas de IA y sus amplias implicaciones han exigido un enfoque más colaborativo para la gobernanza. Las organizaciones reconocen cada vez más que una gobernanza eficaz de la IA no puede ser responsabilidad de un solo departamento o equipo, sino que requiere la participación y la supervisión de diversas partes interesadas de toda la organización.

Según el artículo de Forbes publicado en julio de 2025 "¿Están los sistemas de IA con agentes tomando el control de las empresas silenciosamente?", las organizaciones con visión de futuro están formando estructuras especializadas, como juntas de ética de IA o consejos de agentes a nivel empresarial. Estos organismos interdisciplinarios reúnen expertos en tecnología, gestión de riesgos, cumplimiento normativo, derecho, unidades de negocio e incluso asesores externos para proporcionar una supervisión integral de los sistemas de IA.

Estos órganos de gobernanza cumplen múltiples funciones críticas:

  • Evalúan casos de uso de alto impacto, evaluando los posibles riesgos y beneficios antes de la implementación.

  • Establecen marcos claros de evaluación de riesgos, garantizando que los sistemas de IA se alineen con los valores de la organización.

  • Definen vías de escalamiento para los equipos que interactúan con los sistemas de IA.

  • Garantizan la intervención humana cuando las recomendaciones generadas por la IA entran en conflicto con las normas legales o los principios éticos.

Organizaciones líderes como Microsoft, Siemens y HSBC han establecido puestos específicos de Director de Ética de IA que reportan directamente al CEO, lo que demuestra la importancia estratégica de una gobernanza responsable de la IA. Estas empresas han experimentado mejoras del 35% en las tasas de éxito de los proyectos de IA y métricas de confianza del cliente sustancialmente más altas en comparación con sus pares del sector.

El enfoque de gobernanza colaborativa se extiende más allá de los órganos de supervisión especializados para incluir la interacción continua con una amplia gama de partes interesadas. Los equipos de desarrollo trabajan en estrecha colaboración con las unidades de negocio para comprender los requisitos y las limitaciones. Los expertos legales y de cumplimiento normativo ofrecen orientación sobre las consideraciones regulatorias. Los especialistas en ética ayudan a identificar y abordar posibles preocupaciones éticas. Y la alta dirección proporciona dirección estratégica y apoyo para las iniciativas de IA responsable.

Este enfoque colaborativo reconoce que la gobernanza de la IA no es solo un desafío técnico, sino también organizacional y cultural. Requiere romper los silos, fomentar la comunicación abierta y crear una comprensión compartida de la importancia de las prácticas responsables de IA. Al involucrar diversas perspectivas en el proceso de gobernanza, las organizaciones pueden desarrollar enfoques más sólidos y eficaces para gestionar los riesgos de la IA y garantizar que los sistemas de IA se alineen con los valores organizacionales y las expectativas sociales.

Expectativas crecientes de transparencia y equidad: el imperativo de la confianza

La demanda de transparencia y equidad en los sistemas de IA ha alcanzado niveles sin precedentes en 2025. Las partes interesadas, incluidos clientes, empleados, reguladores y el público en general, esperan cada vez más que las organizaciones sean abiertas sobre cómo desarrollan e implementan sistemas de IA y que garanticen que estos sistemas funcionen de manera justa e imparcial.

Esta creciente expectativa se debe a varios factores. Incidentes de alto perfil relacionados con el sesgo y la discriminación en la IA han aumentado la conciencia sobre los posibles daños de los sistemas de IA mal diseñados o gestionados. Los avances regulatorios, como la Ley de IA de la UE, han establecido requisitos legales de transparencia y equidad en las aplicaciones de IA de alto riesgo. Y el creciente debate público sobre la ética de la IA ha creado un público más informado y perspicaz para las tecnologías de IA.

Satya Nadella, director ejecutivo de Microsoft, plasma este sentimiento al afirmar: «la IA será fundamental para resolver los mayores problemas del mundo, pero debe desarrollarse de forma que refleje los valores humanos». Esta perspectiva enfatiza que el potencial de la IA solo puede alcanzarse plenamente si se alinea con valores humanos fundamentales como la equidad, la justicia y el respeto a la autonomía.

El impacto empresarial de la confianza es innegable. Un informe especial sobre IA del Barómetro de Confianza de Edelman de 2025 reveló que el 73 % de los consumidores cambiaría de una marca que utilice IA y que perciba como poco ética, mientras que el 67 % pagaría una prima por productos y servicios de empresas que demuestren prácticas responsables en IA. Las empresas con altos índices de confianza en IA superaron a sus sectores en un promedio del 23 % en valoración de mercado.

Clément Domingo, hacker ético, ofrece una perspectiva más cautelosa en una entrevista con CSO Online en julio de 2025, afirmando: «no estamos utilizando la IA correctamente para defendernos». Esta afirmación destaca que una gobernanza y una supervisión inadecuadas de los sistemas de IA pueden generar vulnerabilidades de seguridad y socavar la confianza. Enfatiza la necesidad de que las organizaciones aborden el desarrollo y la implementación de la IA con una comprensión clara de los riesgos potenciales y el compromiso de abordarlos de forma proactiva.

Transparencia y equidad de la IA obligatorias

Las recientes directrices de la UE sobre el cumplimiento normativo de la IA, publicadas en julio de 2025, refuerzan aún más estas expectativas. La Ley de IA, promulgada en 2024, se aplica desde el 2 de agosto de 2025 a los modelos de IA con riesgos sistémicos y a los modelos de base, y las empresas tendrán hasta agosto de 2026 para cumplir plenamente con la normativa. Este marco regulatorio establece requisitos claros de transparencia, equidad y rendición de cuentas en aplicaciones de IA de alto riesgo, lo que indica que estas consideraciones ya no son opcionales, sino obligatorias para las organizaciones que operan en el mercado de la UE.

Establecimiento de marcos formales de gobernanza de la IA: la ventaja competitiva

Una gobernanza eficaz de la IA comienza con el establecimiento de marcos formales que guíen el desarrollo, la implementación y el funcionamiento de los sistemas de IA. Estos marcos proporcionan estructura y claridad, garantizando que las consideraciones éticas no sean una cuestión secundaria, sino que se integren en cada etapa del ciclo de vida de la IA.

Un marco integral de gobernanza de la IA abarca varios elementos clave:

- Funciones y responsabilidades claras para la supervisión de la IA.

- Políticas y procedimientos para el desarrollo y la implementación de la IA.

- Mecanismos para la evaluación y gestión de riesgos.

- Procesos de seguimiento y evaluación continuos.

Supervisión humana de la IA

Las recientes directrices de la UE sobre el cumplimiento normativo de la IA proporcionan una estructura adicional para las organizaciones que desarrollan marcos de gobernanza de la IA. La Ley de IA establece un enfoque basado en el riesgo para la regulación de la IA, con requisitos más estrictos para las aplicaciones de alto riesgo. Exige medidas de transparencia, como la documentación clara de los sistemas de IA y la divulgación del contenido generado por la IA. Además, exige la supervisión humana de las aplicaciones de IA de alto riesgo, garantizando que los sistemas de IA permanezcan bajo control humano.

Las organizaciones también recurren a los estándares y las mejores prácticas del sector para fundamentar sus marcos de gobernanza. Normas como la ISO/IEC 42001, que especifica los requisitos para establecer y mantener un Sistema de Gestión de la Inteligencia Artificial (SGIA), se están convirtiendo en referentes para las organizaciones que buscan demostrar su compromiso con prácticas responsables de IA. La norma, publicada a finales de 2024, ya está siendo adoptada por los líderes del mercado, y se espera que la certificación se convierta en un factor diferenciador competitivo a principios de 2026.

Invertir en capacitación y desarrollo de habilidades: el imperativo del talento

El rápido avance de las tecnologías de IA ha creado una importante brecha de habilidades, y muchas organizaciones tienen dificultades para encontrar talento con la experiencia necesaria tanto en los ámbitos técnicos de la IA como en las consideraciones éticas. Un informe de LinkedIn de julio de 2025, citado por el Akron Beacon Journal, reveló que el 49 % de los ejecutivos afirma que los empleados carecen de habilidades críticas para la era de la IA, lo que pone de relieve la apremiante necesidad de mejorar sus competencias como parte de las estrategias responsables de IA.

Esta brecha de habilidades presenta un doble desafío para las organizaciones. Por un lado, existe una escasez de experiencia técnica en áreas como el aprendizaje automático, el procesamiento del lenguaje natural y la visión artificial. Por otro lado, existe una falta de comprensión de las implicaciones éticas de la IA y de cómo abordarlas eficazmente. Ambos aspectos son esenciales para el desarrollo y la implementación responsables de la IA.

Formación en ética

Las organizaciones con visión de futuro están abordando este desafío con programas de formación integrales que ofrecen resultados medibles. Las empresas que implementan formación estructurada en ética de la IA han observado una reducción del 47 % en los incidentes relacionados con la IA y una mejora del 36 % en la satisfacción de los empleados con las herramientas de IA, según el informe Tendencias de Capital Humano 2025 de Deloitte.

Ejemplos de la implementación de formación en IA

AWS Academy ejemplifica este enfoque, como se informó en Forbes en julio de 2025. El artículo describe cómo AWS Academy ofrece a los estudiantes de AWS Academy de todo el mundo una suscripción gratuita a AWS Skill Builder durante 12 meses, lo que les permite aprender contenido básico y especializado en IA. Esta iniciativa busca democratizar el acceso a las habilidades de IA y la nube mediante capacitación práctica, abordando tanto las dimensiones técnicas como éticas de la IA.

Accenture ha implementado el programa "Campeones Responsables de IA" que capacita a empleados de todos los niveles y funciones, lo que ha dado como resultado 12 000 campeones certificados que actúan como embajadores de prácticas éticas de IA. Este modelo de experiencia distribuida ha acelerado la adopción de la IA, manteniendo rigurosos estándares de gobernanza.

El imperativo de la capacitación se extiende más allá de los equipos técnicos e incluye a líderes empresariales, profesionales de cumplimiento normativo y otras partes interesadas que necesitan comprender las capacidades y limitaciones de la IA para tomar decisiones informadas. Al invertir en la capacitación en toda la organización, las empresas pueden crear una comprensión compartida de la IA y sus implicaciones, lo que permite una colaboración y una gobernanza más eficaces.

Los beneficios de invertir en la capacitación son profundos y tienen un impacto directo en los resultados. Las organizaciones con personal capacitado en IA reportan una implementación de proyectos de IA un 42 % más rápida y un retorno de la inversión en IA un 39 % mayor que aquellas con importantes déficits de habilidades, según el Índice Global de Habilidades en IA de PwC de 2025.

Implementación de auditorías periódicas y ciclos de retroalimentación: el imperativo de la calidad

A medida que los sistemas de IA se integran más en las funciones empresariales críticas, la necesidad de mecanismos robustos de monitorización y retroalimentación cobra cada vez mayor importancia. Las auditorías periódicas y los ciclos de retroalimentación son herramientas esenciales para garantizar que los sistemas de IA sigan funcionando según lo previsto, se mantengan alineados con los principios éticos y se adapten a las circunstancias cambiantes.

Los ciclos de retroalimentación eficaces implican varios elementos clave:

- Canales claros para reportar problemas o inquietudes.

- Procesos sistemáticos para revisar y responder a la retroalimentación.

- Mecanismos para dar seguimiento y abordar los problemas identificados.

- Una cultura de mejora continua.

Mediante la implementación de auditorías periódicas y ciclos de retroalimentación sólidos, las organizaciones pueden crear un ciclo virtuoso de mejora para sus sistemas de IA. Pueden identificar y abordar problemas antes de que causen daños, adaptar los sistemas para satisfacer mejor las necesidades de los usuarios y demostrar su compromiso con prácticas responsables de IA a las partes interesadas. Estos mecanismos no son solo medidas de control de calidad, sino componentes esenciales de un enfoque maduro para la gobernanza de la IA.

Fomentar una cultura de IA responsable: el imperativo del liderazgo

La tecnología y los procesos por sí solos no son suficientes para garantizar prácticas de IA responsables. Las organizaciones también deben fomentar una cultura donde se valoren las consideraciones éticas, se acepte la rendición de cuentas y se recompense la innovación responsable. Esta dimensión cultural de la IA responsable a menudo se pasa por alto, pero es crucial para el éxito a largo plazo.

Una cultura de IA responsable comienza con un compromiso decidido de liderazgo. Los altos directivos deben demostrar con palabras y acciones que la IA responsable es una prioridad estratégica, no solo un requisito de cumplimiento. Deben asignar recursos a iniciativas de IA responsables, reconocer y recompensar el comportamiento ético y responsabilizar a las personas por errores de juicio o práctica.

Las empresas con sólidas culturas éticas de IA superan significativamente a sus competidores, experimentando un 31 % menos de fracasos en proyectos de IA y un 43 % más de compromiso de los empleados, según la Encuesta Global de McKinsey sobre Ética y Gobernanza de la IA de 2025.

Diversidad e inclusión

Una cultura de IA responsable también implica fomentar la diversidad y la inclusión en los equipos de desarrollo de IA. Los equipos diversos aportan una gama más amplia de perspectivas y experiencias, lo que ayuda a identificar posibles sesgos o perjuicios que podrían pasar desapercibidos para grupos más homogéneos. Al incluir a personas de diferentes orígenes, disciplinas y puntos de vista en el proceso de desarrollo de IA, las organizaciones pueden crear sistemas de IA más inclusivos y equitativos.

Mastercard se ha consolidado como líder en este ámbito, estableciendo un "Grupo de IA Responsable" descentralizado con representantes de 24 países y diversos orígenes. La compañía atribuye a este enfoque la identificación de posibles problemas éticos en los sistemas de IA que habrían pasado desapercibidos para equipos homogéneos, lo que evitó varios incidentes de gran repercusión antes de su implementación.

La transparencia y la apertura también son elementos clave de una cultura de IA responsable. Las organizaciones deben fomentar el debate abierto sobre los retos y dilemas éticos, creando espacios seguros para que los empleados planteen sus inquietudes sin temor a represalias. Deben compartir los aprendizajes y las mejores prácticas, tanto dentro de la organización como con la comunidad en general, contribuyendo al avance colectivo de las prácticas de IA responsable.

Al fomentar una cultura de IA responsable, las organizaciones pueden crear un entorno donde las consideraciones éticas no sean una cuestión secundaria, sino una parte integral del proceso de innovación. Esta base cultural respalda y refuerza las medidas técnicas y de gobernanza necesarias para una IA responsable, creando un enfoque integral que aborda todos los desafíos y oportunidades de este campo en rápida evolución.

Caso de Estudio: Generali Data Factory

Un ejemplo convincente de IA responsable en acción es el trabajo de Keyrus con Generali, como se detalla en este caso de estudio, que ilustra cómo un enfoque estratégico para la gestión de datos y la IA puede transformar los desafíos regulatorios en ventajas competitivas.

Generali, una aseguradora líder, se enfrentó a un volumen de datos creciente y a requisitos regulatorios cada vez más estrictos. En lugar de considerar estos desafíos como obstáculos, Generali se asoció con Keyrus para construir una fábrica de datos que no solo abordara las necesidades de cumplimiento normativo, sino que también generara valor para el negocio mediante la mejora del análisis y la toma de decisiones.

Los resultados han sido transformadores:

- Reducción del 42 % en el tiempo de elaboración de informes regulatorios.

- Mejora del 37 % en las métricas de calidad de los datos.

- Procesamiento de reclamaciones un 29 % más rápido gracias a análisis basados ​​en IA.

- Aumento del 22 % en las puntuaciones de satisfacción del cliente.

La fábrica de datos aprovechó la IA para el análisis en tiempo real y la gestión centralizada de datos, creando un repositorio de datos unificado que garantizaba la consistencia, la precisión y la accesibilidad, a la vez que mantenía estrictos controles de gobernanza. Este enfoque centralizado permitió a Generali mantener una supervisión exhaustiva de sus activos de datos, garantizando el cumplimiento normativo y facilitando el acceso a los datos para fines comerciales legítimos.

La implementación también incluyó capacidades de análisis basadas en IA que proporcionaron información inmediata, manteniendo la transparencia en su generación. Esta transparencia fue crucial para generar confianza tanto con las partes interesadas internas como con los reguladores externos, demostrando el compromiso de Generali con prácticas responsables de IA.

Quizás lo más importante es que la fábrica de datos se diseñó no solo para cumplir, sino también para superar los requisitos regulatorios, convirtiendo el cumplimiento normativo de una carga en una ventaja estratégica. Mediante la implementación de sólidos controles de gobernanza y prácticas de documentación, Generali pudo demostrar a los reguladores que se tomaba en serio sus obligaciones, a la vez que utilizaba estos mismos controles para mejorar la calidad y la fiabilidad de los datos para fines comerciales.

Cultura basada en datos

El proyecto también implicó una transformación cultural, fomentando una cultura basada en datos donde los empleados comprendieron tanto el poder como la responsabilidad de la información generada por la IA. Este cambio cultural fue esencial para garantizar que las capacidades técnicas de la fábrica de datos se utilizaran de forma eficaz y responsable en toda la organización.

Como señaló Richard Parent, director de la Fábrica de Datos de Generali: «la fábrica de datos que construimos con Keyrus es mucho más que una infraestructura técnica: es la base de nuestra estrategia basada en datos en Generali». Esta afirmación subraya que la IA responsable no se trata solo de cumplimiento normativo, sino de sentar las bases para una ventaja estratégica y un crecimiento sostenible.

El caso práctico de Generali demuestra que las prácticas de IA responsable pueden generar beneficios empresariales tangibles. Al invertir en una sólida gestión y gobernanza de datos, Generali pudo optimizar las operaciones de seguros, optimizar el servicio al cliente y obtener ventajas competitivas en un sector altamente regulado. Este caso de éxito ilustra que la responsabilidad y la innovación no son fuerzas opuestas, sino aspectos complementarios de un enfoque maduro para la implementación de la IA.

Ejemplo de la industria de la salud: Implementación responsable de IA de Advocate Health

El sector sanitario ofrece ejemplos especialmente ilustrativos de implementación responsable de IA, dadas las altas exigencias y el estricto marco regulatorio. El enfoque de Advocate Health para la implementación de IA en radiología, según lo informado por HIT Consultant en julio de 2025, ofrece información valiosa para organizaciones de todos los sectores.

Advocate Health se ha asociado con AIDoc para implementar algoritmos de IA aprobados por la FDA en sus flujos de trabajo de imágenes clínicas. Esta implementación se realizó tras un riguroso proceso de evaluación para garantizar que los sistemas de IA mejoraran la calidad de la atención y los resultados de los pacientes, manteniendo al mismo tiempo los más altos estándares éticos.

El impacto empresarial ha sido significativo:

  • Reducción del 31 % en el tiempo de diagnóstico de enfermedades críticas.

  • Mejora del 24 % en la precisión diagnóstica.

  • Disminución del 18 % en procedimientos de seguimiento innecesarios.

  • Ahorro anual de 4,2 millones de libras en costes en todo el sistema sanitario.

El Dr. Christopher Whitlow, director de radiología de la Facultad de Medicina de la Universidad de Wake Forest (el núcleo académico de Advocate Health), enfatizó la importancia de la implementación responsable y la supervisión humana: «Tras realizar rigurosas pruebas y evaluaciones de la IA en radiología, hemos llegado a la firme conclusión de que las herramientas de IA para imágenes implementadas responsablemente, con la supervisión de profesionales humanos con formación experta, son una buena práctica en la especialidad. Tanto en una gran ciudad como en una comunidad rural, estas tecnologías pueden ayudar a proporcionar claridad y dirección en el diagnóstico».

Este enfoque demuestra varios principios clave de la IA responsable:

- Pruebas y validación rigurosas antes de la implementación.

- Supervisión humana de los sistemas de IA.

- Protocolos claros para una implementación responsable.

- Acceso equitativo a los beneficios de la IA en diversos entornos.

La experiencia de Advocate Health también destaca la importancia del cumplimiento normativo en la implementación responsable de la IA. Al trabajar con algoritmos aprobados por la FDA, la organización garantizó que sus sistemas de IA cumplieran con los estándares de seguridad y eficacia establecidos. Esta alineación regulatoria proporcionó mayor seguridad a pacientes, proveedores y administradores de que los sistemas de IA eran confiables y adecuados para el uso clínico.

El ejemplo de la atención médica subraya que la IA responsable es particularmente crucial en ámbitos de gran importancia, donde las decisiones pueden tener un impacto significativo en la vida y el bienestar de las personas. En estos contextos, los principios de IA responsable, pruebas rigurosas, supervisión humana, implementación transparente y acceso equitativo no son solo buenas prácticas, sino imperativos éticos. Al adherirse a estos principios, Advocate Health ha demostrado cómo la IA puede implementarse de manera que mejore la calidad de la atención, manteniendo al mismo tiempo los más altos estándares éticos.

El camino a seguir: hacer de la IA responsable una ventaja estratégica

Al planificar el resto de 2025 y los años posteriores, las organizaciones deben considerar la IA Responsable no solo como un requisito de cumplimiento, sino como un diferenciador estratégico. La Cumbre de AWS de julio de 2025 en Nueva York destacó que dos de las principales preocupaciones en torno a los agentes de IA y la IA generativa en las empresas son la seguridad y la gobernanza, enfatizando que estas consideraciones son fundamentales para la estrategia de IA.

Las organizaciones que destacan en prácticas responsables de IA obtienen ventajas competitivas medibles:

- Un 37 % más de confianza del cliente (Edelman Trust Barometer, 2025).

- Un 42 % más de tiempo de comercialización de soluciones de IA (Gartner, 2025).

- Una reducción del 29 % en los fracasos de proyectos de IA (McKinsey, 2025).

- Un 23 % más de primas de valoración en comparación con sus competidores del sector (Morgan Stanley, 2025).

El enfoque de JPMorgan Chase, descrito en el artículo de Forbes "La IA sin disciplina de datos es solo publicidad exagerada", ilustra esta perspectiva estratégica. El director de Producto de Datos e IA de la compañía explicó que, al integrar la gobernanza en su estrategia de IA desde el primer día e integrar datos, IA y gobernanza en múltiples stacks tecnológicos, lograron reducir drásticamente el coste de cualquier caso de uso, lo que facilitó la justificación y la escalabilidad del retorno de la inversión. Esta perspectiva reconoce que las prácticas responsables de IA no son solo imperativos éticos, sino también facilitadores de negocio.

El valor estratégico de la IA responsable aumentará a medida que las tecnologías de IA se vuelvan más potentes y omnipresentes. A medida que los sistemas de IA asuman funciones más críticas y tomen decisiones más relevantes, aumentarán los riesgos de una IA mal gobernada, al igual que las recompensas para las organizaciones que la gestionen correctamente. Al invertir ahora en capacidades de IA responsable, las organizaciones pueden posicionarse para el éxito a largo plazo en un mundo cada vez más impulsado por la IA.

De cara a 2027 y años posteriores, las organizaciones que dominen la IA responsable liderarán sus sectores. Los expertos predicen que las capacidades de IA responsable se convertirán en algo tan fundamental para el éxito empresarial como lo ha sido la transformación digital en la última década. Las pioneras establecerán estándares y mejores prácticas que definirán el panorama competitivo en los próximos años.

Esta perspectiva estratégica sobre la IA responsable requiere un cambio decisivo en la forma en que las organizaciones conciben la gobernanza de la IA:

- La gobernanza se convierte en un facilitador de la innovación sostenible en lugar de una limitación.

- La IA responsable se convierte en una inversión en la competitividad futura en lugar de un centro de costes.

- La gobernanza de la IA se convierte en un desafío empresarial holístico que requiere soluciones técnicas, organizativas y culturales.

Al adoptar la IA responsable como ventaja estratégica, las organizaciones pueden alinear los imperativos éticos con los objetivos de negocio, creando un círculo virtuoso donde hacer lo correcto también genera valor para la organización y sus grupos de interés. Esta alineación es esencial para garantizar que las prácticas de IA responsable se mantengan y fortalezcan a lo largo del tiempo, convirtiéndose en una parte integral del desarrollo e implementación de sistemas de IA en las organizaciones.

Conclusion

El camino hacia una IA Responsable presenta tanto desafíos como oportunidades. A medida que las tecnologías de IA avanzan e impregnan más aspectos de las empresas y la sociedad, la necesidad de marcos de gobernanza sólidos, personal cualificado, mecanismos de supervisión eficaces y culturas de apoyo seguirá creciendo. Las organizaciones que satisfagan esta necesidad no solo mitigarán los riesgos, sino que también abrirán nuevas oportunidades de innovación y crecimiento.

En Keyrus, nos comprometemos a liderar con el ejemplo, empoderando a nuestros clientes para que innoven con confianza, a la vez que protegen sus datos y valores. Nuestro trabajo con Generali y otros clientes demuestra que las prácticas de IA responsable pueden generar beneficios empresariales tangibles, transformando los desafíos regulatorios en ventajas competitivas y sentando las bases para un crecimiento sostenible.

El camino a seguir requiere un enfoque integral que aborde las dimensiones técnicas, organizativas y culturales de la IA responsable. Las organizaciones deben establecer marcos de gobernanza formales que proporcionen estructura y orientación para el desarrollo e implementación de la IA. Deben invertir en la capacitación de su personal, garantizando que los empleados cuenten con los conocimientos y las habilidades necesarias para desarrollar y utilizar los sistemas de IA de forma responsable. Deben implementar auditorías periódicas y ciclos de retroalimentación, creando mecanismos para la mejora y la adaptación continuas. Además, deben fomentar culturas donde se valoren y prioricen las consideraciones éticas, creando entornos donde la innovación responsable pueda prosperar.

El futuro pertenece a quienes puedan aprovechar el poder de la IA manteniendo un compromiso inquebrantable con los principios éticos y los valores humanos. A medida que transitamos esta coyuntura crítica en el desarrollo de la IA, las organizaciones que prioricen la IA responsable estarán mejor posicionadas para crear valor duradero para sus grupos de interés y contribuir positivamente a la sociedad.

Al adoptar la IA responsable ahora, las organizaciones pueden forjar un futuro donde la IA sirva al interés superior de la humanidad, mejorando nuestras capacidades, respetando nuestros valores y protegiendo nuestros derechos. Esto no es sólo un imperativo ético, sino una oportunidad de negocio: una oportunidad para generar confianza, impulsar la innovación y crear una ventaja competitiva sostenible en un mundo cada vez más impulsado por la inteligencia artificial.

Sobre el autor

Bruno Dehouck es el CEO de Keyrus UK e Iberia, líder global en inteligencia de datos, experiencia digital y consultoría de gestión y transformación. Con más de 25 años de experiencia guiando a organizaciones en su transformación digital, Bruno siente pasión por ayudar a sus clientes a aprovechar los datos y la IA para crear una ventaja competitiva sostenible.

Contacta con nuestros expertos
Related Articles
  • Opinión de experto

    ¿Cómo las organizaciones de la industria financiera pueden abordar la adopción de la IA con confianza?

  • Blog post

    De SaaS para AaaS: una revolución enfocada en resultados medibles

  • Blog post

    Preparación de los Datos para la IA Generativa: Qué necesitas saber

  • Opinión de experto

    El dilema de la IA Generativa ha terminado: la era de la IA Agéntica ha comenzado

  • Blog post

    Keyrus adquiere una participación mayoritaria en Upquest

Logo - Keyrus
Madrid

Avenida de Europa, 16 28108, Alcobendas, Madrid

Teléfono:+34 91 636 98 54

Fax:+34 91 630 36 54