Una serie de países de la Unión Europea están planificando o ya están hablando sobre la regulación de la IA. Esto cubre reflexiones sobre cómo la IA podría y será regulada, incluidas las leyes aplicables, sus alcances y los requisitos de procedimiento (como con la Comisión Europea o la CE) o las directrices que adaptan las leyes existentes a la IA.
En general, esto significa llenar los espacios en blanco:
Regular para proteger (contra)
Prevenir
Asegurar
Habilitar X.
Con respecto a la IA, los detalles sobre el factor X han creado oportunidades para el debate. Después de todo, saber qué se pretende lograr con la regulación de la IA y, en términos más generales, con la gobernanza de la IA, determinará sustancialmente qué reglas y procedimientos se implementarán. A menudo, escuchamos hablar de IA "ética", "digna de confianza" y "responsable". Estos conceptos se refieren a marcos normativos en proceso de cambio y que responden a riesgos reales, percibidos y anticipados. Por 'marcos normativos' nos referimos a marcos basados en valores que hablan de lo que nos importa y por qué. Y por "riesgos" nos referimos a los daños observados y anticipados que surgen del uso cada vez mayor de la IA, contra personas, grupos y empresas.
Esta publicación es un recorrido por los marcos normativos que han sido elaborados por gobiernos u organizaciones internacionales y tiene la intención de proporcionar una idea de la dirección que están tomando las diferentes regulaciones.
La Unión Europea Uno de los participantes más maduros en el contexto de la regulación de la IA, el marco normativo que sustenta la Ley de IA propuesta por la CE se centra en hacer que la IA sea: segura, legal y fiable La lectura de la Ley de Inteligencia Artificial revela otros componentes de este marco que hablan o refinan los tres primeros. Estos componentes adicionales se extienden al:
Estar centrado en el ser humano (al igual que Keyrus)
La diversidad étnica
Los derechos de la UE (incluida la no discriminación y la privacidad)
Los valores de la UE (incluido el respeto por la dignidad humana, la libertad, la igualdad, la democracia y el Estado de derecho)
La garantía de la rendición de cuentas, la responsabilidad y la innovación responsable Si bien el marco normativo europeo se remonta al funcionamiento de las 'Directrices éticas para una IA confiable' del Grupo de expertos de alto nivel, se ha ido perfeccionando con el tiempo a través de reuniones y consultas de los Estados miembros.
En las “Directrices éticas para la IA confiable” del HLEG, una ilustración útil aclara lo que, según ellos, son siete requisitos que permiten que la IA sea confiable y que han influido en el marco normativo subyacente de la Ley de IA.
Los europeos, a diferencia de muchas otras geografías, han comenzado a convertir estos valores en reglas.
Esto significa que completan los espacios en blanco anteriores de tal manera que la regulación de la IA debería tener como objetivo crear: -Obligaciones predecibles, proporcionadas y claras ... para garantizar la seguridad y el respeto de la legislación existente que protege los derechos fundamentales durante todo el ciclo de vida de los sistemas de IA. El marco europeo no es el único en el bloque y, si bien es probable que de forma al modo en que otras geografías conceptualizan los marcos normativos de la IA y la regulación de la IA, hay otros dispositivos que han influido y continúan influyendo en el desarrollo de las reglas.
Consejo Europeo No debe confundirse con la CE, la membresía del Consejo de Europa es más amplia que la Unión Europea y su historia de origen es bastante diferente. Habiendo lanzado CAHAI (el Comité Ad Hoc sobre Inteligencia Artificial), el Consejo se comprometió a explorar cómo implementar un marco legal sobre IA a través de un estudio de viabilidad . El marco normativo empleado se alinea con el mandato del Consejo de Europa. Es decir, está examinando la viabilidad y los elementos potenciales de: Un marco legal para el desarrollo, diseño y aplicación de la inteligencia artificial, basado en las normas del Consejo de Europa sobre derechos humanos, democracia y estado de derecho. El estudio de viabilidad mencionado anteriormente desglosa aún más los tres componentes de este marco normativo, destacando algunas características clave de cada uno que podrían verse afectadas por la IA si no se regulan adecuadamente.
Principios de la OCDE para la administración responsable de la inteligencia artificial confiable (2019) Al igual que otros marcos normativos, los Principios de IA de la OCDE, adoptados como recomendación , buscan promover lo siguiente:
La IA debería beneficiar a las personas y al planeta impulsando el crecimiento inclusivo, el desarrollo sostenible y el bienestar.
Los sistemas de inteligencia artificial deben diseñarse de manera que respeten el estado de derecho, los derechos humanos, los valores democráticos y la diversidad, permitiendo la intervención humana cuando sea necesario, para garantizar una sociedad justa y equitativa.
Debe haber transparencia y divulgación responsable en torno a los sistemas de inteligencia artificial para garantizar que las personas comprendan los resultados basados en la inteligencia artificial y puedan desafiarlos.
Los sistemas de inteligencia artificial deben funcionar de manera robusta, segura y segura a lo largo de sus ciclos de vida y los riesgos potenciales deben evaluarse y gestionarse continuamente.
Las organizaciones y las personas que desarrollan, implementan u operan sistemas de IA deben ser responsables de su correcto funcionamiento de acuerdo con los principios anteriores.
Para cumplir con esta intervención no legislativa, la OCDE recomienda que sus miembros, no miembros y actores más amplios de la IA se adhieran, promuevan e implementen estos principios sin ninguna influencia legal para garantizar que esto se materialice. A nivel práctico, la OCDE recomienda que los adherentes a los principios implementen este marco a través de políticas a nivel nacional y mediante la cooperación internacional. Se sugieren algunas acciones que abarcan la promoción de políticas, la amplia participación de las partes interesadas, el intercambio de conocimientos y la inversión. No hay ninguna indicación sobre medidas reglamentarias precisas.
La UNESCO La última en unirse a los esfuerzos de la comunidad global para desarrollar marcos normativos para la IA es la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) . El marco normativo de la UNESCO informa sobre su proyecto de recomendación sobre la ética de la IA , que prioriza la educación, la ciencia, la cultura y la comunicación y la información (las áreas de las que es responsable). Con este fin, la UNESCO ha aprovechado la oportunidad para construir un marco que: -Proporciona una base para que los sistemas de IA funcionen para el bien de la humanidad, las personas, las sociedades y el medio ambiente y los ecosistemas, y para prevenir daños. También tiene como objetivo estimular el uso pacífico de los sistemas de inteligencia artificial.
Sin embargo, a diferencia de la Unión Europea y el Consejo de Europa, y similar a la OCDE, el trabajo de la UNESCO sobre IA no aspira a crear instrumentos legales directamente. Dicho esto, tiene la membresía más amplia en todas las organizaciones discutidas y tiene la ambición explícita de hacer de este un 'marco universal de valores, principios y acciones' que pueda guiar a los estados a nivel mundial en su enfoque nacional de la regulación o gobernanza de la IA.
Entonces, ¿cuáles son los componentes del marco normativo de la UNESCO?
Los valores que mencionan incluyen:
Respeto, protección y promoción de los derechos humanos y las libertades fundamentales y la dignidad humana
Florecimiento ambiental y de ecosistemas
Garantizar la diversidad y la inclusión
Vivir en sociedades pacíficas, justas e interconectadas
Los principios que mencionan incluyen:
Proporcionalidad y sin daño
Seguridad y protección
Equidad y no discriminación
Sustentabilidad
Derecho a la privacidad y protección de datos
Supervisión y determinación humanas
Transparencia y explicabilidad
Responsabilidad y rendición de cuentas
Conciencia y alfabetización
Colaboración y gobernanza adaptativa y de múltiples partes interesadas
En un escenario ideal, esto significa crear un mundo potencial donde:
Los valores y principios éticos pueden ayudar a desarrollar e implementar medidas de política y normas legales basadas en los derechos, proporcionando orientación con miras al rápido ritmo del desarrollo tecnológico.
Puntos en común, diferencias y por qué todo esto es importante A nivel mundial, la IA se ve como un potencial non sequitur socioeconómico: una oportunidad para pasar de las 'viejas formas' de tedio, ineficiencia y limitaciones humanas a una en la que el trabajo se puede hacer mejor, más rápido y más eficientemente. Dicho esto, como indican los marcos normativos mencionados aquí, que non sequitur no garantiza resultados que beneficien a todos en todas partes por igual. Como tal, los riesgos percibidos y anticipados que plantea la IA han dado a los actores públicos y privados de todo el mundo una razón para pensar qué y cómo quieren garantizar que se materialice su desarrollo y uso de la inteligencia artificial. Para los estados y los organismos internacionales, se trata generalmente de promover el bienestar, la seguridad y la humanidad de los públicos a los que no se les garantiza necesariamente la protección de forma natural.
Las preocupaciones sobre la IA se comparten ampliamente en los marcos normativos antes mencionados, motivadas por preguntas comunes como:
¿Cuáles son los riesgos de usar IA? ¿Quién podría resultar perjudicado? ¿Cómo afectará la IA a nuestro mundo compartido? ¿Qué podemos hacer al respecto? En última instancia, diferentes estados o colecciones de estados están preguntando y respondiendo todas estas preguntas a su vez. Y aunque los marcos normativos en juego hablan en gran parte el mismo idioma, las formas en que se ponen en práctica, se traducen en leyes y en nuevos procesos pueden parecer diferentes. Esto, de hecho, fue señalado por la CAHAI del Consejo de Europa en su Estudio de Viabilidad:
Este mapeo [de 116 documentos sobre 'IA ética' de empresas privadas, académicas y organizaciones del sector público, desarrollado principalmente en Europa, Norteamérica y Asia] reveló que las directrices éticas actuales de IA convergen en algunos principios genéricos, pero, en la medida en que lo hacen dar orientación práctica: tienden a estar en total desacuerdo sobre los detalles de lo que se debe hacer en la práctica. El tiempo dirá cómo las regulaciones de IA en la práctica cumplen con sus ambiciones previstas y cómo los actores internacionales clave se adaptarán a medida que las tecnologías maduren.
Por el momento, es suficiente saber que los principales mercados se están moviendo en la dirección de crear nuevos requisitos basados en los marcos normativos descritos aquí. La apariencia de estos requisitos informará en última instancia cómo las empresas individuales ponen en práctica la gobernanza de la IA, no solo para sus propias prioridades a nivel empresarial, sino también para cumplir con requisitos externos más amplios.
En Keyrus y Dataiku consideramos la gobernanza de la IA como una oportunidad para desarrollar la resiliencia mediante el desarrollo de un modelo operativo que permita que la IA crezca orgánicamente, elimine los silos entre equipos y tenga una visión de alto nivel de lo que está sucediendo. "Una mirada global a los marcos regulatorios emergentes para la gobernanza de la IA" ilustra el mundo en general y cómo están evolucionando los requisitos externos. La información sobre los requisitos externos es útil, pero es esencial brindarle capacidades y orientación sobre el buen gobierno de la IA que refleje esos requisitos externos y satisfaga las necesidades particulares de tu empresa.
Referencias: Todos los derechos reservados a Dataiku