Saltar al contenido principal

ISO 42001 - Anexo C. Objetivos organizacionales potenciales relacionados con la inteligencia artificial y fuentes de riesgo

C.1 Generalidades

Este anexo describe objetivos organizacionales potenciales, fuentes de riesgo y descripciones que la organización puede considerar al gestionar riesgos. Este anexo no pretende ser exhaustivo ni aplicable para todas las organizaciones. La organización debe determinar los objetivos y fuentes de riesgo relevantes. ISO/IEC 23894 proporciona información más detallada sobre estos objetivos y fuentes de riesgo, y su relación con la gestión de riesgos. La evaluación de los sistemas de IA, inicialmente, regularmente y cuando sea necesario, proporciona evidencia de que un sistema de IA está siendo evaluado según los objetivos organizacionales.

C.2 Objetivos

C.2.1 Responsabilidad

El uso de la IA puede cambiar los marcos de responsabilidad existentes. Donde anteriormente las personas serían responsables de sus acciones, ahora sus acciones pueden estar respaldadas o basadas en el uso de un sistema de IA.

C.2.2 Experiencia en IA

Se necesita una selección de especialistas dedicados con conjuntos de habilidades interdisciplinarias y experiencia en evaluar, desarrollar e implementar sistemas de IA.

C.2.3 Disponibilidad y calidad de los datos de entrenamiento y prueba

Los sistemas de IA basados en ML necesitan datos de entrenamiento, validación y prueba para entrenar y verificar los sistemas para el comportamiento previsto.

C.2.4 Impacto ambiental

El uso de la IA puede tener impactos positivos y negativos en el medio ambiente.

C.2.5 Equidad

La aplicación inapropiada de sistemas de IA para la toma de decisiones automatizada puede ser injusta para personas específicas o grupos de personas.

C.2.6 Mantenibilidad

La mantenibilidad está relacionada con la capacidad de la organización para manejar modificaciones del sistema de IA con el fin de corregir defectos o ajustarse a nuevos requisitos.

C.2.7 Privacidad

El uso indebido o la divulgación de datos personales y sensibles (por ejemplo, registros de salud) puede tener efectos perjudiciales en los sujetos de datos.

C.2.8 Robustez

En IA, las propiedades de robustez demuestran la capacidad (o incapacidad) del sistema para tener un rendimiento comparable en nuevos datos como en los datos con los que fue entrenado o los datos de operaciones típicas.

C.2.9 Seguridad

La seguridad se refiere a la expectativa de que un sistema no conduzca, bajo condiciones definidas, a un estado en el que la vida humana, la salud, la propiedad o el medio ambiente estén en peligro.

C.2.10 Seguridad

En el contexto de la IA y en particular con respecto a los sistemas de IA basados en enfoques de ML, se deben considerar nuevos problemas de seguridad más allá de las preocupaciones clásicas de seguridad de la información y del sistema.

C.2.11 Transparencia y explicabilidad

La transparencia se relaciona tanto con las características de una organización que opera sistemas de IA como con esos mismos sistemas. La explicabilidad se refiere a explicaciones de factores importantes que influyen en los resultados del sistema de IA que se proporcionan a las partes interesadas de una manera comprensible para los humanos.

C.3 Fuentes de riesgo

C.3.1 Complejidad del entorno

Cuando los sistemas de IA operan en entornos complejos, donde el rango de situaciones es amplio, puede haber incertidumbre sobre el rendimiento y, por lo tanto, una fuente de riesgo (por ejemplo, el entorno complejo de la conducción autónoma).

C.3.2 Falta de transparencia y explicabilidad

La incapacidad para informar adecuadamente a los interesados puede ser una fuente de riesgo (confiabilidad y responsabilidad de la organización).

C.3.3 Nivel de automatización

El nivel de automatización puede tener un impacto en varias áreas de preocupación, como la seguridad, la equidad o la seguridad.

C.3.4 Fuentes de riesgo relacionadas con el aprendizaje automático

La calidad de los datos usados para el aprendizaje automático y el proceso para recopilar datos pueden ser fuentes de riesgo, ya que pueden afectar objetivos como la seguridad y la robustez (por problemas en la calidad de los datos o envenenamiento de datos).

C.3.5 Problemas de hardware del sistema

Las fuentes de riesgo relacionadas con el hardware incluyen errores de hardware basados en componentes defectuosos o en la transferencia de modelos de ML entrenados entre diferentes sistemas.

C.3.6 Problemas del ciclo de vida del sistema

Las fuentes de riesgo pueden aparecer a lo largo de todo el ciclo de vida del sistema de IA (por ejemplo, fallas en el diseño, implementación inadecuada, falta de mantenimiento, problemas con el desmantelamiento).

C.3.7 Preparación de la tecnología

Las fuentes de riesgo pueden relacionarse con una tecnología menos madura por factores desconocidos (por ejemplo, limitaciones y condiciones de contorno del sistema, desviación del rendimiento), pero también por una tecnología más madura por la complacencia tecnológica.

Volver arriba