Opinión Info Opinión

Cinco principios para el uso, la adopción y el desarrollo responsable de la IA

Miguel Ángel Martos, Country Manager Iberia, Netskope

22/03/2024

Llevamos mucho tiempo fantaseando con la inteligencia artificial. Una obsesión que se materializa en algunas obras maestras de la cultura, con películas o libros como 2001: Una odisea del espacio, Metrópolis, Blade Runner, Matrix, I Robot, Westworld y muchos más. La mayoría plantean profundas cuestiones filosóficas sobre la naturaleza humana, pero también exploran los posibles comportamientos y la ética de la inteligencia artificial, por lo general a través de una mirada más bien pesimista. Aunque sólo se trata de obras de ficción, esto pone de manifiesto hasta qué punto desconfiamos de que nuestras criaturas acaben convirtiéndose en nuestros amos.

La democratización de la IA avanzó un paso más con la aparición de los Large Language Models. Pero por muchas alabanzas que estos modelos hayan recibido, han hecho que salten otras tantas alarmas. Pronto hemos sido testigos de fallos intrínsecos a estos nuevos modelos de IA, como alucinaciones, o usos poco éticos como la desinformación y las infracciones de derechos de autor, lo que ha suscitado la preocupación y numerosas llamadas de atención desde las mentes más brillantes de este campo. En su opinión, no debemos entrar en una espiral de innovación de la IA sin tener en cuenta la seguridad y los controles éticos adecuados para evitar que se utilice con fines perjudiciales o que se creen sistemas de IA defectuosos que puedan provocar graves efectos en nuestra sociedad.

El debate sobre la regulación de la IA está en marcha en todo el mundo, lo que contribuirá a impulsar un progreso saludable. Los países miembros de la UE están liderando este esfuerzo, y el Parlamento Europeo ha aprobado recientemente, la Ley de Inteligencia Artificial, que se espera influencie otras legislaciones en todo el mundo, de forma similar a lo que hizo el RGPD con la protección de la privacidad. En noviembre de 2023, un total de 20 países, entre los que se encuentran EE UU, Gran Bretaña, Alemania e Italia, entre otros, firmaron también un acuerdo para hacer de la seguridad la prioridad número uno en los requisitos de diseño de la IA.

Es tranquilizador ver que hay gobiernos proactivos que empiezan a adoptar leyes y reglamentos sobre la IA, pero al ritmo al que avanza la legislación aún podrían faltar un par de años para que tengan un impacto real en la limitación de un uso poco ético e inseguro de la tecnología. Mientras tanto, es necesario que las empresas tomen cartas en el asunto. Más y más empresas se verán en la tesitura de consumir, experimentar, integrar y desarrollar sistemas de IA en los próximos meses y años, y existen ciertos principios que deberían tenerse en cuenta y utilizarse como directrices para hacerlo de forma responsable.

Miguel Ángel Martos, Country Manager Iberia, Netskope

Miguel Ángel Martos, Country Manager Iberia, Netskope.

1.- La seguridad y la privacidad incluyen cuatro grandes líneas:

  • Utilizar la IA de forma segura, por ejemplo garantizando que los datos sensibles no se expongan a las herramientas públicas de GenAI, y que no se ponga en peligro la privacidad. También implica considerar sus aspectos éticos. En algunos lugares se ha empezado a penalizar a las empresas que utilizan IA sesgada, lo que puede convertirse en una futura norma de regulación de la IA.
  • Proteger a la organización contra los ataques de la IA. La IA es un nuevo ecosistema para los actores de amenazas, y las organizaciones deben estar informadas y proteger sus sistemas y personas de las diversas amenazas emergentes.
  • Construir la IA de manera segura adoptando procesos de privacidad por diseño y seguridad por diseño. Esto también incluye proteger el entorno y la cadena de suministro en los que se desarrolla la IA.
  • Proteger los modelos de IA y sus datos de entrenamiento en producción, especialmente de amenazas como la intoxicación de datos, que podría hacer que el modelo fuera defectuoso y/o sesgado.

2.- En las organizaciones que desarrollan IA son necesarias la transparencia y la explicabilidad. Esto significa que las decisiones y resultados del sistema de IA deben ser fáciles de explicar y demostrar si es necesario. También deben ser rastreables y previsibles.

3.- También es necesario reflexionar sobre la parcialidad y la equidad. Las organizaciones que desarrollen modelos de IA deben asegurarse de que se construyen sin prejuicios y de que son ecuánimes a largo plazo. Esto puede hacerse aplicando:

  • Preprocesamiento: métodos de mitigación aplicados al conjunto de datos de entrenamiento antes de entrenar un modelo con ellos.
  • Procesamiento en curso: técnicas de mitigación incorporadas en el propio proceso de entrenamiento del modelo.
  • Postprocesamiento: métodos que trabajan sobre las predicciones del modelo para lograr la equidad deseable.

4.- La colaboración inclusiva significa garantizar que las distintas partes interesadas y equipos (negocio, riesgo, legal y cumplimiento, seguridad, relaciones públicas, etc.) participen en el proceso de diseño y supervisión de la IA, y que el uso de la IA se evalúe en todas las áreas. Contar con la participación de todas las partes interesadas contribuye a evitar sesgos y a mejorar la calidad de los resultados.

5.- Por último, es esencial definir la propiedad y la responsabilidad de cada sistema de IA en uso. ¿De quién es la responsabilidad de garantizar que una herramienta de IA siga funcionando adecuadamente y quién es el responsable cuando algo va mal? ¿Y cuáles son las posibles implicaciones legales y regulatorias para la organización y las personas responsables?

Mientras esperamos nuevas medidas regulatorias, la innovación en IA seguirá desarrollándose, y estos cinco principios permitirán avanzar decisivamente en el desarrollo de una IA responsable y segura, lo que en sí mismo constituye un factor diferenciador que se convertirá en una ventaja competitiva.

Comentarios al artículo/noticia

Nuevo comentario

Atención

Los comentarios son la opinión de los usuarios y no la del portal. No se admiten comentarios insultantes, racistas o contrarios a las leyes vigentes. No se publicarán comentarios que no tengan relación con la noticia/artículo, o que no cumplan con el Aviso legal y la Política de Protección de Datos.

Advertencias Legales e Información básica sobre Protección de Datos Personales:
Responsable del Tratamiento de sus datos Personales: Interempresas Media, S.L.U. Finalidades: Gestionar el contacto con Ud. Conservación: Conservaremos sus datos mientras dure la relación con Ud., seguidamente se guardarán, debidamente bloqueados. Derechos: Puede ejercer los derechos de acceso, rectificación, supresión y portabilidad y los de limitación u oposición al tratamiento, y contactar con el DPD por medio de lopd@interempresas.net. Si considera que el tratamiento no se ajusta a la normativa vigente, puede presentar una reclamación ante la AEPD.

Suscríbase a nuestra Newsletter - Ver ejemplo

Contraseña

Marcar todos

Autorizo el envío de newsletters y avisos informativos personalizados de interempresas.net

Autorizo el envío de comunicaciones de terceros vía interempresas.net

He leído y acepto el Aviso Legal y la Política de Protección de Datos

Responsable: Interempresas Media, S.L.U. Finalidades: Suscripción a nuestra(s) newsletter(s). Gestión de cuenta de usuario. Envío de emails relacionados con la misma o relativos a intereses similares o asociados.Conservación: mientras dure la relación con Ud., o mientras sea necesario para llevar a cabo las finalidades especificadasCesión: Los datos pueden cederse a otras empresas del grupo por motivos de gestión interna.Derechos: Acceso, rectificación, oposición, supresión, portabilidad, limitación del tratatamiento y decisiones automatizadas: contacte con nuestro DPD. Si considera que el tratamiento no se ajusta a la normativa vigente, puede presentar reclamación ante la AEPD. Más información: Política de Protección de Datos