El ETSI publica tres documentos para que la inteligencia artificial se pueda explicar y transparentar

La inteligencia artificial (IA) avanza y, a su paso, plantea tanto temores como perspectivas auspiciosas. Y ambos aspectos merecen ser tomados en consideración: cualquier innovación tecnológica produce cambios que impactan en las personas y en las sociedades, razón por la que resulta necesario plantear su discusión y sus riesgos. Con este escenario de fondo, el Instituto Europeo de Normas de Telecomunicaciones (ETSI, por su sigla en inglés) acaba de publicar tres nuevos informes vinculados con la IA, orientados a darle un marco de explicabilidad y transparencia a su procesamiento, otro relacionado con la seguridad, y un último vinculado con la necesidad de establecer pruebas de concepto.

El grupo de seguridad de IA del ETSI, conocido como ISG SAI, estableció un marco de pruebas de conceptos como modo de guiar a la comunidad de desarrolladores en la adopción de estándares que les permita tener una comprensión común de las amenazas y las vulnerabilidades de la IA. El Instituto se ha hecho eco de las preocupaciones sociales en torno a seguridad y privacidad; y también en torno a las oportunidades que podría habilitar.

Por esta razón, Scott Cadzow, presidente de ETSI ISG SAI y ETSI Fellow 2023, subrayó que “la IA es al mismo tiempo una amenaza para la forma en que vemos a las TIC y la tecnología en su conjunto, y un ejemplo de las oportunidades de esas mismas tecnologías”. Agregó que el trabajo que se está realizando servirá a la comunidad para proteger a la sociedad contra las amenazas de la IA y garantizar que los sistemas basados en ella “funcionen de manera segura y con garantías de privacidad en todo su despliegue”.

Este grupo concentra el esfuerzo de su trabajo en explicar y transparentar el procesamiento de la IA, tal como lo dejó reflejado en el ETSI GR SAI 007, el primero de los tres papers publicados, que pueden consultarse desde aquí. Para ello, identifica los pasos que deben seguir los diseñadores e implementadores de estas plataformas para que detallen la toma de decisiones que marca su desarrollo y cómo se efectúa el procesamiento de datos de la IA.

La propuesta aborda tanto las formas estáticas como dinámicas de la IA pues el objetivo es “mostrar su trabajo”, es decir, explicarlo; y estar “abiertos a examen”, es decir, ser transparentes. Para dar cuenta de esta propuesta, pone un ejemplo, que suele ser el que siempre surge cuando se cuestionan ciertos procedimientos basados en IA, y es el vinculado con los “sesgos”, o BIAS en inglés, que puede ser común en una búsqueda laboral, por sólo mencionar un caso. Para evitar esto, la ETSI asegura que si se siguen los requisitos de explicabilidad y transparencia será posible determinar si el filtrado está viciado con sesgos, o no. En caso de que ese BIAS aparezca, corregirlo permitirá entrenar mejor el razonamiento de la IA. En tiempos donde las empresas están comenzando a tener centros de experimentación con IA, hacerlo con procesos de este tipo puede resultar de gran ayuda.

El segundo documento de este grupo de trabajo, identificado con la sigla ETSI GR SAI 009, brinda un marco de seguridad de plataforma informática de inteligencia artificial. Apunta que, en un sistema, una plataforma informática de IA actúa como la infraestructura para las aplicaciones que se van a desarrollar sobre ella además de proporcionar recursos y entornos de ejecución. Por lo tanto, para evitar los riesgos señalados, considera “esencial estudiar la seguridad de las plataformas informáticas de IA”.

El Informe describe un marco de seguridad de las plataformas informáticas de IA que contienen hardware y software básico para proteger activos valiosos como modelos y datos implementados en ella. Para ello, se insertan componentes y mecanismos de seguridad ejecutados en la plataforma. El grupo subrayó que, cuando se especifica ese marco de seguridad, cualquier plataforma informática de IA se puede consolidar contra un ataque relevante y proporcionar capacidades para las partes involucradas en esos sistemas que necesitan proteger mejor los activos (modelo/datos) en una plataforma de IA.

Un tercer documento se refiere a la necesidad de establecer pruebas de conceptos, testeos. Y así lo especifica el ETSI GR SAI 013 en donde se detalla qué marco deberá tener esa prueba cuando hay múltiples socios involucrados. El marco se utiliza como una herramienta para demostrar la aplicabilidad de las ideas y la tecnología, apunta el documento. “Las pruebas de concepto multipartidistas fortalecen la colaboración entre las partes interesadas de la IA. Los resultados pondrán en perspectiva el trabajo del grupo ETSI SAI, aumentarán la visibilidad y crearán conciencia sobre los problemas de seguridad de la IA”, agrega.

“Se trata de un marco diseñado con el objetivo de incluir tantas soluciones basadas en IA como sea posible, incluidas aquellas que cumplen funciones críticas relacionadas con el análisis de datos, la gestión de infraestructuras y la (ciber)seguridad”, amplía.

En definitiva, la teoría esbozada en este grupo de trabajo plantea que un sistema basado en IA puede convertirse en un objetivo por sí mismo, y la detección de este tipo de ataques puede representar un desafío importante. Pero advierte que son poco comunes los ataques en el mundo real y que defenderse y responder a esas amenazas con otro sistema basado en IA es todavía limitado. Por eso, resalta la importancia de las pruebas de concepto como manera de identificar los problemas para que la IA sea exitosa en materia de seguridad.

Andrea Catalano es la Editora en Jefe de TeleSemana.com. Andrea es periodista y licenciada en Comunicación Social por la Universidad Nacional de Cuyo. Desde hace más de 20 años sigue al sector de las tecnologías de la información y las comunicaciones y su impacto en la economía y la sociedad. A lo largo de su carrera se ha desempeñado en prensa escrita, on line, radio y televisión.

Recuperar contraseña

Por favor ingrese su nombre de usuario o dirección de correo electrónico. Recibirá un enlace para crear una nueva contraseña por correo electrónico.