Periodista de formación e inmersa desde hace más de 15 años en el estudio del impacto de esta nueva tecnología y su ética, la fundadora del observatorio OdiseIA actualmente coordina uno de los proyectos de mayor calado en este ámbito dentro del Gobierno.
En un futuro no muy lejano, cualquier dispositivo podría tener implantado un sistema de Inteligencia Artificial (IA) que requerirá de un sello expedido por el Gobierno que garantice un desarrollo acorde con la legislación europea. Cuando esto ocurra será porque el primer proyecto de sandbox (banco de pruebas) y de dicha certificación, impulsados por la Secretaría de Estado de Digitalización e Inteligencia Artificial (SEDIA), han llegado a buen puerto. Idoia Salazar, fundadora y presidenta del Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA), coordina este proyecto con la consultora Deloitte.
¿Cuánto puede durar el proyecto de sandbox y sello nacional de IA?
La duración de este proyecto se prolongará hasta finales de 2025. Se está haciendo todo el rodaje del sandbox de regulación en IA (anteriormente ya habíamos hecho el framework, es decir el diseño, también con la SEDIA); además de la creación y desarrollo del sello de IA. El sandbox establece un campo de pruebas en el que empresas y organismos públicos y privados, sobre todo aquellos que desarrollen IA, pueden entrar y testar sus sistemas de alto riesgo para ver si, junto con las herramientas que nosotros les vamos a dar, pueden adecuarse de forma sencilla a la regulación europea. Lo que queremos hacer es ayudar a que las empresas españolas, principalmente pymes y 'startups', sepan entender bien la regulación, cómo les afecta y darles herramientas para cumplirla de manera ágil.
¿Por qué es importante integrar esta tecnología y extender este sello en las empresas?
Creo que es fundamental que todos, principalmente pequeñas empresas que también utilizan sistemas de IA, empiecen a pensar de qué manera les puede afectar y cómo actúan. Una de las ventajas que tiene esta herramienta es su facilidad de uso por startups y pymes y que posibilita a una empresa a hacer grandísimas cosas. Pero aún hay reparos porque piensan que la regulación europea les va a suponer una merma en el desarrollo de su negocio. Sería así si no estuviéramos bastante implicados en el desarrollo de estas guías [se liberarán al acabar el proyecto].
¿Qué papel tiene la IA en el ámbito profesional?
A nivel profesional no es una opción, es una necesidad a todos los niveles. Yo diría que prácticamente cualquier tarea puede ser susceptible de mejorar gracias al uso, en principio, de la IA generativa u otro tipo de sistemas de IA. Pero realmente la IA generativa da opciones enormes en cualquier ámbito, por la posibilidad de democratizar su uso a cualquier persona.
¿Diría que la IA generativa es un nuevo capítulo en la historia de esta tecnología?
Voy un paso más allá: Diría que es un nuevo capítulo en la historia de la humanidad. Obviamente había IA generativa antes de Chat GPT, pero ahora se ha democratizado. Ya iba a suponer una revolución porque es una herramienta básica hoy en día que nos ayuda a optimizar todo tipo de procesos y en un muy corto periodo de tiempo. Esto va a cambiar la manera de afrontar cualquier trabajo, pero más aquellos de gran impacto como la medicina o el desarrollo de fármacos. Va a hacer dar un paso evolutivo importante como humanidad. Pero requiere de un cambio de mentalidad si no queremos tener un problema de adaptabilidad al nuevo entorno que generará la IA: hace falta un cambio estructural en la educación para formar muchísimo más a sociedades que tengan criterio para enfrentarse al mundo que traen las decisiones automatizadas.
¿Hasta qué punto los temores al respecto son infundados y de dónde vienen?
Esos temores son perfectamente normales porque cuando sale una regulación nueva, y más una que afecta a una herramienta que va a ser de uso masivo, preocupa que una regulación limite o ralentice su uso. Sin embargo, yo veo que sí se está haciendo mucho esfuerzo a nivel nacional (sandbox) e internacional, con el desarrollo de software open source específico para cumplir con los requisitos de la regulación, basado en principios éticos internacionales (supervisión humana; transparencia en los datos; comprensión; seguridad). Lo que hay es mucho desconocimiento. Hace falta más divulgación que les diga a las empresas en qué punto se está y qué herramientas van a tener que usar. Cumplir con esta regulación es muy importante porque previene de implicaciones sociales y empresariales negativas.
Precisamente, ¿de qué manera podría reducir las desigualdades sociales?
Nosotros, como seres humanos, hemos sido muy discriminatorios a lo largo de nuestra historia. Si dejas a un sistema basado en IA que tome las decisiones en base a datos del histórico será un entrenamiento erróneo y amplificará las desigualdades. Cuando hemos aprendido que hay que extraer las variables de sexo, raza o condición social, las decisiones de los algoritmos son incluso más justas que las de las personas. Yo creo que gracias a los sistemas de IA vamos a ser mucho más conscientes de estos sesgos. Y eso nos va a ayudar a mejorar como sociedad.
¿Llega tarde la ética en IA respecto a la evolución en el desarrollo de esta tecnología?
Diría que no. Llevo 15 años estudiando la ética en la IA. E igual que yo, hay bastante gente alrededor del mundo. Ya hay muchas herramientas desarrolladas a nivel de supervisión de temas éticos para cumplir con la regulación. Incluso ya a nivel de buenas prácticas desde las empresas. No solo por temas teóricos, que es por lo que fundé OdiseIA. Hay que seguir trabajando sobre IA generativa.