[Tendenc-IA] Una defensa del Reglamento de IA desde el punto de vista económico

Escrito por Juan de la Cruz

Existe un debate en la comunidad de Inteligencia Artificial acerca de la conveniencia o no de la regulación de esta tecnología por sus posibles efectos en su investigación, desarrollo e innovación. La reciente aprobación del Reglamento de la Unión Europea no ha hecho sino ahondar en este debate. 

Se escucha en las redes el consabido tópico acerca de que “Estados Unidos inventa, China copia y Europa regula”. ¿Pero qué hay de cierto en esto? 

Detrás de esta posición se encuentra un debate ideológico, y es el de que para que haya innovación cuanta menos regulación mejor. Esta posición de máximos no es un axioma que se cumpla en todos los casos y vamos a ver algunos ejemplos de ello.

Difícilmente puede concebirse Internet, en el que se apoyan las tecnologías de software incluyendo la Inteligencia Artificial, sin una estandarización. Esto incluye en particular las redes de telefonía móvil. Existen dos maneras de innovar: la primera es poniendo de acuerdo en un consenso a las distintas comunidades de stakeholders: fabricantes, operadores, industria, gobiernos, clientes potenciales… y una segunda que consiste en que, distintas organizaciones, lacen independientemente sus productos al mercado y que sea este el que lleve a cabo dicho consenso por acción de la preferencia de los consumidores.

Si bien este último caso ha demostrado grandes eficiencias en determinados casos y productos, en otros, sin la existencia de una estandarización previa, sencillamente es imposible innovar bajo riesgo de dilapidar enormes inversiones. Antes de la aparición de la estandarización, durante el siglo XIX, ya existieron graves problemas en la innovación en muchos ámbitos: desde garantizar una cadena de suministros, al trabajo conjunto entre fabricantes o a la hora de garantizar la libertad de mercado en el consumidor. Ejemplos de estas innovaciones los seguimos encontrando hoy en día en el mundo del automóvil, el sector energético o, más cercando al ámbito que nos atañe, el de la telecomunicación (difícilmente sin las redes e Internet podría sustentarse la Inteligencia Artificial generativa actual). 

Caso especial de esto último son las redes 5G de última generación, una infraestructura especialmente ideada para la implementación de servicios de Inteligencia Artificial que procesen datos adquiridos o permitan una actuación sobre la realidad con una baja latencia. Ejemplo de esto último serían los vehículos autónomos. El sector de las telecomunicaciones y el de la Inteligencia Artificial se retroalimenta. Curiosamente el primero se ha “softwarizado”, haciendo uso de paradigmas más alejados de los procedimientos de estandarización habituales en la ITU para acercarse a tendencias del, más espontáneo, mundo de la informática. Y sin embargo en el de la Inteligencia Artificial, como mencionamos en este documento, se ha emprendido una reglamentación. No es contradictorio esto sin embargo porque quizás, en este tipo de equilibrios, se encuentra la mejor solución. 

La Inteligencia Artificial, al igual que el mundo de las telecomunicaciones, el automóvil, la energía, o los procesos industriales, se trata de una tecnología esencial, crítica para la vida humana y en la que intervienen distintos actores. Tiene sentido pues establecer un sistema regulado que clarifique las reglas, estandarice comportamientos y facilite a todos los stakeholders unas reglas comunes para poder innovar. Y eso no solo no es contradictorio con el principio de innovación si no necesario como muchos ejemplos demuestran. Obviamente pese a esta consideración de “gran infraestructura” de la Inteligencia Artificial surgirán un ecosistema de emprendimiento que harán empleo o desarrollo de ellas a la manera de lo que sucedió con las aplicaciones de telefonía, pero esto no significa que se deba prescindir de una base estandarizada. 

Un lector que haya llegado hasta aquí podrá plantear que estoy haciendo trampas y que estoy confundiendo reglamentación ética con estandarización técnica. Pero esto sólo puede darse porque hasta ahora siempre se han tratado ambos temas como entidades bien diferenciadas cuando no es así: en el ámbito de la Inteligencia Artificial la ética se traduce en estandarización técnica.

Y es que cuando hablamos de principios éticos como la seguridad, la ausencia de sesgos, la eficacia y no despilfarro de energía, la trazabilidad o la rendición de cuentas, estamos hablando de materias abarcables desde una perspectiva tecnológica. La seguridad de un sistema de la información, como es la Inteligencia Artificial, es medible y auditable; como lo son los sesgos, como muestran los trabajos de Tobías Baer; la eficacia, como muestra la tecnología de Coral Calero; o las tecnologías asociadas a la trazabilidad como la xAI. 

Se habla de ética, sí, pero también de cómo trasladar esta ética al plano de la ingeniería. Y es en esto donde la historia nos demuestra que una estandarización, que no deja de ser una reglamentación, es base de innovación y de desarrollo económico.

juanDeLaCruz_MadridAI

Autor: Juan de la Cruz

Juan de la Cruz es Ingeniero del Estado especialista en Redes Móviles y Sistemas Informáticos en el MINDEF y responsable técnico de Internet de las Cosas en Telefonica Global Solutions (en excedencia).

En la actualidad es impulsor en Madrid AI, dentro de la asociación Spain AI. Está posgraduado en informática por la Universidad de Alcalá y actualmente investiga sobre Inteligencia Artificial en el Departamento de Filosofía de la Universidad del País Vasco. Ha impartido clases en el Instituto de Internet de las Cosas de Madrid y en la Secretaría de Estado de Digitalización e IA a través de OdiseIA. Es primer premio de la Cátedra Telefónica de la Universidad de Alcalá 2011.