El pasado miércoles, la Comisión Europea dio luz verde a un Libro Blanco en el que plantea un debate para la futura regulación de inteligencia artificial, con la vista puesta en determinados ámbitos que considera de ‘alto riesgo’ por las implicaciones legales, éticas y técnicas que, potencialmente, pueden afectar a los derechos fundamentales de los ciudadanos. Es algo que sabíamos que iba a suceder, un tema que merece ser estudiado, pero que innegablemente nos sitúa ante una encrucijada: entre el deseo de querer ser relevantes en este ámbito y el de no conseguirlo a cualquier precio.
Europa, que ya ha perdido más de un tren digital respecto a Estados Unidos o China, quiere estar a la altura en lo que al negocio de los datos y la inteligencia artificial se refiere. Sin embargo, no son pocos los que ven aquí una contradicción de manual. Solo el hecho de plantear el debate sobre una regulación demasiado exigente, puede suponer ser menos competitivo en una carrera cuyos competidores parecen estar más dispuestos a pedir perdón, que a pedir permiso.
Bruselas ha puesto sobre la mesa el enfoque europeo y las nuevas iniciativas destinadas al sector digital. El Libro Blanco sobre Inteligencia Artificial, guía del futuro desarrollo legislativo, sentará las bases y marcará los límites que las empresas, consolidadas y emergentes, deberán conocer para no cruzar, de forma intencionada o ‘accidental’, ciertas líneas rojas. Porque, efectivamente, la Comisión Europea se muestra especialmente cautelosa ante la idea de que una inteligencia artificial se aplique sin atender a ciertos límites en sectores marcados como ‘sensibles’: salud, seguridad, transporte o justicia. Casos tan polémicos y mediáticos como el de los sistemas de reconocimiento facial y vigilancia ciudadana en China, constatan la necesidad de valorar en qué casos está justificado aplicar este tipo de soluciones, pero también sobre qué se considera sensible y quién lo decide. En cuestiones de esta índole, la arbitrariedad y el sesgo a la hora de etiquetar lo que se considera como ‘alto riesgo’ y lo que no, debería preocupar.
Tanto es así que, con una sensación de cierta urgencia ante lo que estaba por venir, el High-Level Expert Group on Artificial Intelligence, un grupo de expertos pertenecientes a estamentos educativos, sociales y empresariales de diferentes industrias, envió a la Comisión Europea hace escasos meses un primer informe sobre Inteligencia Artificial con una serie de recomendaciones para la elaboración del libro blanco y cuyo enfoque es fundamentalmente human-centric, pivotando sobre la seguridad, la transparencia, la privacidad y la lucha contra la discriminación.
Una cuestión que, tratada con la profundidad e importancia que parecen querer otorgarle desde la comisión, llegará a suponer un lastre si se tienen en cuenta las cifras que arrojan diversos estudios y que pueden demostrar que lo último que necesita Europa son más trabas: solamente 2 de las 30 principales tecnológicas del mundo son europeas, solo un 25% de las startups de Inteligencia Artificial tienen su origen en el viejo continente y apenas un 10% de los unicornios digitales han surgido dentro de sus fronteras. Querer exigir que sistemas de Inteligencia Artificial globales tengan que entrenarse específicamente bajo el marco regulatorio excesivamente rígido que parece querer imponer la UE, situará al ecosistema en el carril lento en cuanto a la adopción y aprovechamiento de los beneficios de esta tecnología.
Pese a que las grandes tecnológicas, principales impulsoras de la Inteligencia Artificial, han definido una serie de principios éticos para el uso y desarrollo de esta tecnología, desde la Comisión Europea afirman que no solo se trata de tener un marco ético, sino legislativo. Lo contrario, afirman, supondría poner en riesgo valores fundamentales como los de justicia e igualdad. El enfoque ético de las empresas supone un primer paso, pero en Europa creen que sigue sin ser suficiente ya que las normas éticas tienen menos de norma que de buenas intenciones, dado que su no cumplimiento no acarrea ningún tipo de sanción o multa.
Querer exigir que sistemas de Inteligencia Artificial globales tengan que entrenarse específicamente bajo el marco regulatorio excesivamente rígido que parece querer imponer la UE, situará al ecosistema en el carril lento en cuanto a la adopción y aprovechamiento de los beneficios de esta tecnología.
En cualquier caso, quienes realmente tienen la capacidad de reacción ante una legislación restrictiva son, precisamente, los gigantes del sector tecnológico. Ampliar las ya de por sí taxativas disposiciones en materia de responsabilidad y seguridad en torno a la Inteligencia Artificial, no hará otra cosa que dificultar la innovación de emprendedores y startups. Otra piedra más en el camino y ante la cual se verán en la tesitura de abandonar u optar por operar en mercados indiscutiblemente más flexibles.
De cualquier forma, desde Europa se insiste en que la intención es establecer un marco regulatorio flexible y que, en ningún caso, resulte contraproducente de cara a garantizar la competitividad de los stakeholders europeos. En AES estamos satisfechos con el hecho de que la Unión Europea se tome en serio el impulso de la digitalización y, más concretamente, el de la Inteligencia Artificial. Sin embargo, nos preocupa que este White Paper siente las bases de una futura legislación que, aún con buenas intenciones, no sepa adaptarse a la especificidad de un sector que no espera a nadie. Se abre a partir de ahora un gran debate público en el que participaremos para que la visión de las startups sea tenida en cuenta en la futura regulación.