Durante la reunión que tuvo lugar el 2 de febrero de 2024, el Consejo de Representantes Permanentes (Coreper) de los Estados votó por unanimidad sobre la Ley de IA, la primera regulación mundial sobre la IA, aprobando el acuerdo político alcanzado en diciembre.
El pasado mes de diciembre, los colegisladores (Parlamento, Consejo y Comisión de la UE) llegaron a un acuerdo político provisional sobre el proyecto de ley. En este sentido, la laboriosidad del asunto por las diversas razones relacionadas con la posibilidad de generar daños, ya que la IA aún no es una tecnología completamente fiable y, por lo tanto, arriesgada en diferentes contextos (social, económico, político y cultural) ha generado diversas críticas y escepticismo en algunos países de la UE precisamente por algunos puntos regulatorios considerados demasiado rígidos.
En enero, la presentación de la versión final de la legislación provocó varias reservas y endurecimientos en Francia, Italia y Alemania, que querían volver a debatir las medidas relativas al uso de la IA generativa ante un régimen regulatorio más ligero que el texto propuesto hasta ese momento: abogaron por códigos de conducta sin un régimen sancionador inicial para los modelos básicos, sistemas de IA que utilizan innumerables datos para proporcionar resultados adaptados incluso a actividades específicas (por ejemplo, GPT4), en lugar de obligaciones, prescripciones previsto en el reglamento sobre inteligencia artificial.
Se trata de proteger a las empresas emergentes europeas prometedoras (por ejemplo, la francesa Mistral AI y la alemana Aleph Alpha) que podrían ser competidores potenciales de las empresas estadounidenses.
Por el contrario, el Parlamento Europeo se ha mostrado unido precisamente al exigir normas estrictas para estos modelos, ya que considera inaceptable excluir de la regulación los tipos de IA más potentes y dejar toda la carga reguladora en manos de los actores más pequeños.
Se produjeron varias fases de negociación a lo largo del mes, que al principio de la semana invirtieron la situación, lo que llevó a Alemania a apoyar el texto, seguida de Italia, el único país de los tres que no tiene (todavía) una startup ya identificada como líder en el sector de la IA, que decidió no oponerse, quizás precisamente de cara al próximo G7 en Roma, donde la IA será uno de los temas principales. Finalmente, el 2 de febrero, Francia también decidió aceptar el texto.
Ahora, los 27 estados miembros han aprobado por unanimidad el acuerdo político de diciembre, reconociendo el equilibrio alcanzado por los negociadores entre innovación y seguridad.
El texto completo debe ser sometido a votación en el Consejo y el Parlamento. Su aprobación final está prevista para el 24 de abril de 2024.
Marco regulatorio para promover el desarrollo tecnológico
Entre las medidas de apoyo a las pymes y a las empresas emergentes innovadoras, el texto actual prevé y promueve, para el período de transición que precede a la aplicación general, el Pacto por la IA dirigido a todos los desarrolladores de IA a nivel mundial, quienes, de forma voluntaria, querrán comprometerse a cumplir las obligaciones de la legislación antes de su aplicación.
Además, se lanzarán los llamados sandboxes regulatorios establecidos por las autoridades nacionales para desarrollar y entrenar inteligencia artificial innovadora antes de su comercialización: es decir, entornos de prueba exentos de normas (un poco como el modelo que había anticipado Ian Hogarth, actual presidente del grupo de trabajo modelo de la Fundación de Inteligencia Artificial del gobierno británico, descrito en este artículo, ed.). Esto se debe a que el incumplimiento de las normas establecidas en el texto conllevaría sanciones que oscilarían entre los 35 millones de euros o el 7% de la facturación mundial, y los 7,5 millones o el 1,5% de la facturación, según el tipo de infracción y el tamaño de la empresa en la que se incurra.
Fuente: Startupbusiness