La regulación de la inteligencia artificial (IA) ha cobrado una gran relevancia en los últimos 18 meses, impulsada por el auge de esta propia tecnología. La Unión Europea ha tomado la iniciativa en la creación de una normativa que establezca lineamientos para su desarrollo y uso. Las normas, que se votarán en el Parlamento Europeo el próximo 10 y 11 de abril, buscan garantizar la interacción ética y legal de la IA en nuestro día a día. Tras la votación, la legislación entrará en vigor en 20 días.
La normativa establece una clasificación de la IA en función del riesgo que representa. Algunas aplicaciones de "riesgo inaceptable" estarán prohibidas seis meses después de la aprobación. Las obligaciones para modelos como ChatGPT se aplicarán al cabo de un año, y las demás reglas al cabo de dos. En la práctica, la implementación total se espera para finales del 2026.
Tras la entrada en vigor de la ley, las organizaciones y los desarrolladores deberán evaluar sus sistemas de IA para situarlos en uno de los cuatro niveles definidos. Dependiendo de la categoría, diferentes responsabilidades recaerán sobre el desarrollador o el usuario
.En enero de este año, durante el encuentro en Davos, se abordaron los posibles riesgos de la IA, especialmente de los modelos generativos, dada su amplia aplicación. Se alertó sobre su potencial para la desinformación, ligada a los sesgos que pueden surgir al entrenarlos con información amplia y sesgada. Sin embargo, la nueva ley contempla estos posibles riesgos, además de otros como la huella de carbono que dejan estos sistemas e intenta adelantarse a los posibles efectos socioeconómicos a largo plazo, que todavía son inciertos. Así, la normativa establece medidas para mitigar estos riesgos.
¿Qué exige la regulación para garantizar el desarrollo y uso responsable de la IA?
"Después de tres años, la legislación que define las obligaciones y normas para la IA está a punto de convertirse en una realidad. Esta tecnología, con un poder transformador sin precedentes, ya está presente en diversos sectores y en la vida cotidiana de millones de personas. Sin embargo, es una realidad que esta innovación puede tener tantas posibilidades como riesgos, si no se desarrolla y utiliza correctamente. La nueva regulación busca fomentar una IA responsable y ética, garantizando la privacidad y seguridad de los ciudadanos europeos. Estas directrices exigen a los proveedores de IA un mayor control en el proceso de desarrollo de sus sistemas", señala Jesús Aguilera, Artificial Intelligence & Analytics Presales Manager para SAS en Iberia.
"Más que un cambio tecnológico, las organizaciones ahora se enfrentan a un cambio cultural y de procesos. Para ello, la capacitación de los empleados en el uso ético de la tecnología será fundamental. Es importante recordar que los sesgos presentes en la cultura de una empresa pueden ser amplificados por la IA generando un riesgo que debe ser mitigado. Lograr una IA explicable, transparente y trazable es posible. En SAS, aplicamos un enfoque de ética por diseño desde hace años, lo que nos permite garantizar la innovación responsable y la creación de soluciones seguras para nuestros clientes. No podemos olvidar que una IA fiable comienza antes de que se escriba la primera línea de código", subraya.
Además, "adoptar una gobernanza de la IA que sea coherente con los valores de la organización, y que sea capaz de adaptarse a los cambios y avances tecnológicos, es un compromiso constante. Cada vez más empresas están creando comités de IA para asegurar el control y cumplimiento de la normativa. La combinación de cambios en los procesos, herramientas de medición y supervisión, e informes comprensibles que evidencien el uso adecuado de los modelos de IA, permitirá a las organizaciones cumplir con la ley y, al mismo tiempo, garantizar que sus sistemas se ejecutan de forma ética y responsable”, recalca Jesús Aguilera.