Blog de Bdeo

Todos los articulos

INTELIGENCIA ARTIFICIAL Y TECNOLOGÍA

La Ley de IA: ¿Qué es y cómo afectará al sector asegurador?

26 enero 2023 · Por Cecilia Vaquero

En la sociedad actual, la inteligencia artificial es cada vez más importante. Tiene innumerables aplicaciones, desde la creación de vehículos autónomos hasta el uso del reconocimiento facial en sistemas de seguridad. Sin embargo, estos avances suscitan a menudo cuestiones morales cruciales. ¿Cómo podemos salvaguardar la información personal y garantizar que la inteligencia artificial se desarrolle de forma responsable?

La Ley de IA

La Unión Europea ha reconocido la importancia de este reto y ha desarrollado un marco pionero de regulación de la inteligencia artificial para garantizar que sea segura y ética: la Ley de IA.

La Ley de Inteligencia Artificial de la Comisión Europea, presentada en abril de 2021, pretende crear un marco global para el desarrollo y la aplicación éticos de la inteligencia artificial (IA) en la Unión Europea (UE). El objetivo de la Ley es garantizar que los sistemas de IA se creen y desplieguen respetando los derechos fundamentales de las personas y promoviendo ideales sociales como la igualdad, la equidad y la transparencia. Además, especifica una serie de directrices éticas para la creación y aplicación de la IA, como la responsabilidad, la transparencia, el respeto de los derechos humanos, la diversidad, la no discriminación y el bienestar social y medioambiental.

El énfasis de la Ley en la idea de "agencia y supervisión humanas" es una de sus características más importantes. Esto significa que los sistemas de IA deben crearse y utilizarse de forma que den a las personas la libertad de elegir por sí mismas y garanticen la existencia de las salvaguardias necesarias para que los sistemas de IA rindan cuentas de sus actos.

Normas de "alto riesgo"

Para lograrlo, la Ley crea una serie de normas para los sistemas de IA de "alto riesgo", como los empleados en infraestructuras esenciales, sanidad o fuerzas de seguridad. Antes de su despliegue, estos sistemas deben someterse a una evaluación de riesgos para asegurarse de que no suponen ningún riesgo significativo para los derechos o intereses de las personas. Esto podría afectar al sector de los seguros, ya que la inteligencia artificial (IA) se utiliza cada vez más en una serie de aplicaciones relacionadas con los seguros, como la suscripción, la evaluación de riesgos y la tramitación de siniestros.

Las ramificaciones de la Ley de IA en el sector de los seguros aún no están claras. Sin embargo, las partes interesadas deben ser conscientes de que, si se consideran de alto riesgo, los sistemas de IA empleados en el sector de los seguros estarán sujetos a una amplia gama de requisitos, incluida la supervisión humana, la apertura, la ciberseguridad, la gestión de riesgos y las obligaciones de supervisión e información. Según fuentes de la Comisión Europea, el Parlamento Europeo podría votar la Ley de IA a finales de marzo de 2023. Si todo va según lo previsto, la normativa se aprobará a finales de 2023 y entrará en vigor dos años después.

Sin duda, la nueva legislación y normativa centradas en el uso y desarrollo de la IA influirán en el panorama de la IA en 2023.

Fuentes:

Benjamin, M. et al. (2022) What the draft European Union AI regulations mean for business, McKinsey & Company. McKinsey & Company. Disponible aquí.

Regulatory framework proposal on Artificial Intelligence (no date) Shaping Europe's digital future. Disponible aquí.

Johnson, K. (2021) The fight to define when AI is 'high risk', Wired. Conde Nast. Disponible aquí.

Comparte este post

Posts relacionados

-- Section not found --