Ley de Inteligencia Artificial

Ley de Inteligencia Artificial

La inteligencia artificial (IA) es una tecnología que permite a las máquinas realizar tareas que normalmente requieren inteligencia humana, como el reconocimiento de imágenes, el procesamiento del lenguaje natural, la toma de decisiones o el aprendizaje automático. La IA tiene un gran potencial para mejorar la vida de las personas, la eficiencia de las organizaciones y el desarrollo de la sociedad. Sin embargo, la IA también plantea importantes desafíos en materia de privacidad, protección de datos, ética y responsabilidad.

 

Para hacer frente a estos desafíos y garantizar un uso seguro, fiable y respetuoso de la IA, la Unión Europea (UE) ha propuesto la primera ley de inteligencia artificial del mundo, que se conoce como Ley de Inteligencia Artificial o IA Act. Esta ley tiene como objetivos regular la IA en base a sus riesgos, fomentar la inversión y la innovación en el ámbito de la IA, y proteger los derechos y valores fundamentales de los ciudadanos europeos.

 

 En nuestro artículo, El reglamento (RGPD) y la inteligencia artificial, podrás conocer la adecuación de la IA al RGPD.

 

En este artículo se explican los principales aspectos de la Ley de Inteligencia Artificial, y se analiza su impacto en la UE y en España, así como las iniciativas que se están llevando a cabo para promover un desarrollo ético y responsable de la IA.

 

 

Evaluación de la Inteligencia Artificial Fiable

 

 

¿Qué es la Ley de Inteligencia Artificial de la UE?

La Ley de Inteligencia Artificial de la UE es el primer Reglamento de la UE para la IA, que se basa en la propuesta de la Comisión Europea del 2021, y que ha sido aprobado por el Consejo y el Parlamento Europeo en diciembre de 2023. Esta ley establece unas normas armonizadas en materia de IA, que se aplicarán a todos los proveedores y usuarios de sistemas de IA que operen en la UE o que ofrezcan sus servicios en el mercado único digital.

 

La ley define la IA como «la capacidad de una máquina de realizar tareas que normalmente requieren inteligencia humana, como el razonamiento, la comprensión, el aprendizaje, la planificación, la resolución de problemas o la creatividad«. La ley también clasifica los sistemas de IA según el nivel de riesgo que suponen para los derechos y la seguridad de las personas, y establece unos requisitos y obligaciones específicos para cada categoría.

 

La ley tiene dos objetivos principales: garantizar que los sistemas de IA utilizados en la UE sean seguros, fiables y respetuosos con los valores y derechos fundamentales, y fomentar el desarrollo y la innovación de la IA en la UE. La ley pretende crear un ecosistema europeo de excelencia y confianza en la IA, que contribuya al progreso social, económico y ambiental.

 

 

¿Cuándo entrará en vigor la ley de inteligencia artificial (IA ACT)?

La ley de inteligencia artificial entrará en vigor dos años después de su publicación en el Diario Oficial de la UE, que fue a principios de 2024. Esto significa que la ley será aplicable a partir de 2026, y que los proveedores y usuarios de sistemas de IA tendrán un periodo de transición para adaptarse a las nuevas normas.

 

La ley también prevé la creación de un sistema de gobernanza y supervisión de la IA a nivel europeo y nacional, que incluye la creación de un Comité Europeo de Inteligencia Artificial, que será el órgano consultivo y de coordinación de la Comisión Europea y de las autoridades nacionales competentes en materia de IA. El Comité tendrá como funciones asesorar, asistir y facilitar el intercambio de información y buenas prácticas sobre la aplicación de la ley.

 

Asimismo, la ley establece que cada Estado miembro deberá designar una o varias autoridades nacionales competentes en materia de IA, que serán las responsables de supervisar, controlar y hacer cumplir la ley en su territorio. Estas autoridades deberán cooperar entre sí y con la Comisión Europea, y podrán imponer sanciones administrativas a los infractores de la ley, que podrán alcanzar hasta el 6% del volumen de negocio anual global de la empresa.

 

 

Ámbito de aplicación de la ley de inteligencia artificial (IA ACT)

La ley de inteligencia artificial se aplicará a todos los proveedores y usuarios de sistemas de IA que operen en la UE o que ofrezcan sus servicios en el mercado único digital, independientemente de su lugar de establecimiento. Esto significa que la ley afectará tanto a las empresas europeas como a las extranjeras que quieran acceder al mercado europeo de la IA.

 

La ley también se aplicará a los sistemas de IA que se utilicen exclusivamente con fines militares o de defensa, siempre que estén sujetos al Derecho de la UE. Sin embargo, la ley no se aplicará a los sistemas de IA que se utilicen fuera del ámbito de aplicación del Derecho de la UE, ni a los que afecten a las competencias de los Estados miembros en materia de seguridad nacional.

 

Además, la ley prevé algunas excepciones para los sistemas de IA que se utilicen con fines de investigación e innovación, siempre que se cumplan ciertas condiciones, como que el uso sea temporal, limitado y controlado, que se respeten los derechos y libertades de las personas, y que se adopten medidas de seguridad adecuadas.

 

 

Ley de Inteligencia Artificial (IA Act), aproximación basada en el riesgo

La ley clasifica los sistemas de IA en cuatro categorías de riesgo: inaceptable, alto, limitado y mínimo.

 

  • Los sistemas de IA de riesgo inaceptable son aquellos que contravienen los valores y principios fundamentales de la UE, y que por tanto quedan prohibidos. Se trata de sistemas de IA que pueden causar daños irreversibles, irreparables o irrecuperables a las personas, como la manipulación de la conducta humana, la explotación de las vulnerabilidades de las personas, la vigilancia masiva o la puntuación social generalizada.

 

  • Los sistemas de IA de riesgo alto son aquellos que pueden tener un impacto significativo en los derechos y libertades de las personas, o que pueden afectar a aspectos esenciales de su vida, como el empleo, la educación, la salud, la justicia o la seguridad. Se trata de sistemas de IA que deben cumplir una serie de requisitos y obligaciones antes y después de su introducción en el mercado, como la evaluación de la conformidad, el registro en una base de datos europea, la transparencia, la supervisión humana, la precisión, la robustez, la seguridad o la trazabilidad.

 

  • Los sistemas de IA de riesgo limitado son aquellos que pueden tener un impacto moderado en los derechos y libertades de las personas, o que pueden generar una expectativa razonable de privacidad, como los sistemas de IA que interactúan con las personas, que reconocen las emociones o las características biométricas, o que generan o manipulan imágenes, audio o vídeo. Se trata de sistemas de IA que deben cumplir una obligación de transparencia, es decir, que deben informar a las personas de que están interactuando con un sistema de IA, y de las capacidades y limitaciones del mismo.

 

  • Los sistemas de IA de riesgo mínimo son aquellos que tienen un impacto bajo o nulo en los derechos y libertades de las personas, o que tienen un uso ampliamente aceptado y beneficioso para la sociedad, como los sistemas de IA que se utilizan para fines de ocio, de cultura, de arte o de entretenimiento. Se trata de sistemas de IA que quedan exentos de las obligaciones específicas de la ley, pero que deben respetar el resto de la normativa aplicable, como el RGPD o la Directiva sobre comercio electrónico.

 

 

Prohibiciones de la ley de inteligencia artificial (IA ACT)

La ley de inteligencia artificial prohíbe el uso de los sistemas de IA de riesgo inaceptable, que son aquellos que contravienen los valores y principios fundamentales de la UE, y que pueden causar daños irreversibles, irreparables o irrecuperables a las personas. Estos sistemas de IA son los siguientes:

 

Los sistemas de IA manipulan el comportamiento humano, las opiniones o las decisiones, mediante la explotación de las vulnerabilidades de las personas o mediante el uso de técnicas subliminales.

 

Los sistemas de IA que permiten la vigilancia social generalizada, mediante el seguimiento, la observación o el análisis del comportamiento o las características personales de las personas, de forma masiva, indiscriminada o sin su consentimiento.

 

Los sistemas de IA que permiten la identificación biométrica a distancia, mediante el reconocimiento facial, de huellas dactilares, de iris, de voz o de otras características físicas o biológicas, de forma masiva, indiscriminada o sin su consentimiento.

 

Los sistemas de IA que se utilizan con fines de evaluación o clasificación de las personas, mediante la asignación de un valor o una puntuación social, que puedan afectar negativamente a sus derechos, oportunidades o acceso a servicios.

 

Estas prohibiciones se basan en el principio de que la IA debe respetar la dignidad, la libertad, la igualdad, la democracia, el estado de derecho y los derechos humanos de las personas, y que no debe socavar los valores y principios fundamentales de la UE.

 

Aprende más sobre inteligencia artificial ciberseguridad.

 

 

Excepciones de la ley de inteligencia artificial (IA ACT)

La ley de inteligencia artificial prevé algunas excepciones para los sistemas de IA que se utilicen con fines de investigación e innovación, siempre que se cumplan ciertas condiciones, como que el uso sea temporal, limitado y controlado, que se respeten los derechos y libertades de las personas, y que se adopten medidas de seguridad adecuadas.

 

Además, la ley permite el uso de los sistemas de IA de riesgo inaceptable en algunos casos excepcionales, cuando se persigan objetivos de interés público, como la prevención, la investigación, la detección o el enjuiciamiento de delitos graves, la salvaguarda de la seguridad pública o la protección de los derechos y libertades de las personas. Estos casos excepcionales deberán estar autorizados por una autoridad nacional competente, y estar sujetos a una supervisión estricta y a unas garantías reforzadas.

 

Estas excepciones se basan en el principio de que la IA debe contribuir al bien común, al desarrollo sostenible y al progreso social, y que debe tener en cuenta el contexto y las circunstancias específicas de cada caso.

 

 

Evaluación de la Inteligencia Artificial Fiable

 

 

Las soluciones en ciberseguridad de Seifti

Seifti es una empresa que ofrece servicios de ciberseguridad y protección de datos para todo tipo de empresas. 

 

Ofrecemos una variedad de soluciones de seguridad cibernética, incluyendo servicios de consultoría, detección de amenazas, certificaciones o pruebas de phishing.

 

Los servicios de consultoría de seguridad cibernética de Seifti están diseñados para ayudar a las organizaciones a proteger sus activos y datos de las amenazas cibernéticas y mejorar su postura general de seguridad cibernética. Seifti también ofrece supervisión en tiempo real y detección de amenazas, lo que permite a las empresas detectar y responder rápidamente a las amenazas cibernéticas.

 

Además, Seifti ofrece soluciones de protección de datos, incluyendo el registro de actividades de procesamiento (ROPA) y servicios de consultoría ad-hoc sobre protección de datos. Estos servicios pueden ayudar a las empresas a cumplir con las regulaciones de privacidad de datos y proteger la información confidencial.

 

¡No pierdas más tiempo y contacta ya!

No Comments

Post a Comment

Ir al contenido