More
    InicioNoticiasEntra en vigor la Ley Europea de Inteligencia Artificial

    Entra en vigor la Ley Europea de Inteligencia Artificial

    Hoy en día, el Ley Europea de Inteligencia Artificial (Ley IA)el primer reglamento integral del mundo sobre inteligencia artificial, entra en vigor. La Ley de IA está diseñada para garantizar que la IA desarrollada y utilizada en la UE sea confiable, con salvaguardas para proteger los derechos fundamentales de las personas. El reglamento tiene como objetivo establecer un mercado interior armonizado para la IA en la UE, fomentando la adopción de esta tecnología y Creando un ambiente de apoyo para la innovación y la inversión.

    La Ley de IA introduce una definición prospectiva de IA, basada en un enfoque basado en la seguridad del producto y el riesgo en la UE:

    • Riesgo mínimo:La mayoría de los sistemas de IA, como los sistemas de recomendación habilitados por IA y los filtros de spam, entran en esta categoría. Estos sistemas no enfrentan obligaciones en virtud de la Ley de IA debido al riesgo mínimo que presentan para los ciudadanos. derechos y seguridad. Las empresas pueden adoptar voluntariamente códigos de conducta adicionales.
    • Riesgo específico de transparencia:Sistemas de IA como chatbots Debe informar claramente a los usuarios que están interactuando con una máquina.. Algunos contenidos generados por IA, incluidas las falsificaciones profundas, deben etiquetarse como tales, y los usuarios deben estar informados cuando se utilizan sistemas de categorización biométrica o de reconocimiento de emociones. Además, los proveedores deberán diseñar sistemas de manera que el contenido sintético de audio, vídeo, texto e imágenes esté marcado en un formato legible por máquina y sea detectable como generado o manipulado artificialmente.
    • Alto riesgo: Los sistemas de IA identificados como de alto riesgo deberán cumplir con requisitos estrictosincluidos sistemas de mitigación de riesgos, conjuntos de datos de alta calidad, registro de actividades, documentación detallada, información clara para los usuarios, supervisión humana y un alto nivel de robustez, precisión y ciberseguridad. Los entornos de pruebas regulatorios facilitarán la innovación responsable y el desarrollo de sistemas de IA que cumplan con las normas. Entre estos sistemas de IA de alto riesgo se incluyen, por ejemplo, los sistemas de IA utilizados para la contratación, para evaluar si alguien tiene derecho a obtener un préstamo o para operar robots autónomos.
    • Riesgo inaceptable: Los sistemas de IA considerados una clara amenaza a los derechos fundamentales de las personas serán… prohibido. Esto incluye sistemas o aplicaciones de IA que manipulan el comportamiento humano para burlar la libre voluntad de los usuarios, como juguetes que utilizan asistencia de voz para fomentar comportamientos peligrosos de los menores, sistemas que permiten la «puntuación social» por parte de gobiernos o empresas y ciertas aplicaciones de vigilancia predictiva. Además, se prohibirán algunos usos de los sistemas biométricos, por ejemplo, los sistemas de reconocimiento de emociones utilizados en el lugar de trabajo y algunos sistemas de categorización de personas o de identificación biométrica remota en tiempo real para fines de aplicación de la ley en espacios de acceso público (con excepciones limitadas).

    Para complementar este sistema, la Ley de IA también introduce normas para los llamados modelos de IA de propósito generalque son modelos de IA de gran capacidad diseñados para realizar una amplia variedad de tareas, como generar texto similar al de los humanos. Los modelos de IA de propósito general se utilizan cada vez más como componentes de aplicaciones de IA. La Ley de IA garantizará la transparencia a lo largo de la cadena de valor y abordará los posibles riesgos sistémicos de los modelos más capaces.

    Aplicación y cumplimiento de las normas de IA

    Los Estados miembros tienen hasta el 2 de agosto de 2025 para designar a las autoridades nacionales competentes, que supervisarán la aplicación de las normas sobre sistemas de IA y llevarán a cabo actividades de vigilancia del mercado. La Comisión Oficina de IA Será el organismo clave de implementación de la Ley de IA a nivel de la UE, así como el encargado de hacer cumplir las normas de propósito general. Modelos de IA.

    Tres órganos consultivos apoyarán la aplicación de las normas. Consejo Europeo de Inteligencia Artificial garantizará una aplicación uniforme de la Ley de IA en todo el mundo UE Estados miembros y actuará como órgano principal de cooperación entre la Comisión y los Estados miembros. Un panel científico de expertos independientes Ofrecerá asesoramiento técnico y aportes sobre la aplicación de la ley. En particular, este panel puede emitir alertas a la Oficina de IA sobre los riesgos asociados a los modelos de IA de propósito general. La Oficina de IA también puede recibir orientación de un foro consultivocompuesto por un conjunto diverso de partes interesadas.

    Las empresas que no cumplan las normas serán multadas. Las multas podrían ascender hasta el 7% de la facturación anual global por infracciones de aplicaciones de inteligencia artificial prohibidas, hasta el 3% por infracciones de otras obligaciones y hasta el 1,5% por proporcionar información incorrecta.

    Próximos pasos

    La mayoría de las normas de la Ley de IA entrarán en vigor el 2 de agosto de 2026. Sin embargo, las prohibiciones de los sistemas de IA que se consideren que presentan un riesgo inaceptable se aplicarán ya después de seis meses, mientras que las normas para los denominados modelos de IA de propósito general se aplicarán después de 12 meses.

    Para superar el período de transición antes de la plena aplicación, la Comisión ha puesto en marcha el Pacto de IAEsta iniciativa invita a los desarrolladores de IA a adoptar voluntariamente las obligaciones clave de la Ley de IA antes de las fechas límite legales.

    La Comisión también está elaborando directrices para definir y detallar cómo debe implementarse la Ley de IA y facilitando instrumentos de corregulación como estándares y códigos de práctica. una convocatoria de manifestaciones de interés participar en la elaboración del primer Código de prácticas de IA de propósito general, así como un consulta de múltiples partes interesadas brindar a todas las partes interesadas la oportunidad de expresar su opinión sobre el primer Código de Prácticas en virtud de la Ley de IA.

    Fondo

    El 9 de diciembre de 2023, el La Comisión acogió con satisfacción el acuerdo político sobre la Ley de Inteligencia Artificial. El 24 de enero de 2024 La Comisión ha puesto en marcha un paquete de medidas para apoyar a las empresas emergentes y pymes europeas en el desarrollo de una IA fiable. El 29 de mayo de 2024, la Comisión Inauguró la Oficina de Inteligencia Artificial. El 9 de julio de 2024 el Entró en vigor el Reglamento modificado de la Comisión Europea EuroHPClo que permite la creación de fábricas de IA. Esto permite utilizar supercomputadoras de IA dedicadas al entrenamiento de modelos de IA de propósito general (GPAI).

    Investigación independiente y basada en evidencia continua producida por El Centro Común de Investigación (CCI) Ha sido fundamental a la hora de dar forma a las políticas de IA de la UE y garantizar su implementación efectiva.

    We acknowledge The European Times for the information.

    No te lo pierdas

    Translate »