mayo 22, 2024

Eventoplus Argentina

Manténgase al tanto de los últimos desarrollos de Argentina sobre el terreno con noticias basadas en hechos, secuencias de video exclusivas, fotos y mapas actualizados de Eventoplus.

¿Por qué fue tan difícil aprobar la histórica ley de IA de la UE?

¿Por qué fue tan difícil aprobar la histórica ley de IA de la UE?

Cuando los legisladores europeos llegaron a un acuerdo provisional sobre normas históricas de IA la semana pasada, tenían motivos para celebrar.

Se ha alcanzado la ley de la UE sobre inteligencia artificial El clímax tan esperado es el viernes. Esto se produce después de dos años de debates de amplio alcance, y también después de una discusión “maratoniana” de tres días entre la Comisión Europea, el Parlamento Europeo y los Estados miembros de la UE para resolver diferencias. Ha estado retirado toda la noche.. Cajas llenas de Sobras de café, bebidas energéticas y snacks azucarados. Este era el entorno que se esperaría de los estudiantes que se preparan para los exámenes finales, no de los legisladores que trabajan en una legislación que podría establecer un plan para regular la IA global. El caos se debe en gran medida a dos temas polémicos que amenazaron con descarrilar todas las negociaciones: el reconocimiento facial y los modelos “de referencia” sólidos.

¿Cuándo se propuso por primera vez la Ley de Inteligencia Artificial? En abril de 2021Su objetivo era combatir “nuevos riesgos o consecuencias negativas para los individuos o la sociedad” que la inteligencia artificial podría provocar. La ley se centró en herramientas ya utilizadas en áreas como la policía, el empleo y la educación. Pero aunque el objetivo general del proyecto de ley no ha cambiado, la tecnología de inteligencia artificial sí ha cambiado. un acto -Y rápido. Las reglas propuestas no estaban bien equipadas para manejar sistemas de propósito general ampliamente llamados arquetipos, como la tecnología subyacente al enormemente popular ChatGPT de OpenAI, que se lanzó en noviembre de 2022.

Gran parte del retraso de último minuto se debe a que los formuladores de políticas se esfuerzan por garantizar que las nuevas tecnologías de inteligencia artificial, así como las tecnologías futuras aún por desarrollar, entren dentro del alcance de la legislación. En lugar de simplemente regular cada campo en el que puedan aparecer (una lista que incluye automóviles, juguetes, dispositivos médicos y mucho más), utilice la ley. Un sistema de niveles que clasifica las aplicaciones de IA según el riesgo. Los sistemas de IA de “alto riesgo” que podrían afectar la seguridad o los derechos fundamentales han estado sujetos a restricciones regulatorias más estrictas. Además, los sistemas de inteligencia artificial de propósito general (GPAI), como los modelos GPT de OpenAI, se han enfrentado a regulaciones adicionales. Los riesgos asociados con esta clasificación eran altos y, por lo tanto, la controversia en torno a ella fue intensa.

READ  Declaración de la secretaria de prensa Karen Jean-Pierre sobre el viaje del presidente Biden a Vietnam

“En un momento, parecía que las tensiones sobre cómo se regularía la GPAI podrían descarrilar todo el proceso de negociación”, dice Daniel Laufer, analista senior de políticas de Access Now, una organización digital de derechos humanos. «Ha habido una presión significativa por parte de Francia, Alemania e Italia para excluir completamente estos sistemas de cualquier obligación bajo la ley de IA».

Francia, Alemania e Italia buscaron compromisos de último momento sobre modelos básicos de IA

Estos países, tres de las mayores economías de Europa, Las turbulentas negociaciones comenzaron en noviembre Debido a la preocupación de que restricciones estrictas puedan hacerlo Limitar la innovación Y perjudicando a las nuevas empresas que desarrollan modelos fundamentales de IA en sus jurisdicciones. Estas preocupaciones iban en contra de las de otros legisladores de la UE que intentaron imponer regulaciones estrictas sobre cómo se utiliza y desarrolla. Este problema de último minuto en las negociaciones sobre la ley de IA contribuyó a retrasar un acuerdo, pero no fue el único punto conflictivo.

De hecho, parece que gran parte de la legislación actual seguía sin resolverse incluso días antes de que se alcanzara el acuerdo provisional. Durante una reunión entre Ministros europeos de Comunicaciones y Transportes El 5 de diciembre«La regulación de la IA en su conjunto aún no está completamente madura», afirmó el Ministro Digital alemán, Volker Vissing.

Los sistemas GPAI se han enfrentado a requisitos como la divulgación de datos de capacitación, consumo de energía e incidentes de seguridad, además de estar sujetos a evaluaciones de riesgos adicionales. Como era de esperar, OpenAI (una empresa conocida por negarse a revelar detalles sobre su trabajo), GoogleY Microsoft presionó a la Unión Europea Para aliviar regulaciones más estrictas. Parece que estos intentos han dado sus frutos. Si bien los legisladores han considerado previamente la clasificación todos Las GPAI se consideran de “alto riesgo”; en cambio, el acuerdo alcanzado la semana pasada las somete a un sistema de dos niveles que permite a las empresas cierto margen de maniobra para evitar las restricciones más duras de la Ley de IA. También esto, Probablemente contribuyó a retrasos de último momento. Fue disuelto en Bruselas la semana pasada.

READ  La guerra entre Israel y Hamás y la tregua en Gaza se prolongan por séptimo día

«Al final, obtuvimos obligaciones de transparencia mínimas para los sistemas GPAI, con algunos requisitos adicionales para los llamados sistemas GPAI de ‘alto impacto’ que plantean un ‘riesgo sistémico'», dice Laufer, pero todavía hay una «larga lucha». “Por delante para garantizar que la supervisión de estas medidas y su implementación funcionen correctamente.

También existe una categoría más estricta: los sistemas con un nivel de riesgo «inaceptable», que está completamente prohibido por la ley de IA. En las negociaciones hasta las últimas horas, los Estados miembros también Todavía entrenando más Es controvertido si esto debería incluir algunas de las herramientas de vigilancia de alta tecnología más controvertidas.

La prohibición total de los sistemas de inteligencia artificial de reconocimiento facial ha sido objeto de una fuerte oposición

El Parlamento Europeo primero Dio luz verde a la prohibición total de los sistemas biométricos para la vigilancia pública masiva En julio. Esto incluyó la creación de bases de datos de reconocimiento facial mediante la extracción aleatoria de datos de redes sociales o imágenes de CCTV; sistemas policiales predictivos basados ​​en la ubicación y el comportamiento pasado; Clasificación biométrica basada en características sensibles como raza, religión, etnia, género, ciudadanía y afiliación política. También prohibió la identificación biométrica remota retroactiva y en tiempo real, con la única excepción de permitir que las fuerzas del orden utilicen sistemas de identificación retardada para procesar “delitos graves” después de la aprobación judicial. Comisión Europea y Estados miembros de la UE Él se opuso a ello Y obtuve concesiones – para algunos Los críticos entran en pánico.

El borrador aprobado el viernes incluye excepciones que permiten el uso limitado del reconocimiento facial automatizado, como los casos en los que la identificación se realiza después de un retraso significativo. También puede aprobarse para casos de uso específicos de aplicación de la ley que impliquen amenazas a la seguridad nacional, pero sólo bajo ciertas circunstancias (actualmente no especificadas). Es probable que esto apacigue a miembros del bloque como Francia, que ha impulsado el uso de vigilancia asistida por IA. Monitorear cosas como el terrorismo y el siguiente Juegos Olímpicos de 2024 en ParísPero organizaciones de derechos humanos como Amnistía Internacional se mostraron más críticas con esta decisión.

«Es decepcionante ver que el Parlamento Europeo cede a la presión de los Estados miembros para que se aparte de su posición original». Mhir Akobian dijo, Asesor de promoción sobre la regulación de la IA en Amnistía Internacional. “Aunque sus defensores argumentan que el borrador sólo permite un uso limitado del reconocimiento facial y está sujeto a salvaguardias, la investigación realizada por Amnistía Internacional en… Ciudad de Nueva York, territorio palestino ocupado, Hyderabady en otro lugar explica que no existen salvaguardias que puedan prevenir el daño que la tecnología de reconocimiento facial causa a los derechos humanos, razón por la cual se necesita una prohibición total.

READ  Chiara Ferragni se disculpa por engañar a sus fans con una venta de pasteles de Navidad 'benéfica' | Noticias de artes y artes.

Para complicar más las cosas, no podemos entrar en ninguno de ellos. específico Se han llegado a compromisos, porque el texto completo de la ley sobre IA aprobada no estará disponible hasta dentro de varias semanas. Técnicamente, probablemente aún no exista oficialmente dentro de la UE. Absolutamente. Dice que los compromisos sobre estos acuerdos a menudo dependen de principios más que de una redacción precisa. Michael Phil, profesor asociado de regulación y derechos digitales en la Facultad de Derecho de UCLA. Esto significa que los legisladores pueden tardar algún tiempo en perfeccionar el lenguaje legal.

Además, dado que sólo se ha alcanzado un acuerdo temporal, la legislación final aún está sujeta a cambios. No hay un cronograma oficial disponible, pero los expertos en políticas parecen estar más o menos de acuerdo en sus estimaciones: se espera que la Ley de IA se convierta en ley a mediados de 2024 después de su publicación en el Diario Oficial de la Unión Europea, con todas las disposiciones. entrará en vigor gradualmente durante los próximos dos años.

Esto les da a los responsables de las políticas algo de tiempo para determinar exactamente cómo implementar estas reglas. Las empresas de IA también pueden aprovechar este tiempo para garantizar que sus productos y servicios cumplan con las normas cuando las disposiciones entren en vigor. En última instancia, esto significa que es posible que no veamos todo regulado dentro de la ley de IA hasta mediados de 2026. En años de desarrollo de la IA, eso es Hace mucho tiempo – Para entonces, es posible que tengamos toda una nueva serie de cuestiones que abordar.