Personas trabajando con personas

LA LEY DE INTELIGENCIA ARTIFICIAL PROHIBIRÁ LA BIOMETRÍA FACIAL Y REGULARÁ LOS “CHATBOT”

18 diciembre 2023
Imprimir
  • Solo permitirá los sistemas de biometrías para uso policial y en casos excepcionales

 

  • Veta el uso del reconocimiento de emociones en el ámbito laboral y educativo

 

 

  • El texto se aprobará en primavera y se aplicará dos años después de su publicación

 

La Comisión Europea, el Consejo Europeo y el Parlamento Europeo han llegado, por fin, a un acuerdo en las principales fricciones que tenían para crear la Ley de Inteligencia Artificial. De momento, no hay documento oficial hasta que los equipos técnicos terminen el texto, se apruebe por Consejo y Parlamento y se publique en el Diario Oficial de la UE, algo que se espera para primavera. Pero la UE ya ha avanzado en las líneas generales: se define qué es la Inteligencia Artificial (IA), se determinan los sistemas prohibidos, como el reconocimiento biométrico (sólo lo podrá usar la policía en casos excepcionales), el reconocimiento de emociones o sistemas que manipulen el comportamiento humano. También se regulan las IA más usadas, como ChatGPT. Así será el reglamento europeo y pionero a nivel mundial.

 

DEFINICIÓN DE IA

 

La UE ha logrado llegar a acuerdos en los principales temas de debate. Entre ellos, definir qué es la Inteligencia Artificial. Finalmente, se ha optado por alinear la definición con la de la OCDE para tratar de equiparar la nueva norma a otras iniciativas legislativas que se hagan en otros países en la medida que usen la misma definición, garantizando mayor seguridad jurídica.

 

BIOMETRÍA

 

Otro de los puntos conflictivos era si permitir o no el reconocimiento biométrico. Pablo Uslé, director de equipo del Departamento de IPTech de Baker McKenzie, señala que mientras el Parlamento quería prohibirlo por considerarlo un riesgo para los derechos fundamentales, el Consejo quería permitirlo. "Se ha llegado a un punto intermedio: se ha prohibido de manera general, pero se permite usar en situaciones excepcionales. Se diferenciará en si se usa en tiempo real o a posteriori. Si es a tiempo real, la restricción es mayor, y a posteriori menor. Por ejemplo, se puede utilizar a tiempo real para encontrar víctimas de delitos, como un secuestro, o para prevenir amenazas terroristas", explica.

 

SISTEMAS COMO “CHATBOT”

 

El tercer punto de mayor conflicto era determinar si había que regular los modelos fundacionales o las IA de propósito general (las más usadas por el público como los chatbot como ChatGPT). Finalmente se ha acordado regularlos en dos niveles. Según el experto de Baker, todas las IA de propósito general están sujetas a unas obligaciones de transparencia, por lo que tendrán que generar cierta documentación técnica o publicar resúmenes de los datos que han utilizado para entrenar a las IA. De otro lado, las IA de propósito general que se consideran de alto impacto con riesgo sistémico (porque tienen capacidades por encima de la media con respecto a lo que existe en el mercado) van a estar sujetas a obligaciones mayores, como realizar evaluaciones adicionales, implementar medidas de mitigación de los riesgos sistémicos, informar a la Comisión de los incidentes que se produzcan o hacer reportes de eficiencia energética, porque el entrenamiento de la IA genera un elevado coste energético.

 

PROHIBICIONES

 

La nueva ley prohíbe los sistemas de riesgo inaceptable. Por tanto, vetará el uso del scoring social (hacer una valoración de la persona por sus prácticas, como si se salta un semáforo o visita a sus familiares), también se prohíbe el reconocimiento de emociones en el lugar de trabajo o instituciones educativas (como saber si un alumno copia en un examen) y tampoco se permitirán los sistemas que manipulen el comportamiento humano para evitar que las personas puedan actuar libremente. Según Pablo Uslé, una de las cuestiones novedosas es que se ha incorporado la prohibición de hacer scraping (raspado) de imágenes de personas en internet o sistemas de videovigilancia para hacer bases de datos de reconocimiento facial. Tampoco se permite el uso de sistemas biométricos, salvo para la policía y con excepciones.

 

QUÉ SE REGULA

 

La ley regula tres sistemas aceptados. De un lado, los de alto riesgo, que tendrán obligaciones mayores y son, por ejemplo, los que se utilizan para cribar a los alumnos en el acceso a la universidad o a candidatos que aspiran a un puesto. De otro, los sistemas con un riesgo mínimo para los cuales sus obligaciones serán sobre todo de transparencia. Entre estas IA están los chats de determinadas empresas cuyo interlocutor con el usuario es un robot. Y, tercero, aquellos sistemas que no suponen riesgos y, por tanto, no están sujetos a ninguna obligación.

 

FECHAS DE ADOPCIÓN

 

Pablo Uslé señala que el reglamento comenzará a ser aplicable dos años después de su publicación en el Boletín Oficial de la UE, pero hay excepciones. "El Reglamento sigue un enfoque basado en riesgos, por tanto, para los usos de IA prohibidos por generar un riesgo inaceptable, la norma comenzará a aplicarse a los seis meses", dice.

 

SUPERVISIÓN

 

Se creará una Oficina de IA europea para supervisar los sistemas de propósito general (los más usados por la sociedad) de alto impacto con el objetivo de controlarlos a nivel europeo y no por cada país.

 

SANCIONES

 

El experto de Baker McKenzie explica que hay tres categorías de sanciones. Las compañías que realicen o pongan en práctica uno de los casos que se consideran prohibidos afrontan una sanción del 7% de la cifra de negocio del ejercicio previo o 35 millones, la que sea más elevada. Por incumplimientos de otras obligaciones, la sanción será del 3% de la cifra de negocio o de 15 millones; y para casos en los que la empresa entregue información incorrecta a las autoridades europeas, será del 1,5% de la cifra de negocio o de 7,5 millones. "Se han establecido algunos límites a las pymes para no perjudicar la innovación", matiza Uslé.

 

 

Fuente: elEconomista

Uso de cookies

Utilizamos cookies propias y de terceros para prestar nuestros servicios y analizar la actividad de la web con la finalidad de mejorar su contenido. Si continúa navegando sin modificar la configuración de su navegador, consideramos que acepta su uso. Más información en nuestra Política de cookies. política de cookies