TECNO

MAYOR CONTROL

La Unión Europea busca regular el uso de Inteligencia Artificial

Un equipo de expertos en el viejo continente decidirá qué sistemas resultan de alto riesgo y los cambios de normas que frenen el avance de programas configurados con datos sesgados. Los especialistas ponen atención en Algoritmos, chabots, “machine learning” o “deep learning” de mayor o menor complejidad.

En los días que corren la Inteligencia Artificial no tiene un código ético, por esa razón la Unión Europea busca clasificar las distintas tecnologías para un mayor control. El proyecto de regulación tiende a seguir de cerca la maquinaria, los robots, y el reconocimiento facial, salvo excepciones como la búsqueda de menores perdidos o la prevención de ataques terroristas.

En es orden el Consejo Europeo de Inteligencia Artificial organismo formado por expertos en IA de los países miembros, decidirá qué sistemas consideran de alto riesgo y los cambios de regulación. apuntan a que los sistemas no se hayan entrenado con datos sesgados. 

Así la Inteligencia Artificial ya es parte de nuestra vida cotidiana. Algoritmos, chabots, “machine learning” o “deep learning” de mayor o menor complejidad, todos tienen un factor en común: la necesidad de regulación en cuestiones de ética y privacidad. 

Consultado, Juan Pablo Coletti, Latam Director Of international Strategy Partners de Dahua “Con la reglamentación se busca regular los usos de este tipo de tecnología para evitar abusos. Se aspira a regular los usos permitidos de los mecanismos de inteligencia artificial (IA), y se fijan  prohibiciones para usos como los sistemas de vigilancia masiva y las tecnologías que valoran a las personas de forma predictiva. El fin es clasificar los sistemas según su uso para que aquellos designados como de alto riesgo pasen a tener una mayor supervisión". Asegura el Director Of international Strategy Partners de Dahua

Vale recordar que hay sistemas de Inteligencia Artificial prohibidos como los que propician la manipulación del comportamiento humano o utilizan información personal para detectar las vulnerabilidades de los sujetos. 

Por otro lado clasifican los sistemas IA de alto riesgo en donde advierten sobre actividades como  las utilizadas en la administración y operación de infraestructura crítica. Es el caso de accesos biométricos por detección facial para plantas de energía o espacios restringidos. 

En esa línea los especialistas hablan de seguridad en los procesos productivos y en seguridad física, basados en la “redundancia”.

Ellos consideran que todos los sistemas pueden fallar. Por eso remarcan que cada solución, para cada caso, debe contar con redundancia. Citan los accesos biométricos, cross reference con Biometría Facial y con la tarjeta IR. "Esta técníca aplican en perímetros de un predio industrial, donde cuentan con al menos dos líneas de tecnología redundante, como las cámaras térmicas y cámaras IP instaladas en línea.” explica Coletti. 

También detallan sistemas IA de uso sujetos al medio, los que resultan afines a obligaciones específicas de transparencia como los asistentes conversacionales chatbots que "interactúan con personas en situaciones como plataformas conversacionales como un e-commerce” , completa el ejecutivo.

Por último de cuenta de sistemas de riesgo mínimo. En ese punto la Comisión Europea de IA considera que la gran mayoría están incluidos La autoridad permite el libre uso de aplicaciones de sistemas inteligentes en videojuegos. Entre ellos observa los sistemas utilizados para filtro de spams o en sistemas automatizados de publicidad que no ponen ninguna obligación relevante entran en esta categoría. Por lo pronto acotan los especialistas el objetivo de la organización sería regular para proteger a las personas y sus bienes.