Otro riesgo inminente que se ha reportado sociológicamente en las nuevas generaciones son la disminución del contacto cara a cara y entre humanos en los niños, quienes suelen pasar varias horas frente a dispositivos electrónicos, con teleclases escolares como en la Pandemia, preguntan dudas a Alexa, y ahora su sociabilización se reduce a juegos en línea desde apps.
Según el estudio Robovie, you’ll have to go into the closet now»: children’s social and moral relationships with a humanoid robot, del 2012, los niños actuales le atribuyen un estado de ánimo a cada aparato de Inteligencia Artificial,a los que divisan como entes sociales existentes. En relación a esto, la psicóloga Sandra Calvert de la Universidad de Georgetown y directora del Children’s Digital Media Center, dialogó con The Washigton Post, y argumento que los malos modales de la nueva infancia se debe al lenguaje imperativo que debe emplear el niño para dar órdenes a la máquina sin usar el ‘gracias’ y ‘por favor’.
Proyecto de legislación para regular la IA
Si bien la IA está repercutiendo en avances medicinales (microchips para pacientes con Parkinson) y en la industria automotriz (vehículos autónomos), qué pasará cuando haya un accidente, quién sufrirá las consecuencias legales: el usuario o la ‘cosa’. Tal pregunta se puede extrapolar con los bots que despliegan fake news. Entonces, ¿quién se hace cargo?
Es por ello que la Unión Europea propuso una legislación para regular los usos de la Inteligencia Artificial al identificar cuatro niveles de riesgo a fin de que se protejan los derechos y libertades de las personas:
En el nivel superior está ese riesgo inaceptable para la seguridad, los medios de vida y los derechos de las personas —incluyen los IA de puntuación social, la manipulación del comportamiento humano y la vigilancia masiva—
El segundo nivel refiere a los usos de alto riesgo (acceso al empleo, educación y servicios públicos, gestión de infraestructuras críticas, componentes de seguridad de los vehículos, la aplicación de la ley y la administración de justicia) que se someterán a una evaluación de conformidad antes de que puedan desplegarse en el mercado, según esta legislación propuesta. Aquí se examinará riesgos y resultados discriminatorios, documentación y mantenimiento de registros para la trazabilidad, transparencia e información proporcionada a los usuarios, supervisión humana, solidez, precisión y disposiciones de ciberseguridad.
En el tercer nivel, están los riesgos limitados, los cuales tendrán de transparencia, es decir, los usuarios de chatbot como Chat GPT tendrán que tener advertencias continuas de que están dialogando con una máquina. Y el cuarto nivel incluye riesgos irrisorios sin ninguna obligación, pese a la recomendación de códigos de conducta como diferenciación entre competidores.
Tampoco una mirada netamente pesimista con respecto a las nuevas tecnologías y la inteligencia artificial amerita, porque los avances en ámbitos de la Salud y automotrices, tal como brazos u otras extremidades robóticas con IA y movilidad independiente para lisiados, autos autónomos sin necesidad de un conductor designado, microchips con emisión de ondas parecidas a químicos neurotransmisores -faltantes- en enfermedades neurodegenerativas, prolongarán la esperanza y calidad de vida de un ser humano que será más atractivo -quizá por las cirugías estéticas-, y mucho más apto por las modificaciones genéticas en el ADN de la descendencia, pero con una materia gris reducida por supeditarse a la IA, si tenemos que especular.
Más contenido en Urgente24:
Diputados: Durísimo cruce entre Rossi y Espert (Videos)
Jey Mammon rompió el silencio: "Yo no violé
Campeón del mundo acusado de abuso sexual
Halcones contra Bullrich por Conrado Estol: "Impresentable"
Escándalo: Romina Uhrig habría golpeado a Ceferino Reato