Google y el fin del "experimento": La respuesta de OpenAI y la opinión de los expertos
Inicialmente, OpenAI defendió el diseño de la función, asegurando que el etiquetado era "suficientemente claro", según lo que informó Fast Company. Sin embargo, ante el revuelo y las críticas, la empresa de IA terminó por reconocer su error.
Dane Stuckey, de OpenAI, confirmó que la función "ofrecía demasiadas oportunidades para que las personas compartieran accidentalmente información que no pretendían" y, por esa razón, decidieron eliminarla. La decisión, además, incluía la tarea de "eliminar el contenido indexado del motor de búsqueda relevante" lo antes posible.
La polémica, sin embargo, dejó un sabor amargo entre los expertos en ética de la inteligencia artificial. Carissa Veliz, especialista de la Universidad de Oxford, señaló que "las empresas tecnológicas utilizan a la población general como conejillos de indias", atrayendo a miles de usuarios con nuevos productos de IA y esperando ver qué consecuencias pueden enfrentar por sus decisiones de diseño invasivas. "Hacen algo, lo prueban con la población y ven si alguien se queja", concluyó Véliz, con una crítica muy dura al modus operandi de la industria.
Más noticias en Urgente24
La miniserie de 6 episodios que es cero clichés y puro suspenso
El outlet de Buenos Aires que vende zapatillas a menos de $50.000 y todos visitan
Vaca Muerta pasó de un récord histórico de actividad a 2 meses consecutivos de caídas
Ni Chile ni Iguazú: El destino para hacer compras con precios regalados
Los bancos preocupados por el creciente uso de tarjetas de crédito y morosidad