Los usuarios de ChatGPT se llevaron una amarga sorpresa al descubrir que sus conversaciones más personales con la inteligencia artificial se volvieron públicas, y lo que es peor, terminaron indexadas en las búsquedas de Google. Un error de diseño de OpenAI dejó al descubierto un serio problema de privacidad, desatando la polémica y la preocupación de miles de personas.
LA PIFIARON
ChatGPT y un error garrafal: Tus conversaciones privadas, al alcance de Google
Los usuarios, en su intento de enviar el chat o de guardar un enlace, hacían clic en "Compartir" y publicaban por accidente sus conversaciones con ChatGPT.
La situación, expuesta por el medio Fast Company, reavivó las críticas a los gigantes tecnológicos, acusados de usar a sus propios usuarios como "conejillos de indias" en sus experimentos.
Hablar con la inteligencia artificial sobre los asuntos que nos aquejan se volvió una realidad para muchos, pero la sorpresa que se llevaron los damnificados fue que sus problemas económicos, de salud mental o amorosos quedaron expuestos. Si bien las conversaciones que fueron indexadas en los resultados de búsqueda de Google no incluían información que permitiera identificar a los usuarios directamente, algunos chats compartían detalles tan específicos que podrían haber llevado a su identificación, según la investigación de Fast Company.
¿Cómo las conversaciones de ChatGPT terminaron en los resultados de Google?
El director de seguridad informática de OpenAI, Dane Stuckey, explicó que la exposición de los chats se debió a un "experimento efímero" de la compañía. Según el vocero, los usuarios cuyos chats fueron expuestos optaron por indexar sus conversaciones haciendo clic en un cuadro después de elegir compartir un chat.
Sin embargo, ahí estaba el problema. Muchos usuarios, en su intento de enviar el chat por WhatsApp o de guardar un enlace para visitarlo más tarde, hacían clic en "Compartir" y publicaban por accidente sus conversaciones. Debajo, en un texto más pequeño, había una advertencia que explicaba que el chat podría aparecer en los resultados de búsqueda, pero no había una opción visible para desmarcar la casilla de "Hacer que este chat sea visible". Esto generó una confusión masiva, dejando al descubierto información que la gente no quería compartir.
Google y el fin del "experimento": La respuesta de OpenAI y la opinión de los expertos
Inicialmente, OpenAI defendió el diseño de la función, asegurando que el etiquetado era "suficientemente claro", según lo que informó Fast Company. Sin embargo, ante el revuelo y las críticas, la empresa de IA terminó por reconocer su error.
Dane Stuckey, de OpenAI, confirmó que la función "ofrecía demasiadas oportunidades para que las personas compartieran accidentalmente información que no pretendían" y, por esa razón, decidieron eliminarla. La decisión, además, incluía la tarea de "eliminar el contenido indexado del motor de búsqueda relevante" lo antes posible.
La polémica, sin embargo, dejó un sabor amargo entre los expertos en ética de la inteligencia artificial. Carissa Veliz, especialista de la Universidad de Oxford, señaló que "las empresas tecnológicas utilizan a la población general como conejillos de indias", atrayendo a miles de usuarios con nuevos productos de IA y esperando ver qué consecuencias pueden enfrentar por sus decisiones de diseño invasivas. "Hacen algo, lo prueban con la población y ven si alguien se queja", concluyó Véliz, con una crítica muy dura al modus operandi de la industria.
Más noticias en Urgente24
La miniserie de 6 episodios que es cero clichés y puro suspenso
El outlet de Buenos Aires que vende zapatillas a menos de $50.000 y todos visitan
Vaca Muerta pasó de un récord histórico de actividad a 2 meses consecutivos de caídas
Ni Chile ni Iguazú: El destino para hacer compras con precios regalados
Los bancos preocupados por el creciente uso de tarjetas de crédito y morosidad














