OMNI IA > OpenAI > alerta

LLAMADO GLOBAL

Nueva alarma tech por la IA: "Puede llevar a la extinción"

La creciente preocupación tech ante los avances de la Inteligencia Artificial (IA) incluye al actual CEO de OpenAI, Sam Altman, responsable del Chat GPT-4.

La lista de expertos que se suman a la alerta mundial sobre los peligros de los avances de la Inteligencia Artificial (IA) para la humanidad no para de engrosarse.

Este martes (30/05/23) en el "Comunicado sobre el riesgo de la IA" -al cual cualquier especialista en la materia puede sumarse- de la página web de la ONG Center for AI Safety, decenas de académicos, periodistas y demás expertos en el sector tech volvieron a advertir sobre los peligros de crear máquinas que imitan (y acaso superarán) la inteligencia humana.

En un breve párrafo, manifestaron: “Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear".

Captura de pantalla (398).png
La Inteligencia Artificial conlleva riesgos catastróficos, asegura Center for AI Safety.

La Inteligencia Artificial conlleva riesgos catastróficos, asegura Center for AI Safety.

Esta advertencia es una de las más alarmistas porque compara los peligros del desarrollo de la IA con las pandemias y guerras nucleares al equiparar su desarrollo con un poder devastador que anunciaría un punto de no retorno.

Entre los firmantes, resaltan Geoffrey Hinton, el “padrino” de la inteligencia artificial que abandonó sus investigaciones exitosas y venerados proyectos en Google para sumarse a la alerta mundial sobre los peligros de los avances sin control para la humanidad, Yoshua Bengio (premio Turing 2018), Demis Hassabis (CEO de DeepMind, de Google), Dario Amodei (CEO de Anthropic), Kevin Scott (CTO de Microsoft) y Bruce Schneier (uno de los mayores expertos en ciberseguridad).

Chat GPT-4, origen de la preocupación

Pero el firmante que más llamó la atención fue Sam Altman, CEO de OpenAI y responsable del Chat GPT-4. El lanzamiento del nuevo modelo de procesamiento del lenguaje provocó la alarma tech en marzo cuando con tono preocupante y alarmista, los especialistas en inteligencia artificial se unieron en una carta para exigir específicamente que se paralizaran por 6 meses concretamente las investigaciones sobre sistemas más potentes que GPT-4, porque advertían “grandes riesgos para la humanidad”.

Yuval Harari, el especialista en ética de la tecnología estadounidense, Tristan Harris y el empresario Aza Raskin y el CEO de Twitter y fundador de SpaceX y Tesla, Elon Musk, la habían firmado.

image.png
Modelo de IA Chat GPT-4, motivo de preocupación de miles de expertos, incluso su creador.

Modelo de IA Chat GPT-4, motivo de preocupación de miles de expertos, incluso su creador.

El “padrino” de la inteligencia artificial, semanas atrás sostuvo en diálogo con BCC: “En este momento, lo que estamos viendo es cosas como GPT-4 eclipsan a una persona en la cantidad de conocimiento general que tienen y los eclipsa mucho. En términos de razonamiento, no es tan bueno, pero ya está haciendo un razonamiento simple. Y dado el ritmo de progreso, esperamos que las cosas mejoren bastante rápido. Entonces, tenemos que preocuparnos por eso ".

¿Alarmistas o visionarios?

Hay un sector reducido de expertos que creen que los escenarios apocalípticos no son realistas y que provoca una distracción de problemas como el sesgo en los sistemas que ya son un problema.

Por ejemplo, Arvind Narayanan, científico informático de la Universidad de Princeton, se diferenció de su colegas y opinó a BBC: "La IA actual no es lo suficientemente capaz para que estos riesgos se materialicen. Como resultado, distrae la atención de la daños a corto plazo de la IA".

En esa línea, el jefe de IA de Meta profesor LeCunn, refutó los escenarios catastróficos y tildó a las cartas preocupantes de alarmistas. “Por el momento, los sistemas de IA requieren enormes recursos para poder ser creados, pero al final pueden ser utilizados por cualquiera. Así que no va a ser como las armas nucleares. Además, la gran diferencia es que la IA está diseñada para hacer a la gente más inteligente o para aumentar la inteligencia humana, mientras que las armas nucleares están diseñadas para matar a la gente”.

Sin embargo los escenarios futuros descritos por Harari son muy tenebrosos: “La IA podría devorar rápidamente toda la cultura humana —todo lo que hemos producido durante miles de años—, digerirla, y empezar a escupir un diluvio de nuevos artefactos culturales”.

“Un nuevo régimen en el siglo XXI tendrá herramientas mucho más poderosas. Así que las consecuencias podrían ser mucho más desastrosas. Es algo a lo que no sé si la humanidad podrá sobrevivir”.

Más contenido de Urgente24

El PRO contra el PRO, en una elección insólita

Giorgia Meloni festeja: Arrasadora victoria de la derecha en Italia

Trenes Argentinos lanzó pasajes a Mendoza a precio ganga

¿Qué pasa en el cuerpo al tomar agua de avena en ayunas?

Encuesta y Guillermo Britos: Golpe de Milei a Bullrich y CFK

Temas

Dejá tu comentario