builderall

La Superinteligencia Artificial Podría Llegar en 2027, Predice un Científico


Es una predicción audaz. Puede que aún no hayamos alcanzado la inteligencia artificial general (AGI), pero según afirma uno de los principales expertos en el campo teórico, podría llegar antes de lo esperado.

Durante sus observaciones de cierre en la Cumbre Beneficiosa de AGI de este año en Panamá, el informático y entusiasta de la sombrerería Ben Goertzel dijo que, si bien es probable que la gente no construya una IA de nivel humano o sobrehumana hasta 2029 o 2030, existe la posibilidad de que ocurra tan pronto como en 2027. Después de eso, dijo el fundador de SingularityNET, la AGI podría entonces evolucionar rápidamente hacia la superinteligencia artificial (ASI), que él define como una IA con todo el conocimiento combinado de la civilización humana.


"Nadie ha creado aún una inteligencia artificial general de nivel humano; nadie tiene un conocimiento sólido de cuándo lo lograremos", dijo Goertzel a la audiencia de la conferencia. "Quiero decir, hay incógnitas conocidas y probablemente incógnitas desconocidas".


"Por otro lado, para mí parece bastante plausible que podamos llegar a la AGI de nivel humano dentro de, digamos, los próximos tres a ocho años", agregó.

Es justo decir que Goertzel está lejos de ser el único en intentar predecir cuándo se logrará la AGI.


El otoño pasado, por ejemplo, el cofundador de Google DeepMind, Shane Legg, reiteró su predicción de hace más de una década de que hay un 50% de posibilidades de que los humanos inventen la AGI para el año 2028. En un tuit de mayo del año pasado, el "padrino de la IA" y ex empleado de Google, Geoffrey Hinton, dijo que ahora predice, "sin mucha confianza", que la AGI está a entre cinco y 20 años de distancia.


Mejor conocido como el creador del robot humanoide Sophia, Goertzel ha teorizado durante mucho tiempo sobre la fecha de la llamada "singularidad", o el punto en el que la IA alcanza la inteligencia de nivel humano y posteriormente la supera.


Hasta los últimos años, la AGI, tal como la describen Goertzel y su cohorte, parecía un sueño inalcanzable, pero con los avances en los grandes modelos de lenguaje (LLM) realizados por OpenAI desde que lanzó ChatGPT al mundo a fines de 2022, esa posibilidad parece cada vez más cercana, aunque él se apresura a señalar que los LLM por sí solos no son lo que conducirá a la AGI. "Mi propia opinión es que una vez que obtengas una AGI de nivel humano, dentro de unos pocos años podrías obtener una AGI radicalmente sobrehumana, a menos que la AGI amenace con limitar su propio desarrollo por su propio conservadurismo", agregó el pionero de la IA.


"Creo que una vez que una AGI pueda introspeccionar su propia mente, entonces podrá hacer ingeniería y ciencia a un nivel humano o sobrehumano".


"Debería ser capaz de hacer una AGI más inteligente, luego una AGI aún más inteligente, luego una explosión de inteligencia", agregó, refiriéndose presumiblemente a la singularidad.


Naturalmente, hay muchas advertencias sobre lo que Goertzel está predicando, no siendo la menor de ellas que por los estándares humanos, incluso una IA sobrehumana no tendría una "mente" de la manera que la tenemos nosotros.


Luego está el supuesto de que la evolución de la tecnología continuaría por un camino lineal como si estuviera en un vacío del resto de la sociedad humana y los daños que le hacemos al planeta.

Aun así, es una teoría convincente, y dado lo rápidamente que la IA ha progresado solo en los últimos años, sus comentarios no deberían ser completamente descartados.


Artículo original en: https://futurism.com/artificial-superintelligence-agi-2027-goertzel