

Desde hace años, la posibilidad de que la inteligencia artificial (IA) supere la capacidad cognitiva humana ha sido tema de especulación y debate.
Ahora, un nuevo macroanálisis realizado por AIMultiple -según cita la revista Esquire-, basado en 8.590 predicciones de científicos, líderes empresariales y expertos en IA, sugiere que la Singularidad -el punto en el que la inteligencia de las máquinas supera a la humana- podría estar más cerca de lo esperado.
La Singularidad tecnológica implica que un conjunto de algoritmos y redes informáticas sean capaces de diseñar o producir computadoras o robots mejores que los ya existentes.
Se dice que las repeticiones de este ciclo de mejoras podrían dar lugar a un efecto donde las máquinas inteligentes diseñarían generaciones de máquinas cada vez más potentes, desarrollando una inteligencia cada vez más superior a la humana.
Mientras que hace una década se estimaba que la inteligencia general artificial (AGI) llegaría en torno a 2060, hoy algunas voces del sector afirman que podríamos alcanzarla en solo un año.
La aceleración en el desarrollo de grandes modelos de lenguaje (LLM), el crecimiento exponencial del poder de cómputo y la posible irrupción de la computación cuántica han modificado radicalmente las expectativas sobre el futuro de la IA.
El estudio de AIMultiple analiza cómo han evolucionado las predicciones en torno a la inteligencia artificial y su capacidad para alcanzar la AGI.
Tradicionalmente, los científicos han sido más conservadores en sus estimaciones, mientras que los empresarios del sector han mostrado mayor optimismo.
La clave de este avance está en la Ley de Moore, que establece que la capacidad de cómputo se duplica cada 18 meses, lo que aceleraría el desarrollo de algoritmos avanzados.
Sin embargo, algunos expertos advierten que la Ley de Moore está llegando a su límite, y que la computación cuántica podría ser la clave para el siguiente gran salto.
Tradicionalmente, los científicos han sido más conservadores en sus estimaciones, mientras que los empresarios del sector han mostrado mayor optimismo (Imagen Ilustrativa Infobae)
No todos los expertos coinciden en que la Singularidad sea inminente o incluso posible. Figuras como Yann LeCun, pionero del aprendizaje profundo, argumentan que la inteligencia humana es demasiado compleja y especializada para ser replicada por completo.
Algunas objeciones clave son:
Un ejemplo de esto es el argumento de AIMultiple, que señala que, aunque la IA pueda mejorar la eficiencia en la investigación científica, aún necesita del juicio humano para dirigir el conocimiento.
“Incluso la mejor máquina que analice datos existentes podría no ser capaz de encontrar una cura para el cáncer”, afirma el informe.
Yann LeCun cuestiona que la inteligencia humana pueda ser completamente replicada por máquinas (Imagen Ilustrativa Infobae)
Si la AGI realmente está cerca, las implicaciones para la sociedad serían inmensas. Desde la automatización de industrias hasta el replanteamiento de la naturaleza del trabajo, la educación y la economía, la llegada de una inteligencia artificial capaz de igualar o superar la humana podría representar el cambio tecnológico más importante de la historia.
Sin embargo, también plantea riesgos éticos, regulatorios y filosóficos:
Aunque las predicciones sobre la Singularidad varían, el mensaje central es claro: la IA está avanzando a un ritmo sin precedentes y la sociedad humana debe prepararse para sus implicaciones.
Si la AGI se desarrolla en 50 años, 10 años o en solo un año, dependerá de la evolución tecnológica y de cómo los humanos decidan encauzarla.
Pero una cosa es segura: el debate sobre el futuro de la inteligencia artificial apenas está comenzando...