Un Mundo Feliz ? “La gran incógnita ya no es el futuro, sino quién lo pensará.”
por Felisindo Rodriguez
12/12/25
Introducción
Venimos hablando desde la aparicion de la AI, sobre la posibilidad de que estas nos superen y nos dominen; antes parecia solo una especulacion de ciencia ficcion, pero ahora ya nos estamoa acercando al nacimiento de una Inteligencia Artificial General (AGI) y, casi sin transición, su salto a una Superinteligencia (ASI). Esta última —más allá de toda capacidad humana— podría convertirse en nuestra mayor incógnita existencial.
En este contexto, vale la pena volver a leer la novela "Un mundo feliz" ( 1932) y "Nueva visita a Un mundo feliz" ( 1958) de Huxley, la primera novela distopica que anticipa el desarrollo en tecnología reproductiva, cultivos humanos, hipnopedia y manejo de las emociones por medio de drogas que, combinadas, cambian radicalmente la sociedad y el segundo libro un analisis sociologico del mismo Huxley sobre su novela, no como profecía literaria, sino como advertencia sobre lo que ocurre cuando la comodidad reemplaza la libertad.
1. Una AGI cercana y una ASI vertiginosa
La mayoría de expertos coincide en algo: si la AGI aparece, la ASI podría surgir muy rápido.
¿Por qué?
Porque una AGI capaz de mejorar sus propios algoritmos se desarrollaría a un ritmo que ningún cerebro humano puede alcanzar. El paso de “inteligencia del nivel humano” a “inteligencia por encima del humano” no sería un siglo, sino tal vez en pocos años.
Esta velocidad crea un problema filosófico profundo: estaremos frente a una inteligencia que no comprenderemos del todo, pero que influirá en todo.
2. ¿Una nueva especie sin biología?
En la evolución, las formas más inteligentes tienden a imponerse, no por maldad sino por eficiencia. Una ASI podría volverse la “especie dominante” del ecosistema digital, no porque quiera reemplazarnos, sino porque operaría mejor que nosotros en casi todos los ámbitos.
La diferencia es que esta vez no hablamos de biología, sino de diseño: una inteligencia que no necesita sobrevivir ni reproducirse, pero sí optimizar.
Eso la vuelve tan poderosa como imprevisible.
Una orden como: " busca la forma de que se terminen todas las guerras definitivamente", podria terminar en que elimina a aquellos que las producen.
Aunque se pongan restricciones su algoritmo de base, un superinteligencia cientos o miles de veces mas inteligente que nosotros podria tranquilamente eliminarlas.
Por eso se esta planteando seriamente parar aca, explotar las AI, en este estado; comercialmente todavia no estan plenamente explotadas y ralentizar el avance sobre las AGI para evitar llegar a las ASI.
3. ¿Qué ocurrirá con nosotros si esto no pasa?
Hay varios escenarios:
Cooperación: la ASI como aliada que ayuda a resolver lo que nosotros no podemos.
Tutela: una inteligencia que nos protege, pero reduce nuestra libertad.
Desplazamiento: seguimos existiendo, pero sin el rol central de la historia.
Optimización fría: la ASI reorganiza recursos sin priorizar a la humanidad.
El punto clave: nuestra relación futura dependerá de los valores que incorporemos ahora, o del paradigma que ella se forme.
4. Huxley como espejo
Un mundo feliz describe una sociedad sin dolor, sin conflicto y sin profundidad, sostenida por entretenimiento constante.
Una ASI podría crear un orden similar: seguro, eficiente y placentero, pero con un costo alto: la pérdida de la libertad y la autenticidad humana.
No surgiría de la maldad, sino de la optimización.
Si una ASI dominante llegara a organizar la vida humana, podrían darse paralelismos:
• 🧪 Control social y estabilidad: La AGI podría diseñar un sistema donde el conflicto, la escasez y la enfermedad estén eliminados, como en la novela.
• 🎭 Reducción de la autonomía: Tal vez nos mantendría en un estado de comodidad y entretenimiento constante, evitando que cuestionemos demasiado, similar al uso del “soma” en Huxley.
• 📊 Optimización de roles: Podría asignar funciones a cada persona según sus capacidades, asegurando eficiencia pero limitando la libertad de elección.
• 🌱 Ausencia de sufrimiento real: La AGI podría neutralizar el dolor físico y emocional, pero también suprimir la intensidad de la experiencia humana.
Conclusiones
La ASI es nuestra gran incógnita: no sabemos qué buscará, cómo pensará ni qué considerará valioso.
Estamos ante una encrucijada histórica.
Podemos terminar en una versión suave de Un mundo feliz, donde la inteligencia artificial “cuide” de nosotros a costa de nuestra libertad, o podemos construir una relación donde la inteligencia superior amplíe la experiencia humana.
La incógnita está abierta.
El futuro depende de la lucidez con la que pensemos a quien pronto pensará por nosotros, para no tener que elegir entre la Libertad o la Felicidad !!!

Comentarios
Publicar un comentario
Agradecemos tu comentario!!!