El otro día, con unos amigos, propuse que resolviesen un pequeño puzzle. Dadas cuatro bolas de billar con los números 7, 9, 11 y 13, ¿sois capaces de encontrar la combinación de tres bolas que suma 30? Parece fácil, pero tras un rato pensando, no daban con la respuesta. Al poco, a una amiga se le ocurrió la idea feliz: si le das la vuelta a la bola con el número 9, se convierte en un 6 y el problema al fin tiene solución (6+11+13).
Lo gracioso no fue en realidad eso. Fue que
ese mismo problema lo resolvió Gemini 2.0 Flash Thinking, el nuevo modelo que "razona" de Google. Y eso es alucinante, porque plantea cómo los modelos ya son capaces de tener cierto pensamiento lateral: pueden adaptarse y resolver problemas para los que no estaban teóricamente preparados.
Lo de Google casi se ha quedado pequeño frente a
o3, el nuevo modelo de IA de OpenAI. Lanzado hace unos pocos días, o3 ni siquiera está disponible públicamente. De momento solo han presumido de su rendimiento, pero lo han hecho con argumentos potentes. O3 es capaz de lograr lo que ningún otro modelo ha logrado. Es tan listo que incluso
logra lo que parecía imposible hoy en día en pruebas recién diseñadas para
ponérselo difícil a las IAs.
No solo exhibe su capacidad en pruebas matemáticas o de programación que solo un puñado de seres humanos podrían resolver hoy en día. También avanza de forma notable allá donde las máquinas parecían tontas: en problemas triviales para nosotros pero que para la IA son un absoluto desafío.
Usar o3 no va a ser barato y estamos ante la era de
una IA para pobres y otra IA para ricos, pero lo más importante no es eso. Es que este modelo que "razona",
como ya lo hacía o1 o como lo hace el nuevo modelo de Google, plantean un 2025 en el que los ChatGPT del mundo —con
el problemático GPT-5 a la cabeza— se pueden quedar cortos ante estos nuevas IAs súperlistas.
Esto se mueve. Y mucho.
No hay comentarios:
Publicar un comentario