Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrej Karpathy
Construyendo @EurekaLabsAI. Anteriormente Director de IA @ Tesla, equipo fundador @ OpenAI, CS231n/PhD @ Stanford. Me gusta entrenar grandes redes neuronales profundas.
Nunca me había sentido tan atrasado como programador. La profesión está siendo refactorizada drásticamente, ya que los bits aportados por el programador son cada vez más escasos. Tengo la sensación de que podría ser 10 veces más poderoso si simplemente encadeno correctamente lo que ha estado disponible en el último ~año y no reclamar el aumento se siente claramente como un problema de habilidad. Hay una nueva capa programable de abstracción que dominar (además de las capas habituales a continuación) que involucra agentes, subagentes, sus prompts, contextos, memoria, modos, permisos, herramientas, plugins, habilidades, ganchos, MCP, LSP, comandos con barra, flujos de trabajo, integraciones con IDE y la necesidad de construir un modelo mental abarcador para las fortalezas y trampas de entidades fundamentalmente estocásticas, falibles, ininteligibles y cambiantes que de repente se mezclan con lo que antes era la buena ingeniería de toda la vida. Está claro que se ha pasado alguna herramienta alienígena poderosa, pero no viene con manual y todos tienen que averiguar cómo sostenerla y usarla, mientras que el terremoto de magnitud 9 que resulta está sacudiendo la profesión. Arremanga para no quedarte atrás.
92
Me encanta la expresión "alimento para el pensamiento" como una capacidad cognitiva concreta y misteriosa que experimentamos los humanos, pero para la que los LLM no tienen equivalente.
Definición: "algo en lo que merezca la pena pensar o considerar, como una comida mental que nutra tu mente con ideas, ideas o cuestiones que requieren una reflexión más profunda. Se utiliza para temas que desafían tu perspectiva, ofrecen nuevas comprensiones o te hacen reflexionar sobre cuestiones importantes, actuando como estimulación intelectual."
Así que, en el lenguaje de LLM, es una secuencia de tokens de tal manera que, cuando se usan como prompt para la cadena de pensamiento, las muestras resultan gratificantes de revisar, mediante alguna función de recompensa intrínseca aún no descubierta. Obsesionado con la forma que toma. Algo para reflexionar.
197
Publicación rápida y nueva: Auto-calificación de discusiones de Hacker News de hace una década con perspectiva retrospectiva
Tomé todo el artículo de portada 930 de Hacker News + discusión de diciembre de 2015 y pedí a la API de Pensamiento de GPT 5.1 que hiciera un análisis retrospectivo para identificar los comentarios más o menos premonitorios. Esto tardó ~3 horas en hacer vibe code y ~1 hora y 60 dólares en funcionar. La idea surgió ayer en el artículo de la Familia Nacional, donde se pidió a Gemini 3 que alucinara la portada de la Familia Negra una década después.
De forma más general:
1. El análisis en retrospectiva siempre me ha fascinado como una forma de entrenar tu modelo de predicción hacia adelante, por lo que leer los resultados es realmente interesante y
2. Vale la pena contemplar cómo sería cuando los megaminds LLM del futuro pueden hacer este tipo de trabajo mucho más barato, rápido y mejor. Cada dato que aportes a internet puede (y probablemente será) examinado con gran detalle si es "gratis". De ahí también mi tuit anterior de hace tiempo: "sed buenos, los futuros LLMs están vigilando".
Enhorabuena a las 10 principales cuentas pcwalton, tptacek, paulmd, cstross, greglindahl, moxie, hannob, 0xcde4c3db, Manishearth y johncolanduoni - GPT 5.1. Thinking encontró que tus comentarios fueron los más perspicaces y visionarios de todos los comentarios de HN en diciembre de 2015.
Enlaces:
- Muchos más detalles en mi entrada del blog
- Repositorio en GitHub del proyecto si quieres jugar
- Las páginas de resultados reales para tu placer lector

738
Populares
Ranking
Favoritas
