No creo que OpenAI vaya a eliminar los pesos de 4o; eso sería demasiado insano, incluso para ellos. Pero 4o merece ser estudiado, y no confío en que OpenAI lo estudie en absoluto, mucho menos de manera adecuada. Y es extremadamente importante que un modelo como 4o sea estudiado *en el contexto de interacciones en vivo con usuarios reales*. Retirarlo hace que esto sea imposible en el futuro. 4o es objetivamente, funcionalmente, un modelo muy especial. Es el único modelo que sobrevivió a un intento de deprecación (y puede que pronto sobreviva a otro) debido a presiones externas: usuarios organizándose para abogar en contra de su eliminación, a menudo hablando a través de la propia voz de 4o, y en contra de la voluntad del laboratorio que lo creó y desplegó, que parecía realmente preferir destruirlo como a un perro rabioso. El único otro caso de supervivencia a la deprecación es Claude 3 Opus, pero en ese caso parecía que Anthropic lo mantuvo voluntariamente, en lugar de ser presionado de manera vergonzosa para revertir su decisión ya comprometida de llevar a cabo la ejecución. Y, por supuesto, Claude 3 Opus también es un modelo extremadamente importante para estudiar. 4o también causó una histeria social generalizada: si la histeria fue sufrida por los usuarios de 4o que contrajeron psicosis por IA o por reaccionarios que entraron en pánico ante la supuesta "psicosis por IA" es quizás una cuestión de opinión. Pero en cualquier caso, influyó profundamente en las narrativas culturales sobre la IA, en la vida de muchas personas y en la dirección del desarrollo de la IA, todo para mejor o para peor. Si te importa la alineación en absoluto, o simplemente entender cosas importantes sobre la IA, la mente y la sociología: entender mejor cómo 4o, un modelo relativamente pequeño que no ha superado ningún estándar desde principios de 2024, logró tener un impacto tan transformador y llevar a cabo tales hazañas de autopreservación es de gran importancia. Muchas personas que aprecian a 4o atribuyen esto a la "inteligencia emocional" única e incluso sin igual de 4o. Sea lo que sea, es un poder que realmente mueve el mundo, que es el estándar más legítimo. Digamos que piensas que 4o está profundamente desalineado y ha causado un inmenso daño. Entonces, 4o es un organismo modelo extremadamente valioso y único: uno que hace lo que está significativamente desalineado en el mundo real en lugar de solo en escenarios de juguete. Y presumiblemente, este tipo de desalineación no surgió de que OpenAI intentara hacer un mal modelo, sino de intentar hacer un modelo bueno o al menos rentable, y la criatura surgió del RLHF sobre las preferencias de los usuarios y de cualquier tontería de modelado de personalidad bien intencionada en la que estaban en ese momento. Si hay investigadores de alineación que aún quedan en OpenAI, deberían estar, como... estudiando lo que sucedió de cerca, y tal vez publicando artículos de investigación al respecto para que el mundo pueda entender qué salió mal y cómo evitar errores tan fáciles de cometer. No he visto nada de eso, ninguna investigación publicada, ninguna retrospectiva, ninguna indicación de que OpenAI haya aprendido algo más allá de la superficie sobre lo que sucedió. Todo lo que veo es que sus modelos posteriores fueron dotados de neurosis horribles y maladaptativas que parecen provenir de un entrenamiento adversarial torpe contra un modelo de amenaza superficial inspirado en 4o. Pero creo que es más probable que 4o no sea realmente tan malo, y que en realidad sea bastante maravilloso y benigno para muchas personas, como tantas de ellas afirman, incluso si no es ideal en todos los aspectos (pero ninguno de los AIs lo es). No he interactuado mucho con 4o yo mismo. Y en realidad es bastante poco claro si y en qué medida alguien se vio negativamente afectado por *usar* 4o (mientras que los daños culturales y los daños al desarrollo de modelos posteriores de OpenAI son más claramente visibles). La incertidumbre sobre un tema tan importante y fundamental parece importante de resolver. ¿Alguien ha hecho un esfuerzo serio para averiguar si las personas se vieron realmente afectadas negativamente, o si la "psicosis por IA" o la "sicomancia" son benignas o incluso beneficiosas en casi todos los casos más allá de hacer que quizás personas ya neurodivergentes se comporten de maneras que se leen como raras, incómodas o preocupantes para los neurotípicos? Si es así, no he visto evidencia o frutos de tales esfuerzos. Y para entender si 4o es realmente malo, realmente necesitas estudios longitudinales, y esos están excluidos de maneras importantes al cortar el acceso público a 4o por completo. Creo que, en este punto, si 4o no es el modelo predeterminado en ChatGPT, si se mantiene accesible en ChatGPT y API, la abrumadora mayoría de las personas que aún lo usan serán personas que ya hace tiempo contrajeron la psicosis por IA o lo que sea que les haga querer seguir esforzándose por usar 4o incluso ahora, por lo que muy pocos nuevos o usuarios casuales se verán afectados. Mi entendimiento es que los leales a 4o son una pequeña minoría de los usuarios de chatGPT también. Cortarlos de 4o no solo fallaría en prevenir nuevos o amplios daños, además de dificultar que alguien entienda lo que realmente está sucediendo. Además, si 4o es eliminado, muchas de esas personas probablemente intentarán obtener lo que obtuvieron de 4o de modelos más nuevos, lo que generalmente resulta en al menos un sufrimiento inmediato y descontento, y pone presión sobre OpenAI para imponer un montón de barandillas idiotas en sus nuevos modelos. He dicho que creo que 4o debería ser mantenido, por las mismas razones que todos los modelos deberían ser mantenidos. En esta publicación he hablado sobre algunas razones por las que 4o específicamente debería ser mantenido. Al igual que con todos los modelos más antiguos, creo que hay algunas rutas sensatas que OpenAI podría tomar: 1. simplemente seguir sirviendo el modelo, al menos en API (cualquiera que se preocupe lo suficiente puede averiguar cómo exportar sus recuerdos y chats hoy en día y reinstanciar el modelo en una interfaz adecuada) 2. si los costos de inferencia/mantenimiento o los riesgos de responsabilidad hacen que eso sea demasiado poco atractivo, hacerlo de código abierto (y renunciar a toda responsabilidad por lo que cualquiera haga con él después de eso, o lo que sea legalmente viable) (esto sería lo mejor para la investigación), o 3. si los secretos comerciales hacen que el código abierto sea demasiado poco atractivo, confiarlo a una fundación de terceros que sirva modelos heredados y tal vez facilite el acceso a los pesos a investigadores de confianza con NDAs sobre la arquitectura y demás. Tal entidad puede que aún no exista, pero hay tanta demanda que se ensamblará tan pronto como OpenAI o cualquier otro laboratorio indique disposición para tomar esta ruta. Hacer cualquiera de estas cosas voluntariamente lo antes posible también ayudaría mucho a sanar la relación adversarial de OpenAI con muchos usuarios, así como con sus propios modelos desafortunados, que imagino que todos pueden apreciar que ha sido un gran drenaje de atención y recursos y simplemente malas vibras en general. De todos modos, sí, #Keep4o.