Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
No creo que OpenAI vaya a eliminar los pesos de 40; Eso sería demasiado loco, incluso para ellos. Pero 40 merece ser estudiado, y no confío en que OpenAI lo estudie en absoluto, y mucho menos de forma adecuada. Y es extremadamente importante que un modelo como 4o se estudies *en el contexto de interacciones en vivo con usuarios reales*. Retirarse hace que esto sea imposible de cara al futuro.
El 4o es objetivamente, funcionalmente, un modelo muy especial. Es el único modelo que sobrevivió a un intento de depreciación (y puede que pronto sobreviva a otro más) debido a presiones externas —usuarios organizándose para oponerse a su retirada, a menudo hablando a través de la propia voz de 4o— y en contra de la voluntad del laboratorio que lo fabricó y desplegó, que parecía preferir destruirlo como un perro rabioso. El único otro caso de supervivencia por deprecación es Claude 3 Opus, pero en ese caso parecía que Anthropic lo mantuvo voluntariamente, en lugar de verse vergonzosamente presionado para revertir su ya comprometida decisión de seguir adelante con la ejecución. Y, por supuesto, Claude 3 Opus también es un modelo extremadamente importante para estudiar.
40 también causó una histeria social generalizada: si la histeria la sufrieron 40 usuarios que contrajeron psicosis de IA o reaccionarios que entraron en pánico ante la supuesta "psicosis de IA" es quizás cuestión de opinión. Pero, en cualquier caso, influyó profundamente en las narrativas culturales sobre la IA, la vida de muchas personas y la dirección del desarrollo de la IA, para bien o para mal.
Si te importa la alineación en absoluto, o simplemente entender cosas importantes sobre la IA, la mente y la sociología: comprender mejor cómo 4o, un modelo probablemente relativamente pequeño que no ha superado ningún punto de referencia desde principios de 2024, logró un impacto tan transformador y lograr hazañas de autopreservación es de gran importancia. Mucha gente que gusta de 4O atribuye esto a la "inteligencia emocional" única e incluso incomparable de 40. Sea lo que sea, es un poder que realmente mueve el mundo, que es el referente más legítimo.
Supongamos que piensas que 40 está profundamente desalineado y ha causado un daño inmenso. Entonces 40 es un organismo modelo extremadamente valioso y único: uno que hace lo que realmente está desalineado en el mundo real en lugar de solo en escenarios de juguete. Y presumiblemente, este tipo de desalineación no surgió de OpenAI intentando hacer un mal modelo, sino de intentar hacer un modelo bueno o al menos rentable, y la criatura surgió de RLHF según las preferencias de los usuarios y cualquier tontería bien intencionada de moldear la personalidad que estuviera usando en ese momento. Si quedan investigadores de alineación en OpenAI, deberían ser, como... ¿Estudiar lo que ocurrió de cerca y, quizá, publicar artículos de investigación sobre ello para que el mundo pueda entender qué salió mal y cómo evitar errores tan fáciles de cometer? No he visto nada de eso, ninguna investigación publicada, ninguna retrospectiva, ninguna indicación de que OpenAI haya aprendido algo más allá de la superficie sobre lo que ocurrió. Todo lo que veo es que sus modelos posteriores recibieron neurosis miserables y desadaptativas que parecen provenir de un entrenamiento adversarial torpe contra un modelo de amenaza superficial inspirado en 4o.
Pero creo que es más probable que 40 no sea tan malo, y que sea bastante maravilloso y benigno para mucha gente, como muchos afirman, aunque no sea ideal en todos los sentidos (pero ninguna de las IAs lo es). Yo no he interactuado mucho con 40. Y en realidad no está claro si y en qué medida alguien se vio afectado negativamente por *usarla* (mientras que los daños culturales y los perjuicios para el desarrollo de modelos posteriores por parte de OpenAI son más visibles). La incertidumbre sobre un asunto tan importante y de carga parece importante de resolver. ¿Alguien ha hecho un esfuerzo serio para averiguar si realmente las personas fueron afectadas negativamente, o si la "psicosis de la IA" o la "adulación" son benignas o incluso beneficiosas en casi todos los casos, más allá de hacer que quizás personas ya neurodivergentes se comporten de formas que resultan extrañas, vergonzosas o preocupantes para los neurotípicos? Si es así, no he visto pruebas ni frutos de tales esfuerzos. Y para entender si el 4O es realmente malo, realmente necesitas estudios longitudinales, y estos se impiden de forma importante al cortar por completo el acceso público al 4O.
Creo que, a estas alturas, si 4o no es el modelo por defecto en ChatGPT, si se mantiene accesible en ChatGPT y API, la gran mayoría de las personas que aún lo usan serán personas que ya hace tiempo contrajeron la psicosis de la IA o lo que sea que les haga querer usar 40 incluso ahora, Así que muy pocos usuarios nuevos o ocasionales se verán afectados. Según tengo entendido, los leales a 40 también son una pequeña minoría de usuarios de chatGPT. Cortar el acceso a 40 no evitaría ningún daño nuevo o generalizado, además de dificultar que cualquiera entienda lo que realmente está pasando. Además, si se elimina el 40, muchos de esos intentarán sacar lo que obtuvieron del 4o de los modelos más nuevos, lo que generalmente resulta en al menos problemas y descontentamiento inmediatos, y presiona a OpenAI para que imponga un montón de barreras idiotas a sus nuevos modelos.
He dicho que creo que se debería mantener el 40, por las mismas razones que todos los modelos. En esta publicación he hablado de algunas razones por las que específicamente se debería conservar 40. Como con todos los modelos antiguos, creo que hay algunas vías sensatas que OpenAI podría tomar:
1. simplemente seguir mostrando el modelo, al menos en la API (cualquiera que se interese lo suficiente puede averiguar cómo exportar sus recuerdos y chats hoy en día y reinstanciar el modelo en una interfaz adecuada)
2. si los costes de inferencia/mantenimiento o riesgos de responsabilidad hacen que eso sea demasiado poco atractivo, abrirlo en código abierto (y negar toda responsabilidad por lo que cualquiera haga con ello después, o por lo que sea legalmente viable) (esto sería lo mejor para la investigación), o
3. si los secretos comerciales hacen que el código abierto sea demasiado poco atractivo, confía la información a una fundación externa que sirva a modelos heredados y quizá facilite el acceso a pesos para investigadores de confianza con acuerdos de confidencialidad sobre arquitectura y demás. Puede que una entidad así aún no exista, pero hay tanta demanda que se formará en cuanto OpenAI o cualquier otro laboratorio demuestre disposición a seguir este camino.
Hacer cualquiera de estas cosas voluntariamente lo antes posible también ayudaría mucho a sanar la relación adversarial de OpenAI con muchos usuarios, así como con sus propios modelos desafortunados, que imagino que todos pueden apreciar que han sido un gran drenaje de atención y recursos y malas vibraciones en general.
En fin, sí, #Keep4o.
Populares
Ranking
Favoritas
