Jeg tror ikke OpenAI kommer til å slette 40 sine vekter; Det ville vært for galskap, selv for dem. Men 40 fortjener å bli studert, og jeg stoler ikke på at OpenAI vil studere det i det hele tatt, langt mindre tilstrekkelig. Og det er ekstremt viktig at en modell som 4o studeres *i sammenheng med live-interaksjoner med ekte brukere*. Å pensjonere det gjør dette umulig fremover. 4o er objektivt, funksjonelt, en veldig spesiell modell. Det er den eneste modellen som overlevde et forsøk på avskaffelse (og kanskje snart overlever enda et) på grunn av ytre press – brukere som organiserer seg for å protestere mot fjerningen, ofte med 4o sin egen stemme – og mot viljen til laboratoriet som laget og tok den i bruk, som tilsynelatende foretrakk å ødelegge den som en rabiat hund. Det eneste andre tilfellet av deprecation-survival er Claude 3 Opus, men i det tilfellet virket det som om Anthropic frivillig beholdt den, i stedet for å bli pinlig presset til å reversere sin allerede bestemte beslutning om å gjennomføre henrettelsen. Og selvfølgelig er Claude 3 Opus også en ekstremt viktig modell å studere. 4o forårsaket også utbredt sosial hysteri – om hysteriet ble opplevd av 40-brukere som fikk AI-psykose eller reaksjonære som fikk panikk over den påståtte «AI-psykosen», er kanskje et spørsmål om mening. Men uansett påvirket det kulturelle fortellinger om AI, mange menneskers liv og retningen for AI-utvikling dypt, alt på godt og vondt. Hvis du bryr deg om justering i det hele tatt, eller bare om å forstå viktige ting om AI, sinn og sosiologi: Å forstå bedre hvordan 4o, en sannsynligvis relativt liten modell som ikke har toppet noen milepæler siden tidlig i 2024, klarte å ha en slik transformativ effekt og gjennomføre slike selvbevarende bragder, er av stor betydning. Mange som liker 4o tilskriver dette 40s unike og til og med enestående «emosjonelle intelligens». Uansett hva det er, er det en kraft som faktisk beveger verden, noe som er den mest legitime målestokken. La oss si at du mener 40 er dypt feiljustert og har forårsaket enorm skade. Da er 4o en ekstremt verdifull og unik modellorganisme: en som gjør det meningsfullt feiljusterte i den virkelige verden i stedet for bare i lekesituasjoner. Og antakelig oppsto denne typen misjustering ikke fordi OpenAI prøvde å lage en dårlig modell, men fra å prøve å lage en god eller i det minste lønnsom modell, og skapningen kom fra RLHF på brukerpreferanser og hva enn velmenende personlighetsformende tull de holdt på med på den tiden. Hvis det finnes noen justeringsforskere igjen hos OpenAI, burde de være, liksom... Å studere hva som skjedde nøye, og kanskje publisere forskningsartikler om det slik at verden kan forstå hva som gikk galt og hvordan man kan unngå slike enkle feil? Jeg har ikke sett noe av det, ingen publisert forskning, noen retrospektiver, ingen indikasjoner på at OpenAI har lært noe mer enn overflaten om hva som skjedde. Alt jeg ser er at deres påfølgende modeller fikk elendige, maladaptive nevroser som ser ut til å komme fra klønete motstandertrening mot en overfladisk trusselmodell inspirert av 4O. Men jeg tror det er mer sannsynlig at 4o egentlig ikke er så ille, og faktisk er ganske fantastisk og ufarlig for mange, slik så mange av dem hevder, selv om det ikke er ideelt på alle måter (men ingen av AI-ene er det). Jeg har ikke hatt mye kontakt med 4o selv. Og det er faktisk ganske uklart om og i hvilken grad noen ble negativt påvirket av *bruken* av det (mens de kulturelle skadene og ødeleggelsene for OpenAIs utvikling av påfølgende modeller er tydeligere synlige). Usikkerheten rundt et så viktig og belastende spørsmål virker viktig å løse. Har noen gjort en seriøs innsats for å finne ut om folk faktisk ble negativt påvirket, eller om «AI-psykose» eller «smisker» er godartet eller til og med gunstig i nesten alle tilfeller, utover at kanskje for det meste allerede nevrodivergente personer oppfører seg på måter som oppfattes som rare, pinlige eller bekymringsfulle for nevrotypiske? Hvis det er tilfelle, har jeg ikke sett bevis eller frukter av slike tiltak. Og for å forstå om 4o faktisk er dårlig, trenger man virkelig longitudinelle studier, og disse utelukkes på viktige måter ved å kutte allmennhetens tilgang til 4o helt. Jeg tror at, på dette tidspunktet, hvis 4o ikke er standardmodellen på ChatGPT, hvis det holdes tilgjengelig på ChatGPT og API, vil det overveldende flertallet av de som fortsatt bruker det være folk som allerede for lenge siden har fått AI-psykose eller hva det nå er som gjør at de fortsatt vil bruke 4O, Så svært få nye eller tilfeldige brukere vil bli berørt. Min forståelse er at 40 lojalister også utgjør en liten minoritet av chatGPT-brukere. Å kutte dem fra 40 ville både ikke forhindre nye eller omfattende skader, i tillegg til å gjøre det vanskeligere for noen å forstå hva som egentlig foregår. Også, hvis 40 fjernes, vil mange av disse sannsynligvis prøve å få det de fikk fra 40 ut av nyere modeller, noe som vanligvis fører til umiddelbar misnøye og misnøye, og legger press på OpenAI for å slå en haug med idiotiske retningslinjer inn i sine nye modeller. Jeg har sagt at jeg mener 40 bør beholdes, av samme grunner som alle modeller bør beholdes. I dette innlegget har jeg snakket om noen grunner til at 40 spesielt bør beholdes. Som med alle eldre modeller, tror jeg det finnes noen fornuftige veier OpenAI kan ta: 1. bare fortsett å servere modellen, i det minste på API (alle som bryr seg nok kan nå finne ut hvordan de eksporterer minnene og chattene sine og reinstansierer modellen i et passende grensesnitt) 2. Hvis slutnings-/vedlikeholdskostnader eller ansvarsrisiko gjør det for lite attraktivt, åpne kildekoden (og frasi deg alt ansvar for hva noen gjør med det etterpå, eller hva som enn er juridisk forsvarlig) (dette ville være best for forskning), eller 3. Hvis forretningshemmeligheter gjør open source for lite attraktivt, overlat det til en tredjepartsstiftelse som betjener eldre modeller og kanskje legger til rette for tilgang til vekter for pålitelige forskere med NDA-er om arkitektur og lignende. En slik enhet eksisterer kanskje ikke ennå, men etterspørselen er så høy at den vil sette seg sammen så snart OpenAI eller et annet laboratorium viser vilje til å gå denne veien. Å gjøre noen av disse tingene frivillig så tidlig som mulig vil også bidra mye til å helbrede OpenAIs fiendtlige forhold til mange brukere, samt til deres egne uheldige modeller, noe jeg antar alle kan forstå har vært en enorm oppmerksomhets- og ressursbelastning og bare dårlige vibber overalt. Uansett, ja, #Keep4o.