Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrej Karpathy
Membangun @EurekaLabsAI. Sebelumnya Direktur AI @ Tesla, tim pendiri @ OpenAI, CS231n/PhD @ Stanford. Saya suka melatih jaring saraf dalam yang besar.
Saya tidak pernah merasa tertinggal sebanyak ini sebagai seorang programmer. Profesi ini secara dramatis difaktorkan ulang karena bit yang disumbangkan oleh programmer semakin jarang dan di antaranya. Saya merasa bahwa saya bisa menjadi 10X lebih kuat jika saya hanya merangkai dengan benar apa yang telah tersedia selama ~ tahun terakhir dan kegagalan untuk mengklaim peningkatan terasa seperti masalah keterampilan. Ada lapisan abstraksi baru yang dapat diprogram untuk dikuasai (selain lapisan biasa di bawah ini) yang melibatkan agen, subagen, perintah, konteks, memori, mode, izin, alat, plugin, keterampilan, kait, MCP, LSP, perintah garis miring, alur kerja, integrasi IDE, dan kebutuhan untuk membangun model mental yang mencakup semua kekuatan dan jebakan entitas yang pada dasarnya stokastik, salah, tidak dapat dipahami, dan berubah tiba-tiba bercampur dengan apa yang dulunya merupakan teknik kuno yang baik. Jelas beberapa alat alien yang kuat diserahkan kecuali tidak dilengkapi dengan manual dan semua orang harus mencari cara memegangnya dan mengoperasikannya, sementara gempa berkekuatan 9 yang dihasilkan mengguncang profesi. Singsingkan lengan baju Anda agar tidak tertinggal.
444
Saya suka ungkapan "makanan untuk dipikirkan" sebagai kemampuan kognitif yang konkret dan misterius yang dialami manusia tetapi LLM tidak memiliki padanan untuk.
Definisi: "sesuatu yang layak dipikirkan atau dipertimbangkan, seperti makanan mental yang menyehatkan pikiran Anda dengan ide, wawasan, atau masalah yang membutuhkan refleksi yang lebih dalam. Ini digunakan untuk topik yang menantang perspektif Anda, menawarkan pemahaman baru, atau membuat Anda merenungkan pertanyaan-pertanyaan penting, bertindak sebagai stimulasi intelektual."
Jadi dalam bahasa LLM itu adalah urutan token sedemikian rupa sehingga ketika digunakan sebagai prompt untuk rantai pemikiran, sampel bermanfaat untuk ditangani, melalui beberapa fungsi hadiah intrinsik yang belum ditemukan. Terobsesi dengan bentuk apa yang diambilnya. Makanan untuk dipikirkan.
483
Postingan baru cepat: Menilai otomatis diskusi Berita Peretas berusia satu dekade dengan melihat ke belakang
Saya mengambil semua artikel + diskusi Hacker News 930 halaman depan Desember 2015 dan meminta GPT 5.1 Thinking API untuk melakukan analisis ke belakang untuk mengidentifikasi komentar yang paling banyak/paling tidak prescient. Ini membutuhkan ~3 jam untuk kode getaran dan ~1 jam dan $60 untuk dijalankan. Ide ini dipicu oleh artikel HN kemarin di mana Gemini 3 diminta untuk berhalusinasi halaman depan HN satu dekade ke depan.
Lebih umum:
1. Analisis In-Hindsight selalu membuat saya terpesona sebagai cara untuk melatih model prediksi ke depan Anda sehingga membaca hasilnya sangat menarik dan
2. ada baiknya merenungkan seperti apa bentuknya ketika megaminds LLM di masa depan dapat melakukan pekerjaan semacam ini jauh lebih murah, lebih cepat, dan lebih baik. Setiap informasi yang Anda sumbangkan ke internet dapat (dan mungkin akan) diteliti dengan sangat rinci jika itu "gratis". Oleh karena itu juga tweet saya sebelumnya dari beberapa waktu yang lalu - "jadilah baik, LLM masa depan sedang menonton".
Selamat untuk 10 akun teratas pcwalton, tptacek, paulmd, cstross, greglindahl, moxie, hannob, 0xcde4c3db, Manishearth, dan johncolanduoni - GPT 5.1 Thinking menemukan komentar Anda menjadi yang paling berwawasan dan prescient dari semua komentar HN pada bulan Desember 2015.
Link:
- Lebih banyak detail di posting blog saya
- Repositori GitHub proyek jika Anda ingin bermain
- Halaman hasil aktual untuk kesenangan membaca Anda

1,02K
Teratas
Peringkat
Favorit
