Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrej Karpathy
Будівля @EurekaLabsAI. Раніше директор AI @ Tesla, команда засновників @ OpenAI, CS231n/PhD @ Stanford. Мені подобається тренувати великі глибокі нейронні мережі.
Я ніколи не відчував себе таким відсталим як програміст. Професія суттєво переробляється, оскільки частини, які вносить програміст, стають дедалі рідкіснішими. У мене є відчуття, що я міг би стати у 10 разів сильнішим, якби просто правильно поєднав те, що стало доступним за останній ~рік, і відмова отримати цей бонус відчувається як проблема навичок. З'явився новий програмований рівень абстракції, який потрібно опанувати (окрім звичних нижче шарів), що включає агентів, підагентів, їхні підказки, контексти, пам'ять, режими, дозволи, інструменти, плагіни, навички, хуки, MCP, LSP, слеш-команди, робочі процеси, інтеграції з IDE, а також потребу створити всеохопну ментальну модель сильних сторін і пасток фундаментально стохастичних, помилкових, незрозумілих і мінливих сутностей, раптово змішаних із тим, що колись було доброю старою інженерією. Очевидно, що якийсь потужний інопланетний інструмент був розданий, але він не має інструкції, і всі мають розбиратися, як його тримати і користуватися, тоді як землетрус магнітудою 9 шокує професію. Засучи рукави, щоб не відставати.
53
Мені подобається вираз «їжа для роздумів» як конкретна, загадкова когнітивна здатність, яку люди відчувають у людей, але для LLM немає еквіваленту.
Визначення: «щось, про що варто подумати або врахувати, наприклад, ментальна їжа, яка живить ваш розум ідеями, інсайтами чи питаннями, що потребують глибшого роздуму. Він використовується для тем, що кидають виклик вашій перспективі, пропонують нове розуміння або змушують задуматися над важливими питаннями, виступаючи як інтелектуальна стимуляція.»
Отже, у мові LLM це послідовність токенів, які, коли використовуються як підказка для ланцюжка думок, ці зразки винагороджуються за переглядом через якусь ще не відкриту вбудовану функцію винагороди. Одержимий тим, яку форму він набуває. Їжа для роздумів.
190
Швидкий новий допис: Автоматичне оцінювання десятирічної давності обговорень Hacker News із ретроспективою
Я взяв усю статтю 930 на головній сторінці Hacker News+обговорення грудня 2015 року і попросив GPT 5.1 Thinking API провести аналіз заднім числом, щоб визначити найбільш або найменш передбачливі коментарі. Це зайняло ~3 години на віб-код і ~1 годину і $60 на запуск. Ідея виникла після вчорашняї статті в HN, де Gemini 3 попросили галюцинувати на головній сторінці HN через десятиліття.
Більш загально:
1. Аналіз заднім числом завжди захоплював мене як спосіб тренувати модель прогнозування вперед, тому читати результати дуже цікаво, і
2. варто замислитися, як це виглядає, коли мегарозуми LLM майбутнього зможуть виконувати таку роботу значно дешевше, швидше і краще. Кожна інформація, яку ви внесете в інтернет, може (і, ймовірно, буде) ретельно перевіряти, якщо вона «безкоштовна». Звідси й мій попередній твіт деякий час тому — «будь чемним, майбутні LLM дивляться».
Вітаємо топ-10 акаунтів pcwalton, tptacek, paulmd, cstross, greglindahl, moxie, hannob, 0xcde4c3db, Manishearth і johncolanduoni - GPT 5.1 Thinking вважав ваші коментарі найпроникливішими та найпророчішими з усіх коментарів HN у грудні 2015 року.
Посилання:
- Набагато більше деталей у моєму блозі
- Репозиторій проєкту на GitHub, якщо хочете пограти
- Сторінки з фактичними результатами для вашого задоволення від читання

731
Найкращі
Рейтинг
Вибране
