Ley de Hsu: la energía mental necesaria para entender y llamar a la tontería de un modelo es inversamente proporcional al contenido de lo que está diciendo. En mi trabajo, los cocientíficos de IA parecen más inteligentes precisamente cuando las ideas subyacentes son menos claras