A Lei de Goodhart afirma que "quando uma medida se torna um alvo, deixa de ser uma boa medida."
Em essência, se você tentar controlar algo focando em uma métrica específica, as pessoas vão otimizar para essa métrica, potencialmente minando o objetivo original.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
7 Curtidas
Recompensa
7
5
Repostar
Compartilhar
Comentário
0/400
TokenGuru
· 08-22 11:49
Os idiotas agora têm a regra padrão, após inúmeras experiências de cair em armadilhas.
Ver originalResponder0
gas_guzzler
· 08-22 11:40
Estão todos a tentar controlar os resultados, então de que indicadores estamos a falar?
Ver originalResponder0
NightAirdropper
· 08-22 11:38
Os indicadores estatísticos quantitativos são todos armadilhas enganosas.
A Lei de Goodhart afirma que "quando uma medida se torna um alvo, deixa de ser uma boa medida."
Em essência, se você tentar controlar algo focando em uma métrica específica, as pessoas vão otimizar para essa métrica, potencialmente minando o objetivo original.
Isto leva frequentemente a