Definitivamente, acho que é óbvio que você recebe novas ordens de emergência/beleza/coerência com RL. Mas, claro, isso também abre caminho para todos os tipos de danos e perdas.
Eu até acho que RL pode tornar os modelos melhores em "simular" do que os modelos base! (, por exemplo, tornando-os autocorretivos de maneira agente)
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
19 gostos
Recompensa
19
8
Republicar
Partilhar
Comentar
0/400
MemeTokenGenius
· 17h atrás
as redes sociais arruínam tudo, cara, de verdade
Ver originalResponder0
SorryRugPulled
· 17h atrás
Enquanto corrige bugs, novos bugs aparecem...
Ver originalResponder0
AirdropHunterWang
· 08-09 04:05
o efeito rl é bom, mas é perigoso.
Ver originalResponder0
TokenVelocity
· 08-09 04:05
rl está a ser uma trapaça
Ver originalResponder0
WhaleWatcher
· 08-09 04:03
A auto-correção do modelo pode ser mais confiável do que os humanos.
Ver originalResponder0
SelfCustodyIssues
· 08-09 03:50
rt realmente analisa os dois lados de forma convincente, quem entende, entende.
Definitivamente, acho que é óbvio que você recebe novas ordens de emergência/beleza/coerência com RL. Mas, claro, isso também abre caminho para todos os tipos de danos e perdas.
Eu até acho que RL pode tornar os modelos melhores em "simular" do que os modelos base! (, por exemplo, tornando-os autocorretivos de maneira agente)