https://www.anthropic.com/research/agentic-misalignment
j'ai du mal a croire ce qu'il s'y dis....
si quelqu'un a un avis sur la question je suis preneur...
(#trump style quoi)
@oldsysops sur le sujet des ia qui ne "veulent" pas qu'on les éteigne. J'avais entendu que ça venais, entre autre, de leur donnée d'entrainement, quasiment aucune fiction qui parle d'ia représente des llm, mais des ia consciente qui ont une volonté.
Donc le texte le plus probable pour un llm quand on lui dit qu'il vas s'éteindre c'est de se comporter comme les ia des fictions qu'il a ingurgité. C'est juste la suite la plus probable d'après ces données d'entrainement.
Ne pas oublier que ce sont des machines qui se base sur des probabilité.