
Une étude montre que les attaques de mémoire peuvent détourner les agents d'IA pour transférer des crypto-actifs
Des chercheurs de Princeton mettent en évidence une faille d'"empoisonnement de la mémoire" dans les agents LLM : des injections de contexte malveillantes enfouies dans des magasins de vecteurs peuvent passer outre les garde-fous ...