AI 10 Oct 2025 · 3 min read Bastam poucos documentos para inserir backdoors em LLMs Pesquisa da Anthropic revela que apenas 250 documentos maliciosos podem inserir backdoors em LLMs. A descoberta expõe falhas críticas de segurança e reforça a urgência de curadoria, auditoria e transparência na coleta de dados. Read more