Skip to content
cropped-Logo-2.png

Tudo sobre Regulação & Avaliação de IA, no Brasil e no Mundo

Primary Menu
  • Artigos
  • Regulação
    • Brasil
    • EUA
    • Europa
    • Direitos Autorais
    • Responsabilidade Civil
  • Avaliação
    • Auditoria
    • Riscos
      • Incidentes
      • AI Psychosis
      • Deepfake
      • Segurança
    • Testes
  • Referências
    • Instituições
    • Legislações
  • Home
  • Avaliação
  • Riscos
  • Poucos documentos maliciosos podem corromper LLMs de qualquer tamanho, conclui estudo da Anthropic
  • Riscos
  • Segurança

Poucos documentos maliciosos podem corromper LLMs de qualquer tamanho, conclui estudo da Anthropic

Redação 15/10/2025 1 minute read
Imagem: Pixabay

Estudo da Anthropic revelou que apenas 250 documentos maliciosos podem ser suficientes para criar vulnerabilidades em IA do tipo backdoor em um modelo de linguagem — independentemente do tamanho do modelo ou do volume de dados de treinamento.

Para chegar a esta conclusão, os estudiosos compararam um modelo de 13B parametros e um de 600M parâmetros, e ambos estavam susceptíveis às mesmas vulnerabilidades (apenas 250 documentos).

O estudo foi conduzido pela Anthropic, em parceria com o UK AI Security Institute e o Alan Turing Institute.

A descoberta representa um novo desafio para especialistas em auditoria e segurança de IA, já que o estudo aponta que responsáveis por usos maliciosos não precisam controlar uma porcentagem significativa do conjunto de dados, mas apenas inserir uma pequena quantidade de exemplos manipulados para comprometer o modelo.

Quer mais notícias sobre riscos e vulnerabilidades em IA? Riscos

Post navigation

Previous: ANPD define participantes do primeiro Sandbox Regulatório em IA
Next: Mapa reúne os principais processos de copyright nos EUA envolvendo IA

Notícias relacionadas

cctv-surveillance-camera-7267551_1920
3 minutes read
  • Riscos

Surveillance pricing e os limites legais da precificação algorítmica

Redação 01/01/2026 0
Open AI Prompt Injection
3 minutes read
  • Riscos
  • Segurança

Prompt Injection: os desafios de segurança

Redação 29/12/2025 0
adventure-8013826_1280
4 minutes read
  • AI Psychosis
  • Riscos

Novas ações contra o ChatGPT por “AI Psychosis”

Redação 20/11/2025 0

Archives

  • janeiro 2026
  • dezembro 2025
  • novembro 2025
  • outubro 2025

Categories

  • AI Psychosis
  • Artigos
  • Auditoria
  • Avaliação
  • Brasil
  • Deepfake
  • Direitos Autorais
  • Estudos
  • EUA
  • Europa
  • Incidentes
  • Regulação
  • Responsabilidade Civil
  • Riscos
  • Segurança
  • Testes
  • Política de Privacidade
  • Termos & Condições
  • Informações de Contato
  • Sobre Nós
Copyright © All rights reserved. O conteúdo pode ser reproduzido, desde que a fonte seja mencionada e o link da publicação original seja incluído. | MoreNews by AF themes.