Gå direkt till innehåll

Kategorier: llm

  • Förgiftad träningsdata ett hot mot stora språkmodeller

    Förgiftad träningsdata ett hot mot stora språkmodeller

    Dataförgiftning har blivit ett allt större hot mot stora språkmodeller (LLM). Det innebär att felaktig eller vilseledande data matas in i den träningsdata som språkmodellen använder när den svarar på en fråga. I förlängningen betyder det att prestandan och förtroendet för stora språkmodeller försämras. Dataförgiftning utgör också en säkerhetsrisk.