Förgiftad träningsdata ett hot mot stora språkmodeller
Dataförgiftning har blivit ett allt större hot mot stora språkmodeller (LLM). Det innebär att felaktig eller vilseledande data matas in i den träningsdata som språkmodellen använder när den svarar på en fråga. I förlängningen betyder det att prestandan och förtroendet för stora språkmodeller försämras. Dataförgiftning utgör också en säkerhetsrisk.