IT之家 1 月 14 日消息,纽约大学的一项研究揭示了大型语言模型(LLM)在医学信息训练中的潜在风险。研究表明,即使训练数据中仅含有 0.001% 的错误信息,也可能导致模型输出不准确的医学答案。 数据“投毒”是一个相对简单的概念。LLM ...
纽约大学近期公布的一项研究,揭示了大型语言模型(LLM)在接收医学领域训练数据时面临的潜在风险。研究显示,即便训练数据中仅混入极少量(0.001%)的错误信息,也可能导致LLM输出不准确的医学答案,这一发现引起了广泛关注。