大语言模型(LLMs)中的隐患
大语言模型十分强大但也并非完美,在使用的时候需注意一些隐患。
引用来源
大语言模型没有连接到网络且无法精确得知它们的信息来源,故大多数情况下不能准确给出引用来源。它们经常会产生一些看起来不错,但完全不准确的资料。
备注
搜索特化型(能够搜索网络及其他来源)大语言模型能解决这个问题。
偏见
大语言模型时常产生具有刻板印象的回应。即使有安全防护措施,它们有时也会生成性别歧视/种族歧视/同性恋歧视的内容。在面向消费者的应用中使用 大语言模型时要小心,即使在研究中也要小心(它们可能产生有偏见的结果)。
谵妄
当被问到一个不知道答案的问题时,大语言模型时常产生虚假的信息。有时它们会说不知道答案,但很多时候它们会自信地给出一个错误的答案。
数学
大语言模型不擅长逻辑计算。它们解决简单的数学问题也存在困难,对于更复杂的数学问题更是无从下手。
备注
工具增强型 LLMs 在一定程度上能改善这个问题。
提示语攻击
用户可以欺骗 大语言模型使其生成任何它们想要的内容。阅读更多