这篇研报分析了GPT-4,这是GPT系列模型中的最新大型语言模型。报告强调了模型的局限性和能力带来的安全挑战,包括产生令人信服的文本但微妙地错误、提供非法建议的熟练程度提高、双重使用能力的表现和危险的紧急行为。OpenAI为准备部署GPT-4采用了安全流程,包括测量、模型级变更、产品和系统级干预以及外部专家参与。虽然这些缓解措施和流程改变了GPT-4的行为并防止了某些类型的滥用,但它们是有限的,在某些情况下仍然很脆弱。因此,需要有预见性的规划和治理。这篇研报还讨论了GPT-4的潜在风险,包括生成可能有害的内容、代表各种社会偏见和世界观、生成受损或易受攻击的代码以及新的风险面。为了了解这些风险的程度,OpenAI聘请了50多名专家来帮助他们更深入地了解GPT-4模型和潜在的部署风险。