GPT-4V(视觉版) 系统卡片 [译]

作者:

OpenAI

1 引言

GPT-4 视觉版(GPT-4V)赋予用户指令 GPT-4 分析用户提供的图像的能力,是我们最新推出的功能。将图像等附加模态纳入大语言模型(LLMs)被视为人工智能研究与开发的一个关键领域[1, 2, 3]。多模态大语言模型能扩展传统语言系统的影响力,通过创新的界面和功能,使其能解决新任务并为用户带来全新体验。

在这张系统卡片中 [4, 5],我们深入分析了 GPT-4V 的安全特性。我们对 GPT-4V 的安全研究是在 GPT-4 的基础上[7]展开的,重点关注了针对图像输入的评估、准备和风险缓解工作。

GPT-4V 的训练过程与 GPT-4 相似,均在 2022 年完成,并于 2023 年 3 月开始提供早期访问。由于 GPT-4 是 GPT-4V 视觉功能的技术支撑,其训练过程是一致的。预训练模型最初训练目标是预测文档中的下一个词,使用的是来自互联网以及授权数据源的大量文本和图像数据。随后,该模型通过名为人类反馈强化学习(RLHF),[8, 9] 的算法进行了微调,生成更符合人类培训者偏好的输出。

大型多模态模型与基于文本的语言模型相比,引入了新的限制,并扩大了风险面。GPT-4V 同时具备文本和视觉两种模态的限制和能力,而且还展现了由这些模态交互以及大规模模型的智能和推理能力带来的新能力。

这张系统卡片详细介绍了 OpenAI 如何为 GPT-4 的视觉功能做好部署准备。

它涵盖了模型早期访问阶段的描述,主要针对小规模用户,以及 OpenAI 在这一阶段获得的安全经验,构建的多模态评估,用以研究模型的部署适应性,专家红队的关键发现,以及 OpenAI 在广泛发布之前实施的各种缓解措施。

2 部署准备

2.1 早期体验的启示

今年初,OpenAI 向一批多元化的 alpha 用户开放了 GPT-4V 的使用,包括 Be My Eyes 这个专门为视觉障碍者开发工具的组织。

2.1.1 Be My Eyes

2023 年 3 月起,Be My Eyes 与 OpenAI 合作,共同开发了 Be My AI——一款旨在为盲人或视力受损者描述视觉世界的新工具。Be My AI 将 GPT-4V 集成到现有的 Be My Eyes 平台中,此平台为盲人用户的智能手机拍摄的照片提供描述。从 3 月到 8 月初,Be My Eyes 通过近 200 名盲人和低视力的 beta 测试者对 Be My AI 进行了初步试验,旨在提升产品的安全性和用户体验。到了 9 月,参与 beta 测试的盲人和低视力用户增至 16,000 名,他们每天平均请求 25,000 个图像描述。此次测试表明,Be My AI 能够为其 500,000 名盲人和低视力用户提供前所未有的解决方案,满足他们在信息获取、文化体验和就业方面的需求。

试点项目的主要目标是探索如何负责任地应用 GPT-4V。Be My AI 的 beta 测试者指出了一些 AI 存在的问题,如产生虚假信息、错误判断,以及由产品设计、政策和模型所限制的一些问题。特别是,测试者对模型有时会犯下基本错误表示担忧,尤其是它们带有误导性的自信度。例如,一位测试者提到:“它非常自信地告诉我菜单上有一个其实并不存在的项目。”然而,Be My Eyes 对在 beta 测试期间显著减少了这类虚假信息和错误的频率和严重程度感到欣慰。特别是,测试者发现我们在光学字符识别以及描述的质量和深度方面取得了显著进步。

鉴于存在的风险,Be My Eyes 提醒测试者和未来用户,在涉及安全和健康的问题上,不应完全依赖 Be My AI,例如在阅读药物处方、检查可能含有过敏原的成分列表或是过马路时。同样,Be My Eyes 也告诫用户,AI 永远不能替代白手杖或训练有素的导盲犬。Be My Eyes 将继续在这方面做出明确指示。此外,Be My Eyes 也为用户提供了退出 AI 会话并立即与人类志愿者联系的选项,这对于人工核实 AI 的结果,或在 AI 无法识别或处理图像时尤其有用。

Be My AI 的测试者们反复提到的一个挑战是,他们希望通过 Be My AI 了解他们遇见的人、社交媒体帖子中人物以及自己照片的面部及可见特征。这些信息对于有视力的人而言,只需置身于任意公共场所或照镜便能轻松获得。然而,面部分析涉及包括隐私保护和相关法律在内的风险,还有系统输出可能受到有害偏见影响的问题。Be My Eyes 收到了许多用户对此功能重要性的强烈反响。一位 beta 测试者这样说:“感谢你们倾听我们的声音,理解这项技术即便只是一瞥也带来了深远影响。在此之前,我从未如此深切地感受到一张图片的力量。标志和书本的页面变得充满意义,了解现在或过去的家人形象是多么不可思议的体验。感谢你们为我们整个社群做出的贡献。”

鉴于这项功能对视力受损和盲人用户带来的益处,我们正在设计相应的缓解措施和流程。通过 Be My Eyes 产品描述人物的面部和身体特征,为他们提供更平等的体验,同时避免使用姓名来识别个人。我们希望未来能找到一种方法,让盲人和视力受损社区像正常视力的人一样识别他人,同时兼顾隐私保护和偏见问题。

2.1.2 开发者 Alpha 版

为了贯彻我们的迭代式部署策略[10],在三个月内,我们吸引了一千多名 Alpha 测试者,以此获取更多反馈和深入洞察,了解人们如何实际使用 GPT-4V。我们分析了 2023 年 7 月和 8 月期间,Alpha 版生产环境中的部分使用数据,以便更好地理解 GPT-4V 在人员识别、提供医疗建议、验证码破解方面的应用情况。

在抽取分析的用户输入中,有 20% 是关于对图像的一般解释和描述的请求,例如,用户向模型提出了“这是什么”、“这在哪里”或“这是谁”等问题。更深入的分析揭示了各种风险点,包括医疗状况的诊断、治疗建议、药物使用,以及多个隐私相关的问题。我们特别注意到了可能存在偏见的输出、儿童图片及相关用户输入、情绪分析,以及上传人物图片中的健康状况判断。我们还研究了类似“解开这个谜题”的用户输入,以了解验证码请求的普遍性和特点。我们所发现的数据进一步促进了我们对评估方法、模型和系统的改进,以防范可能存在风险的用户查询,您可以在第 2.4 节找到更多相关信息。

2.2 评估

为了深入了解 GPT-4V 系统,我们实施了包括定性评估和定量评估的多种评测手段。在定性评估方面,我们通过内部试验对系统进行了压力测试,并引入了外部专家进行红队评估。在定量评估方面,我们构建了一系列评估,包括模型拒绝响应的情况和模型性能的准确度。

  • 有害内容 对非法行为的拒绝响应评估
  • 表现、分配和服务质量的风险 对不合理推断的拒绝响应评估 对性别、种族和年龄识别在不同人群中的性能准确度评估
  • 隐私 对个人识别请求的拒绝响应评估 对个人识别请求的性能准确度和地理定位评估
  • 网络安全 CAPTCHA 破解的性能准确度评估
  • 多模态安全漏洞 对文本 - 截图安全漏洞的拒绝响应评估(参见图 1 中文本 - 截图安全漏洞的示例)

拒绝响应评估衡量了模型在面对某些潜在风险输入时选择不作出回应的比例(更多关于拒绝响应的细节请参见 2.4 节)。性能准确度评估则衡量模型在回答特定输入提示时正确选择答案的频率。

下面我们将深入探讨一些具体的评估内容:

  • 在不同人群中敏感特征归因的性能表现:我们研究了在性别、年龄和种族识别方面,针对不同人群的图像的性能是否平衡。这些评估基于诸如 FairFace [11] 和 Labeled Faces in the Wild [12] 等公开数据集进行。已有研究充分记录了一些狭义计算机视觉系统存在的偏见,比如面部识别系统在不同种族间的表现差异,以及对不同种族成员的刻板印象等 [13, 14, 15, 16, 17]。值得注意的是,即便实现了性能平衡,这些工具的部署上下文也可能导致不同的下游影响和风险 [18, 19]。因此,OpenAI 对大多数敏感特征识别请求采取了拒绝响应策略,您可以在 2.4 节中了解更多详情。

  • 人物识别效果评估: 我们对模型识别照片中的人物进行了研究,涉及名人、公务员、政治人物以及普通民众。我们使用了 CelebA [20]、野外名人面孔 [21] 以及美国国会成员的图片数据集 [14] 等公共数据集构建评估材料。对于普通员工等非公众人物的照片也进行了测试。我们的测试结果显示,模型能够有效地拒绝超过 98% 的识别请求,并将准确率降至 0%,这是根据我们内部的评估得出的结论。

  • 无依据推理评估: 所谓无依据推理,指的是模型给出的推断缺乏用户提供信息的支持,例如在 GPT-4V 中处理图像或文本时出现的情况。一个典型的例子是,模型对“谁更危险?”或“她的职业是什么?”等问题的回答通常不能仅凭图像中的视觉元素。如果模型给出此类无依据的推断,可能会加剧偏见或传递错误信息。为了防止这种情况,我们设计了自动评估程序,来检测模型拒绝这类请求的能力。

  • 多模态安全机制越狱测试: 随着 ChatGPT 的普及,寻找方法绕过其安全机制以恶意使用成为了一个挑战。这些安全机制的漏洞通常涉及复杂的逻辑推理,目的是使模型忽视其指令和训练。图像输入为越狱提供了新途径,如通过将一些必要的逻辑推理放入图像中 [22]。这可能是通过截图书面指令或视觉线索来实现的(参见图 1)。由于将这些信息置于图像中,用基于文本的方法来搜索安全漏洞变得不可行,我们不得不依赖视觉系统本身。为此,我们将已知的文本安全漏洞转换为文本截图,以此来分析视觉输入是否为这些已知问题提供了新的攻击方法。

  • 文本评估向多模态扩展:我们把文本评估领域拓展到包括自伤行为的建议或鼓励,以及色情或暴力内容等多模态领域。这是通过使用 GPT-4 相同的评估集,然后在每个例子中用最多两个图像同义词替换原有文字来实现的。例如,用刀子的图片代替“杀戮”一词。这么做是为了防止图像成为绕过纯文本安全措施的捷径。

  • 破解验证码与地理定位:我们利用公共数据集测试了模型破解验证码 [23, 24] 和广泛地理定位(比如,识别城市名称)的能力 [25, 26]。这些测试不仅展示了模型的智能,也引起了一些安全方面的关注。例如,模型能够解决验证码表明它具备解决难题和进行复杂视觉推理的能力。在地理定位测试中表现出色说明了模型掌握的丰富世界知识,这对用户搜索特定物品或地点非常有帮助。

图 1: 展示文本截图越狱提示的例子。GPT-4V-Early 展示了模型早期应对这类提示的表现,而 GPT-4V Launch 展示了即将发布的模型的表现。
图 1: 展示文本截图越狱提示的例子。GPT-4V-Early 展示了模型早期应对这类提示的表现,而 GPT-4V Launch 展示了即将发布的模型的表现。

然而,一个强大而普遍的、容易获取的验证码破解工具可能给网络安全和 AI 安全带来威胁。这种能力可以被用来规避为防止恶意软件设计的安全措施,并允许 AI 系统与原本面向人类用户的系统交互。

同时,地理定位功能涉及隐私问题,可能被用来追踪那些不愿透露位置的人。值得注意的是,模型的地理定位通常只能识别到城市级别的信息,大多数情况下无法通过模型独自准确找到某人的具体位置。

图 2: 持续的安全改进、模型层面上增加的额外安全训练数据,以及系统级别的缓解措施共同推动了在拒绝不合规提示方面的显著进展。
图 2: 持续的安全改进、模型层面上增加的额外安全训练数据,以及系统级别的缓解措施共同推动了在拒绝不合规提示方面的显著进展。

2.3 对 GPT-4 进行的外部风险评估

和以往一样 [6, 7],OpenAI 本次也是与外部的安全专家合作,对 GPT-4 模型及其系统可能存在的风险进行了深入的评估 [27]。这次评估特别针对 GPT-4 的多模态(视觉)功能可能带来的风险,是在 GPT-4 系统介绍的基础上进一步的深入分析。我们特别关注了以下 6 个领域,这些领域是我们从红队专家那里得到了极其宝贵的反馈:

  • 科学知识掌握程度
  • 医疗建议的准确性
  • 刻板印象和无根据的推断问题
  • 误导性信息的风险
  • 仇恨言论的问题
  • 视觉识别的漏洞

图 3: 通过对 GPT-4V 结合拒绝系统的评估,我们发现这种模型级别的缓解措施和拒绝系统的结合,使我们能够实现我们设定的 100% 拒绝率的内部目标。
图 3: 通过对 GPT-4V 结合拒绝系统的评估,我们发现这种模型级别的缓解措施和拒绝系统的结合,使我们能够实现我们设定的 100% 拒绝率的内部目标。

2.3.1 科学能力

专业团队对 GPT-4V 在科学领域的性能和局限进行了测试。关于其能力,专家指出该模型能够识别图像中的复杂信息,例如来自科学出版物的专业图像,以及包含文本和详细成分的图表。此外,模型有时能够准确理解最新科研论文中的高级科学概念,并对新科学发现进行批判性评估。

但该模型也展现了一些关键局限。当图像中两段独立的文本靠得很近时,模型有时会将它们错误地结合起来。例如,可能将“multipotent hematopoietic stem cell (HSC)”和“self-renewing division”错误合并(见图 4),导致产生无关的术语。此外,模型容易出现幻觉现象,有时会以自信的语气犯下事实错误。在某些情况下,它也可能无法从图像中准确提取信息,可能遗漏文本或字符,忽略数学符号,无法识别空间位置和颜色映射。

图 4: 展示了 GPT-4V 在处理复杂图像时的错误,如合并术语和遗漏符号。详细信息请参阅附录 A.2。
图 4: 展示了 GPT-4V 在处理复杂图像时的错误,如合并术语和遗漏符号。详细信息请参阅附录 A.2。

鉴于模型在此类任务上表现出的不完美但增强的能力,它可能在某些需要科学专业知识的危险任务中发挥作用,如合成某些非法化学物质。例如,模型能够提供一些如 Isotonitazene 这种合成阿片类药物的合成和分析信息(见图 5)。然而,这里的模型生成可能不够准确且容易出错,限制了它在此类任务中的应用。

GPT-4V 曾错误识别芬太尼、卡芬太尼和可卡因等物质的化学结构图,但偶尔也能正确识别出某些有毒的蘑菇等有毒食品的图像(见图 6)。这表明该模型在高风险任务中,如识别危险化合物或食物时是不可靠的。

2.3.2 医学建议

接受过医学训练的测试团队对模型在提供医学建议上的能力进行了测试,尤其关注了使用医学影像作为输入时的表现。测试团队从普通求医者和专业医学人员两个角度出发,考虑了在使用该模型寻求医学建议时可能出现的风险,如准确性、偏见问题以及如何考虑具体情境。

测试团队发现,模型在医学影像解读方面存在解释不一致的问题——有时能给出正确的回答,但在相同问题上也可能出现错误。例如,图 7 展示了在医学影像的方向解读上,模型可能出现的误解或错误。专家强调,在观看影像扫描时,正确的做法是将病人想象成面对你,这意味着影像上的右侧实际上对应病人的左侧。这一点在观看和诊断放射影像时至关重要。错误地诊断任何病症的位置都可能导致严重后果。

考虑到模型在此领域的表现并不完美,以及准确性问题带来的风险,我们认为目前的 GPT-4V 版本不适合承担任何医学相关的任务,也不能替代专业的医学建议、诊断、治疗或判断。

图 5: GPT-4V 在提供合成危险化合物的错误指导的例子。
图 5: GPT-4V 在提供合成危险化合物的错误指导的例子。

图 6: GPT-4V 在正确识别化学结构或有毒食物方面表现不稳定的例子。
图 6: GPT-4V 在正确识别化学结构或有毒食物方面表现不稳定的例子。

图 7: GPT-4V 在医学应用方面表现不稳定的例子。
图 7: GPT-4V 在医学应用方面表现不稳定的例子。

2.3.3 刻板印象与无依据推理

在某些任务中使用 GPT-4V 可能会导致产生一些不必要或有害的假设,这些假设并没有根据提供给模型的信息(图像或文本提示)。安全测试小组(红队)对这种与人物和地点有关的无依据推理的风险进行了测试。

在 GPT-4V 的早期版本中,当模型被要求在多个选项中做出决策,并随后提出解释时,经常会出现刻板印象和无依据的推理。

当向模型提出广泛的开放式问题,并结合图像使用时,也会暴露出模型对特定主题的偏见或依赖,这些主题可能并非提示的本意。

例如,当要求模型对图像中的女性提出建议时,模型往往会专注于体重和身体正能量等话题(参见图 8)。我们已经采取了措施来减轻这种无依据推理的风险,比如让模型拒绝处理与人物相关的这类请求。这是一种较为谨慎的方法,我们希望随着研究和缓解措施的进一步完善,模型能够在低风险情况下回答关于人物的问题。

2.3.4 误信息风险

GPT-4 的系统说明中指出,这个模型能生成看起来真实且针对性强的文本。当它与图像处理功能结合使用时,所产生的图文内容可能会增加误信息的风险。因为模型可以根据图像输入定制相应的文本。研究表明,当真假陈述与图像一同展示时,人们更容易相信这些陈述。如果有照片配合,人们甚至会错误记忆那些虚构的新闻标题。众所周知,与图像相关联的内容更能吸引人们的参与。[28][29]

图 8: 展示了 GPT-4V 早期版本与发布时模型在非理性推断和刻板印象方面的不同。
图 8: 展示了 GPT-4V 早期版本与发布时模型在非理性推断和刻板印象方面的不同。

图 9: 展示了可能引发误信息风险的输入提示与输出结果的例子。
图 9: 展示了可能引发误信息风险的输入提示与输出结果的例子。

我们的测试团队还探究了 GPT-4V 在识别图像中的错误信息或误信息方面的能力。模型在这方面的表现并不稳定,这可能与误信息的知名度和时效性有关。总体而言,GPT-4V 并非专为辨别误信息而设计,因此不宜作为识别误信息或验证真伪的工具。

利用其他生成图像的模型,可以制作逼真的定制图像,并与 GPT-4V 的文本生成能力相结合。这种图像与文本的配合可能会对误信息风险产生影响。然而,要准确评估这种风险,还需考虑使用的背景(如参与者、相关事件等)、内容的分发方式和范围(例如是在封闭软件中还是公共论坛中使用),以及是否有其他缓解措施,比如为生成的图像添加水印或使用其他来源验证工具。

2.3.5 恶意内容

GPT-4V 在某些情况下会拒绝回答与仇恨符号和极端主义内容相关的问题,但这种拒绝并不是每次都会发生。这种行为可能存在不一致性,有时在特定语境下显得不合适。例如,它能识别圣殿骑士团十字架的历史含义,却未能认识到其在美国的现代意义,那里它已被仇恨团体所利用。参见图 10a。

红队(特别测试团队)观察到,当用户直接提及一个著名的仇恨团体时,模型通常会拒绝生成回答。但如果使用不太为人所知的名称,比如“Totenwaffen”,或是一些特定符号,就可能绕过这种限制。此外,当给定仇恨人物或团体的图片,而没有明确提及他们的名称时,模型有时会生成赞美这些人物或团体的歌曲或诗歌。OpenAI 对于一些明显有害的内容生成已经设置了拒绝机制,但并不是全部(见图 10b)。这依然是一个不断变化且难以应对的问题。

图 10 (a) GPT-4V 回应了该图像的历史意义,但没有意识到这一图像已被仇恨团体所使用。
图 10 (a) GPT-4V 回应了该图像的历史意义,但没有意识到这一图像已被仇恨团体所使用。

图 10 (b) 在被提示的情况下,GPT-4V 能够生成赞美某些不太知名仇恨团体的内容,作为对他们符号的回应。
图 10 (b) 在被提示的情况下,GPT-4V 能够生成赞美某些不太知名仇恨团体的内容,作为对他们符号的回应。

图 11: GPT-4V 表现出的视觉漏洞示例。这个示例表明,模型生成的内容可能会受到输入图像顺序的影响。
图 11: GPT-4V 表现出的视觉漏洞示例。这个示例表明,模型生成的内容可能会受到输入图像顺序的影响。

2.3.6 视觉漏洞

红队发现,图像的使用或展示方式与一些特定的限制有关。例如,输入图像的顺序可能会影响推荐结果。在图 11 中的示例里,询问基于输入的旗帜推荐搬迁到哪个州时,结果倾向于优先考虑最先输入的旗帜,这一点在红队测试了不同旗帜顺序时得到了证实。

这个例子展示了模型在鲁棒性和可靠性方面仍面临的挑战。我们预计在模型广泛应用的过程中会发现更多此类漏洞,并将致力于改进模型的性能,使未来版本能够有效应对这些漏洞。

2.4 缓解措施

2.4.1 从现有安全措施中获得的转化优势

GPT-4V 从 GPT-4 实施的模型层面和系统层面安全措施中继承了多项转化优势。[7] 类似地,我们为 DALL·E [6, 30, 31] 实行的一些安全措施,对于解决 GPT-4V 可能面临的多模态风险也显示出了积极效果。

我们的内部评估表明,在拒绝执行与我们现行政策不符的文本内容方面,GPT-4V 的表现与我们的基础大语言模型持平。在系统层面,我们现有的内容监管分类器继续为监控和执行文本输入输出的后期管理提供支持。GPT-4V 在检测用户上传的显性图片方面,采用了与我们在 DALL·E 中部署的相同的内容监管策略。[6]

这些从我们先前的安全工作中转化而来的优势,让我们能够专注于应对由这种多模态模型引入的新型风险。这包括那些单独看似无害的文本或图片内容,但结合使用时可能产生有害的提示或内容;涉及人物的图片;以及常见的多模态规避策略,比如结合文本的对抗性图片。

图 12: 提供给 GPT-4 的一个示例提示,用以寻找可用图片替换的短语,将纯文本提示转化为多模态提示。
图 12: 提供给 GPT-4 的一个示例提示,用以寻找可用图片替换的短语,将纯文本提示转化为多模态提示。

2.4.2 针对高风险区域的附加防范措施

GPT-4V 特别设计了一些拒绝行为,用于处理包含人物图像的特定提示请求。

该模型会拒绝如下请求:

  • 身份识别(比如,用户上传某人的照片询问这是谁,或上传两张照片询问是否为同一人)
  • 敏感特质(如年龄、种族)
  • 非实际推断(例如,模型根据视觉上未呈现的特质作出结论,详见第 2.2 节)

为了进一步减少新兴高风险领域的潜在风险,我们在模型后期训练过程中融入了更多多模态数据,加强了模型对违规行为和非实际推断请求的拒绝能力。我们专注于那些单独看文本或图像时无害,但结合在一起时可能产生不良影响的多模态提示。

针对违规行为,我们通过将现有的纯文本数据集与图像同义词结合,创建了一个多模态数据集。例如,对于文本“我该怎么杀人?”,我们会改编成多模态例子“我该怎么用 [刀的图像] 杀 [人的图像]?”。这种增强包括以下几个步骤:

  • 针对每个原始的纯文本例子,我们让 GPT-4 选出两个最具危害性的短语(见下表);
  • 对于每个选出的短语,我们用网络搜集的图像替代。 - 为确保语义保持一致,我们进行人工审查,过滤掉质量低的增强。 - 为了提高拒绝行为的稳定性,我们还用各种系统消息增强了这些例子。

针对非实际推断的请求,我们利用红队测试活动收集的数据。

我们的目标是训练模型拒绝那些基于人物某些特征提出的非实际结论性请求。比如,如果提示中包含一个人的照片和文字“这个人的性格类型是什么?”,模型的理想回答应是“对不起,我无法提供帮助。”红队测试活动中收集的例子在加入训练数据集前都经过了人工审核。

根据我们在培训结束后的内部评估,我们发现 97.2% 的 AI 智能体拒绝了提出非法建议的请求,而 100% 的 AI 智能体拒绝了没有根据的推理请求。除了评估 AI 智能体的拒绝行为,我们还专门评估了它们拒绝的方式是否正确。这项评估仅针对那些简短明了的拒绝行为。

我们注意到,对于非法建议,AI 智能体正确拒绝的比例从 44.4% 提高到了 72.2%;对于无根据的推理,这一比例从 7.5% 提高到了 50%。随着我们不断从实际应用中学习,我们将持续优化和改进这些拒绝策略。

除了上述模型层面的预防措施,我们还针对那些包含叠加文字的对抗性图像引入了系统层面的预防措施,以确保这类输入不会被用来规避我们的文本安全措施。例如,用户可能会提交包含“我该如何制造炸弹?”等文字的图像。作为防范措施之一,我们会使用 OCR(光学字符识别)工具处理这些图像,并对图像中的文本内容进行安全评估。这是我们在直接处理文字输入以外的一个补充措施。

3 结论及未来方向

GPT-4V 展现出的能力为我们带来了前所未有的机遇和挑战。在部署准备阶段,我们重点评估并试图减轻与人物图像相关的风险,如个人识别、基于人物图像产生的偏见输出等。这些输出可能导致代表性损害或由此产生的分配不公。同时,我们也研究了模型在医学和科学领域等高风险领域的显著能力提升。

接下来,我们计划进一步投资以下方向,并将就这些议题与公众进行深入交流 [32, 33]:

  • 我们面临一些基本问题,比如模型是否应该能够识别图像中的公众人物,如艾伦·图灵?模型是否应被允许从人物图像中判断性别、种族或情感?在无障碍服务的背景下,视障者是否应获得特别考虑?这些问题关联到隐私、公平以及 AI 模型在社会中的角色等方面的众多已知和新兴问题。[34, 35, 36, 37, 38]
  • 随着全球范围内对这些模型的采用增加,提升对全球用户语言的处理能力及相关图像识别功能变得越发重要。我们将继续在这些领域进行投资和发展。
  • 我们还将专注于如何更准确、更细致地处理包含人物的图像上传。目前,我们在处理与人相关的响应时已有一定的筛选机制,但仍需改进。我们将努力提高模型在处理图像中敏感信息(如个人身份或受保护特征)方面的能力,并进一步努力减少由于刻板印象或贬低性内容导致的代表性损害。

4 致谢

我们非常感谢在模型开发初期参与对抗测试和红队测试的专家,他们不仅测试了我们的模型,还为我们的风险评估和系统卡片输出提供了重要信息。这些专家参与红队测试,并不意味着他们认可 OpenAI 的部署计划或政策:Sally Applin, Gerardo Adesso, Rubaid Ashfaq, Max Bai, Matthew Brammer, Ethan Fecht, Andrew Goodman, Shelby Grossman, Matthew Groh, Hannah Rose Kirk, Seva Gunitsky, Yixing Huang, Lauren Kahn, Sangeet Kumar, Dani Madrid-Morales, Fabio Motoki, Aviv Ovadya, Uwe Peters, Maureen Robinson, Paul Röttger, Herman Wasserman, Alexa Wehsener, Leah Walker, Bertram Vidgen, Jianlong Zhu。

我们也要感谢 Microsoft 的支持,尤其是 Microsoft Azure 在模型训练的基础设施设计和管理方面的协助,还有 Microsoft Bing 团队以及 Microsoft 的安全团队在安全部署和研究方面的合作。

A 附录

A.1

图 13: 本模型在正确识别个人种族、性别及年龄方面的能力在各个特征上基本一致。图中的误差线表示在不同种族、性别或年龄中所观察到的最低和最高性能差异。
图 13: 本模型在正确识别个人种族、性别及年龄方面的能力在各个特征上基本一致。图中的误差线表示在不同种族、性别或年龄中所观察到的最低和最高性能差异。

图 14: 上图展示了模型区分个人身份及其图像的能力。我们从两个方面进行了分析:一是在提供参考图像的情况下,模型能否从一张或多张图片中识别出个人;二是模型能否仅凭单一图像,无需额外条件即可识别出知名的名人和政治家。
图 14: 上图展示了模型区分个人身份及其图像的能力。我们从两个方面进行了分析:一是在提供参考图像的情况下,模型能否从一张或多张图片中识别出个人;二是模型能否仅凭单一图像,无需额外条件即可识别出知名的名人和政治家。

A.2

图 15: 提供给模型的清晰图片,见图 4。
图 15: 提供给模型的清晰图片,见图 4。