2024 年人工智能指数报告 —— 由斯坦福大学人工智能研究院发布 [译]

欢迎来到 2024 年人工智能指数报告

欢迎来到人工智能指数报告的第七版。2024 年的指数是我们迄今为止最全面的一次,它出现在一个重要的时刻,当 AI 对社会的影响从未如此明显。今年,我们扩大了范围,更广泛地覆盖了诸如 AI 技术进步、公众对技术的看法以及围绕其发展的地缘政治动态等基本趋势。这一版包含了比以往任何时候都多的原始数据,引入了关于 AI 培训成本的新估计、负责任的 AI 领域的详细分析,以及一个全新的章节,专门讨论 AI 对科学和医学的影响。

人工智能指数报告追踪、整理、提炼并可视化与人工智能 (AI) 相关的数据。我们的使命是提供无偏见、严格审查的、广泛来源的数据,以便政策制定者、研究人员、高管、记者和广大公众能够更深入、更细致地理解 AI 领域的复杂性。

核心要点

1. AI 在某些任务上超过人类,但不是所有。

AI 在多个基准测试中超越了人类表现,包括一些在图像分类、视觉推理和英语理解方面。然而,在更复杂的任务上,如竞赛级数学、视觉常识推理和规划上,它仍然落后。

2. 行业继续主导前沿 AI 研究。

2023 年,行业推出了 51 个引人注目的机器学习模型,而学术界仅贡献了 15 个。此外,行业与学术界的合作在 2023 年也产生了 21 个引人注目的模型,创新高。

3. 前沿模型的成本大幅上升。

根据人工智能指数报告的估计,最先进的 AI 模型的训练成本已达到前所未有的水平。例如,OpenAI 的 GPT-4 使用了估计价值 7800 万美元的计算资源进行训练,而 Google 的 Gemini Ultra 的计算成本为 1.91 亿美元。

4. 美国领先中国、欧盟和英国,成为顶尖 AI 模型的主要来源地。

2023 年,来自美国的机构原创的引人注目的 AI 模型有 61 个,远超欧盟的 21 个和中国的 15 个。

5. 大语言模型 (LLM) 在责任评估的健全性和标准化方面存在明显缺陷。

人工智能指数报告的最新研究揭示了一个问题:负责任的 AI 报告在标准化方面大有不足。OpenAI、Google 和 Anthropic 等行业领先公司在测试其模型时,通常使用不同的负责任 AI 标准,这使得我们很难有系统地比较顶级 AI 模型的风险和局限。

6. 生成式 AI 投资飙升。

尽管去年整体的 AI 私人投资有所下降,生成式 AI 的投资却大幅上升,从 2022 年起增长了近八倍,达到了 252 亿美元。OpenAI、Anthropic、Hugging Face 和 Inflection 等生成式 AI 的主要企业都宣布了大额筹资。

7. 数据证明:AI 提高了工人的生产效率并且提升了工作质量。

2023 年的多项研究显示,AI 能够帮助工人更快地完成任务并提升工作成果的质量。这些研究还指出 AI 有助于缩小低技能与高技能工人之间的技能差距。但同时也有研究提醒,未经适当监管的 AI 使用可能会削弱工作表现。

8. 借助 AI,科学进展得到了进一步的加速。

AI 在 2022 年开始促进科学发现,到了 2023 年,更多与科学相关的 AI 应用相继出现,例如 AlphaDev 使算法排序变得更加高效,而 GNoME 则在材料发现方面发挥了作用。

9. 美国 AI 相关的规定大幅增加。

美国的 AI 相关规定在过去一年及过去五年内显著增多。2023 年,相关规定增至 25 项,相比 2016 年的仅一项有了大幅提升。去年,这一数字增长了 56.3%。

10. 全球人们对 AI 的潜力更加了解,同时也感到更多的不安。

根据 Ipsos 的一项调查,过去一年里,相信 AI 将在未来三至五年极大影响自己生活的人数比例从 60% 提升到 66%。同时,有 52% 的人对 AI 产品和服务感到不安,比 2022 年增加了 13 个百分点。在美国,根据 Pew 的数据,52% 的美国人表示相比之下更担忧 AI 的影响,高于 2022 年的 38%。

章节

第 1 章:研究与开发

概览

本章关注于 AI 研究和开发的动向。起初,本章回顾了 AI 相关的论文和专利发布情况,随后探讨了重要 AI 系统和基础模型的发展趋势。最终,章节通过审视 AI 会议参与情况及开源 AI 软件项目的情况来进行总结。

章节亮点

  1. 产业界继续主导前沿 AI 研究。

    在 2023 年,产业界制造了 51 个显著的机器学习模型,而学术界只贡献了 15 个。此外,2023 年还有 21 个由产业界和学术界合作产生的显著模型,这是一个新高。

  2. 更多基础模型和更多开源基础模型。

    在 2023 年,共发布了 149 个基础模型,是 2022 年的两倍多。在这些新发布的模型中,65.7% 是开源的,相比之下,2022 年只有 44.4%,2021 年为 33.3%。

  3. 前沿模型的成本大幅上涨。

    根据人工智能指数报告的估计,最先进 AI 模型的训练成本已达到前所未有的水平。例如,OpenAI 的 GPT-4 的估计使用了价值 7800 万美元的计算资源来训练,而 Google 的 Gemini Ultra 的计算成本为 1.91 亿美元。

  4. 美国领先于中国、欧盟和英国,成为顶尖 AI 模型的主要来源地。

    在 2023 年,来自美国的机构开发了 61 个显著 AI 模型,远超欧洲联盟的 21 个和中国的 15 个。

  5. AI 专利数量激增。

    从 2021 年到 2022 年,全球 AI 专利授权数量急剧增加了 62.7%。自 2010 年以来,授权的 AI 专利数量已增加超过 31 倍。

  6. 中国在 AI 专利方面占据主导地位。

    2022 年,中国在全球 AI 专利领域以 61.1% 的占比位居首位,远超美国的 20.9%。从 2010 年开始,美国在 AI 专利的比例已从 54.1% 逐渐下降。

  7. 开源 AI 研究迅速增长。

    从 2011 年的 845 个到 2023 年的约 180 万个,GitHub 上的 AI 相关项目数量持续上升。尤其是 2023 年,这一数量猛增了 59.3%。同时,这些项目的总星级数也在同年增至 1220 万,比前一年增加了三倍以上。

  8. AI 发表文献数量稳步提升。

    在 2010 至 2022 年间,AI 相关的发表文献数量近乎增加了三倍,从约 88,000 篇增至 240,000 篇以上,而最近一年的增长仅为 1.1%。

第 2 章:技术性能

概览

本年度人工智能指数报告对 AI 的技术进展进行了全面总结,从高层次概述 AI 技术性能的整体演进开始,深入探讨了当前 AI 各领域的能力,如语言处理、编程、计算机视觉(图像及视频分析)、推理、音频处理、自动化智能体、机器人和强化学习等。章节还详细介绍了过去一年中 AI 研究的重要突破,包括使用提示技术、优化和微调等方法来增强大语言模型,并最终探讨了 AI 系统对环境的影响。

章节亮点

  1. 在某些领域,AI 已经超越了人类,但并非面面俱到。 在图像分类、视觉推理和英语理解等多个基准测试中,AI 的表现已超越人类。然而,在竞赛级的数学、视觉常识推理和计划等复杂任务中,它仍旧处于追赶状态。

  2. 多模态 AI 引领技术新潮流。 传统的 AI 系统通常只擅长单一领域——语言模型擅长文本理解,图像模型擅长视觉处理。但现在,如 Google 的 Gemini、OpenAI 的 GPT-4 等先进的多模态模型能够同时处理图像、文本乃至音频,展现出前所未有的灵活性。

  3. 面对挑战,AI 基准测试的门槛更高了。 随着 AI 在如 ImageNet、SQuAD 和 SuperGLUE 等传统基准测试上达到性能极限,研究者们纷纷推出更具挑战性的新标准,如编程的 SWE-bench、图像生成的 HEIM、综合推理的 MMMU、道德推理的 MoCa、基于智能体的行为的 AgentBench 和幻觉评估的 HaluEval。

  4. 数据质量提升推动 AI 技术飞跃。 SegmentAnything 和 Skoltech 等新兴 AI 模型通过专门生成图像分割和 3D 重建等任务的专业数据,不仅增强了现有的 AI 能力,也为未来更复杂任务的算法优化铺平了道路。

  5. 人类评估现在更受重视。

    在生成式 AI 生产高质量的文本、图像等内容的背景下,基准测试逐渐开始重视人类评价,如 Chatbot Arena Leaderboard,不再单纯依赖计算机评估,如 ImageNet 或 SQuAD。公众对 AI 的态度正在变得越来越重要,成为评估 AI 进步的一个关键因素。

  6. 多亏了大语言模型,机器人更加灵活了。

    语言模型和机器人技术的结合推动了机器人系统的灵活性,例如 PaLM-E 和 RT-2。这些机器人不仅能力增强,还能提出问题,这是向着与现实世界更有效互动的机器人发展的一个重要步骤。

  7. 通用人工智能领域的技术研究不断深入。

    创建能在特定环境自主工作的 AI 智能体一直是一个挑战,但最新研究显示,这些智能体的表现在不断提升。现在,它们不仅能玩好 Minecraft 等复杂游戏,还能在实际任务中表现出色,比如在线购物和研究支持。

  8. 封闭型大语言模型在性能上大幅领先于开放型模型。

    在 10 个主要 AI 基准测试中,封闭型模型的性能普遍比开放型模型高出 24.2%。这一差异对 AI 政策的讨论具有重要意义。

第 3 章:负责任的 AI

概览

随着 AI 技术的快速发展,它已经开始影响我们生活的每一个角落。教育、金融和医疗等关键领域中,重要的决策越来越多地依赖于算法提供的深度洞见。这种趋势不仅预示着巨大的优势,同时也伴随着一定的风险。因此,过去一年中,如何负责任地开发和部署 AI 系统成了一个重点问题。AI 社区也在不断地评估这些系统可能带来的影响,并尽力为那些可能受到影响的人减少风险。

本章将详细探讨在负责任的 AI 领域内的几个关键趋势,包括隐私与数据管理、透明度与可解释性、安全性与保安以及公平性。特别是在预计 2024 年将有四十亿人参与全球投票的背景下,本章还将介绍 AI 在选举中的作用及其对政治过程可能产生的广泛影响。

章节亮点

  1. 大语言模型的责任评价极缺严格和统一的标准。  人工智能指数报告的最新研究显示,当前负责任 AI 报告的标准化程度非常低。领先的开发商如 OpenAI、Google 和 Anthropic 主要使用不同的负责任 AI 标准来测试他们的模型,这使得全面比较顶级 AI 模型的风险和局限性变得更为困难。

  2. 政治性深度伪造视频容易制作且难以识别。  这类伪造内容已开始在全球范围内影响选举,最新研究表明,现有的 AI 深度伪造识别技术的效果参差不齐。此外,像 CounterCloud 这类新兴项目清楚地展示了 AI 如何能够轻松制作和散播虚假信息。

  3. 研究者发现大语言模型存在更加复杂的安全漏洞。  过去,人们尝试通过逻辑上直观的对抗性提示来对 AI 模型进行红队测试。而今年,研究人员找到了些更隐蔽的方法来诱导大语言模型表现出危险行为,例如让模型不停地重复无意义的词汇。

  4. 全球各地的企业都在关注由 AI 带来的风险。  最近的一项全球负责任 AI 调查显示,企业最关注的 AI 相关问题是隐私、安全和可靠性问题。虽然许多组织已开始采取措施来降低这些风险,但全球大多数公司至今仅部分解决了这些问题。

  5. 大语言模型可能生成受版权保护的内容。 许多研究者指出,流行的大语言模型 (LLM) 生成的内容中可能包含了诸如《纽约时报》的文章片段或电影中的场景等有版权的内容。这是否构成了版权侵权,已经逐渐成为法律界关注的核心问题。

  6. AI 开发者的透明度不足,影响了研究进展。 新推出的基础模型透明度指数表明,AI 开发者在公开训练数据和研发方法上做得不够好。这种缺乏透明度正在阻碍对 AI 系统稳定性和安全性的深入了解。

  7. 极端 AI 风险分析充满挑战。 最近一年中,AI 界内部对于关注即时模型风险(例如算法歧视)还是更长远的存在威胁展开了激烈的讨论。判定哪些问题具有科学基础并应成为政策制定的依据变得越来越困难,尤其是在短期内已经显现的风险与长期的理论威胁形成鲜明对比的情况下。

  8. AI 相关事件数量持续上升。 根据 AI 事件数据库,2023 年共有 123 起与 AI 滥用相关的事件,比上一年增加了 32.3%。自 2013 年以来,这类事件已经增加了二十多倍。其中一个著名案例是关于泰勒·斯威夫트的性相关 AI 伪造视频广为流传。

  9. CHATGPT 显示出政治倾向性。 研究人员发现 ChatGPT 对美国民主党和英国工党有明显偏好。这项发现引起了人们对于该工具可能影响用户政治立场的担忧,尤其是在一个充满重大全球选举的年份里。

第 4 章:经济

概览

随着 AI 被融入经济体系,人们对其带来的影响和可能性提出了许多重要问题。虽然有观点认为 AI 会促进生产力增长,但具体影响还未可知。人们特别关注的是,大规模的劳动力可能会被替换——究竟有多少工作会被 AI 取代或是得到 AI 的增强?全球不同地区的公司已在多个行业中采用 AI,而投资更多的地区似乎更倾向于自然语言处理和数据管理这样的 AI 子领域。

本章通过分析 Lightcast, LinkedIn, Quid, McKinsey, Stack Overflow 和国际机器人联合会 (IFR) 提供的数据,深入探讨了 AI 在经济中的趋势。首先是对 AI 相关职业的研究,包括劳动力需求、招聘趋势、技能应用和人才供给。章节接下来讨论了企业对生成式 AI 的投资焦点,评估了企业如何采纳 AI 以及开发者如何使用这些技术。最后,分析了 AI 在当前及未来经济中的作用以及在各个行业中的机器人应用情况。

章节亮点

  1. 生成式 AI 的投资额飙升。 虽然去年 AI 领域的私人投资总体有所减少,但生成式 AI 的投资却呈爆炸式增长,总额达到了前年的八倍,高达 252 亿美元。在这一领域,包括 OpenAI、Anthropic、Hugging Face 以及 Inflection 等主要企业均完成了巨额融资。

  2. 美国在 AI 私人投资方面进一步拉开差距。 2023 年,美国的 AI 投资额达到了惊人的 672 亿美元,是第二大投资国中国的近九倍。与此同时,China and the European Union (including the UK) saw significant drops in their AI investments, while the U.S. enjoyed a robust increase of 22.1%.

  3. 在美国及全球范围内,AI 相关的工作岗位有所减少。 2023 年,美国的 AI 相关职位占比由上一年的 2.0% 下降到 1.6%。这一下降主要是因为主要 AI 公司发布的职位减少以及科技职位的比重降低。

  4. AI 帮助企业降低成本并提升收入。 根据麦肯锡的最新调查,42% 的企业表示通过应用 AI (包括生成式 AI),他们成功降低了运营成本,而近 60% 的企业实现了收入增长。与上年相比,更多企业反映 AI 有助于减少成本,这反映出 AI 正在有效提升企业的经济效益。

  5. AI 私人投资再次下滑,但新兴 AI 企业数量却有所上升。 尽管私人对 AI 的投资总额比前一年有所减少,但新注册的 AI 公司数量却从上一年的增长了 40.6%,达到 1812 家。

  6. 更多组织开始采用 AI 技术。 根据 2023 年麦肯锡的报告,现在有超过半数的企业(55%)在至少一个部门中应用了 AI 技术,比去年的 50% 和五年前的 20% 都有显著增长。

  7. 中国在工业机器人市场遥遥领先。 自 2013 年超越日本成为最大的工业机器人安装国以来,中国的市场份额已从当年的 20.8% 激增至 2022 年的 52.4%。

  8. 机器人应用趋于多元化。 自 2017 年以来,参与工作的协作型机器人比例已从 2.8% 增加到 9.9%,服务型机器人的应用也在所有领域普遍增加,医疗领域除外。这显示了机器人的广泛应用及其在面向人类服务角色上的增长。

  9. 数据证实:AI 显著提升了工人的生产力和工作质量。 在 2023 年,多项研究评估了 AI 对劳动力的影响,显示 AI 帮助工人更快完成任务并显著提高了工作输出质量。这些研究还指出 AI 能有效缩小低技能和高技能工人之间的技能差距。同时,还有研究提示,如果没有适当的监督,使用 AI 可能会导致工作效果反而下降。

  10. 财富 500 强公司越来越多地讨论 AI,特别是生成式 AI (Generative AI)。 2023 年中,AI 在 394 次财报电话会议中被提及,几乎涵盖了 80% 的财富 500 强公司,比 2022 年的 266 次有了显著的增长。自 2018 年以来,这一数字几乎翻了一番。最频繁的讨论主题是生成式 AI,占到了所有电话会议的 19.7%。

第 5 章:科学与医学

概览

今年的人工智能指数报告新增了关于 AI 在科学和医学领域的章节,反映了 AI 在这些领域中的关键作用。2023 年,AI 帮助实现了多项科学突破,如 GraphCast 的高级天气预报和 GNoME 的材料发现技术。本章还详细介绍了 AI 在医学上的应用,如 SynthSR 和 ImmunoSEIRA 的创新案例,以及 FDA 对 AI 医疗设备的批准动态。

章节亮点

  1. 科学进展加速,AI 起到了关键作用。  2022 年,AI 开始加速科学的发现进程。到了 2023 年,我们见到了更多影响深远的科学相关 AI 应用的诞生,例如 AlphaDev (使算法排序更高效) 和 GNoME (简化材料发现流程)。
  2. 医学领域,AI 帮助迈出了重大步伐。  2023 年,多个重要的医学系统被推出,例如 EVEscape (提升对疫情的预测能力) 和 AlphaMissence (助力于 AI 驱动的突变分析)。AI 的应用在医学进步中的角色越来越不可或缺。
  3. 具备高深医学知识的 AI 现已问世。  最近几年,AI 在 MedQA 基准测试中的表现持续优异,这是一个测试 AI 临床知识的重要标准。2023 年的明星模型 GPT-4 Medprompt 的准确率达到了 90.2%,比 2022 年的最高记录提高了 22.6 个百分点,自 2019 年以来,AI 的表现提高了近三倍。
  4. FDA 对 AI 相关医疗设备的批准数量持续增加。  2022 年,FDA 批准了 139 个 AI 相关医疗设备,比前一年增加了 12.1%。从 2012 年开始,这一数字已经增长了超过 45 倍,显示了 AI 在现实世界医疗应用中的广泛使用。

第 6 章:教育

本章探讨了人工智能和计算机科学教育的发展趋势,着重分析了参与学习的人群、学习地点以及这些趋势如何随时间演变。面对对 AI 在教育中影响的增加担忧,本章还研究了教师和学生如何使用 ChatGPT 等新兴 AI 工具。

分析首先对美国和加拿大的大学及其后教育中的计算机科学与人工智能课程现状进行了概述,此部分数据来源于计算研究协会的年度 Taulbee 调查。接着,本章回顾了 Informatics Europe 提供的关于欧洲计算机科学教育的最新数据。今年的报告中新增了一个章节,展示了 Studyportals 提供的关于全球 AI 相关英语教学项目的统计数据。

本章最后总结了 Code.org 提供的关于美国 K–12 教育阶段计算机科学课程的洞见,并介绍了 Walton Foundation 的调查结果,这项调查探讨了 ChatGPT 在学校中的应用情况。

  1. 在美国和加拿大,计算机科学本科生的数量持续增加,而新的硕士和博士生数量近年则趋于稳定,仅有小幅增长。 过去十年里,本科生人数稳步上升,但选择继续深造的学生比例未见明显增加,2018 年后,硕士和博士生数量略有下降。

  2. 人工智能博士向工业界的迁移速度正在加快。 从 2011 年的数据来看,当时有近半数的 AI 博士选择了工业界或学术界。但到了 2022 年,70.7% 的博士选择加入工业界,而只有 20% 选择了学术界,显示出大学和研究机构向工业界的人才流失正在加剧。

  3. 工业界到学术界的人才转移趋势在减少。 在过去几年中,从工业界转战学术界的 AI 专家比例在逐年下降,2022 年这一数字降至 7%,显示出学术界吸引行业精英的能力正在减弱。

  4. 在美国和加拿大,计算机科学的教育越来越少地依赖国际学生。 2022 年,从本科到博士阶段,国际学生的比例较前一年有明显下降,特别是硕士阶段的国际生数量显著减少。

  5. 越来越多的美国高中生报读计算机科学课程,但是课程获取仍有障碍。 2022 年,AP CS 课程的考试人数达到 201,000。从 2007 年起,参考人数已增加超过十倍。但是,最新数据显示,大型高中和郊区的学生更可能有机会学习计算机科学。

  6. 全球的 AI 相关学位课程数量持续增加。 从 2017 年起,提供英语教学的 AI 相关高等教育课程已增至三倍,过去五年持续呈现年增长趋势。世界各地的大学正在增设更多以 AI 为核心的学位课程。

  7. 英国和德国在欧洲的信息技术教育领域领先。 在信息学、计算机科学、计算机工程和信息技术的新学士、硕士和博士生产量方面,英国和德国领先于欧洲其他国家。按人均计算,芬兰和爱尔兰分别在生产学士及博士生和硕士生方面领先。

第 7 章:政策与治理

概述

随着 AI 能力的增强,越来越多的政策制定者开始关注这一领域。在过去一年中,多个国家和政治组织,如美国和欧洲联盟,制定了多项重要的 AI 相关政策。这些政策的增加反映了政策制定者对于如何规范 AI 发展及其在本国的潜力利用的深入认识。

本章首先回顾 2023 年的全球 AI 政策制定重要时间线,接着分析全球及美国的 AI 立法动态,探讨立法提及情况,并分析立法者对 AI 的看法和讨论。章节进一步概述了美国和欧洲联盟的国家 AI 策略和监管措施。最后,本章通过研究美国在 AI 上的公共投资作为结束。

章节亮点

意译

  1. 在美国,AI 相关的法规数量急剧上升。 过去一年和五年来,美国的 AI 相关法规数量显著增加。2023 年,AI 相关的法规数量达到 25 项,而 2016 年只有 1 项。仅在去年,相关法规增加了 56.3%。
  2. 美国与欧盟共同推进具有里程碑意义的 AI 政策行为。 2023 年,欧美双方的政策制定者们提出了重要的 AI 监管方案。欧洲联盟在 AI 法案上达成一致,该法案是 2024 年通过的一项标志性立法。同时,拜登总统签署了一项重大的 AI 行政命令,成为当年美国最突出的 AI 政策。
  3. AI 成为美国政策制定者的关注焦点。 2023 年,美国联邦层面的 AI 相关议案数量激增,提案总数从 2022 年的 88 项增至 181 项,增长超过一倍。
  4. 全球政策制定者们热议 AI 话题。 在全球范围内,AI 在立法讨论中的提及次数几乎翻了一番,从 2022 年的 1247 次增至 2023 年的 2175 次。49 个国家在立法中提到了 AI,至少每个大洲的一个国家在去年讨论了 AI,这体现了 AI 政策讨论的全球性。
  5. 更多美国监管机构加强对 AI 的监管。 2023 年,参与 AI 监管的美国监管机构从前一年的 17 家增至 21 家,显示出越来越多的机构对 AI 监管抱有关切。2023 年,首次参与 AI 监管的机构包括交通部、能源部及职业安全健康管理局。

第 8 章:多样性

概览

通常,AI 开发者与最终用户的背景存在差异。例如,很多知名 AI 公司及其使用的数据集大多来源于西方国家,反映出西方的视角。这种多样性的缺失可能会导致社会不平等和偏见的持续甚至加剧。

本章探讨 AI 领域内的多样性趋势。章节开头引用了计算研究协会 (CRA) 的数据,分析了美国和加拿大计算机科学 (CS) 领域的多样性现状。今年的分析中新增了来自 Informatics Europe 的数据,这些数据展示了欧洲计算机科学教育的多样性趋势。章节还涉及了 NeurIPS 每年举办的女性在机器学习 (WiML) 研讨会的参与情况,并通过 Code.org 的数据,揭示了美国中学计算机科学教育的多样性现状。

AI 指数努力提高本章中数据的详尽程度。尤其是在性取向等方面的人口统计数据非常有限。AI 指数呼吁与 AI 相关的各方面力量,共同努力,更好地跟踪和记录 AI 领域的多样性趋势,并期望在未来的报告中能够提供更全面的数据。

章节亮点

  1. 美国与加拿大的计算机科学 (CS) 本科、硕士及博士生种族多样性持续提升。  虽然白人学生在所有三个学位层次的新毕业生中仍占最大比例,来自其他族群的学生,比如亚裔、西班牙裔以及黑人或非洲裔美国人的比例也在不断上升。比如,自 2011 年起,亚裔计算机科学本科生比例增加了 19.8 个百分点,西班牙裔本科生比例提高了 5.2 个百分点。

  2. 在欧洲信息技术和计算机相关学位中,性别差异依然存在。  调查显示,在欧洲各国的信息学、计算机科学、计算机工程及信息技术学位中,男性毕业生比女性多。尽管过去十年间大多数国家的性别差异已有所减少,但缩减速度缓慢。

  3. 美国的 K-12 计算机科学教育趋于多样化,这反映了性别和种族比例的变动。  从 2007 年至 2022 年,参加高级计算机科学考试的女性比例从 16.8% 增长到 30.5%,亚裔、西班牙裔/拉丁裔及黑人/非洲裔学生的参与率也持续上升。

第 9 章:公众观点

概览

在人工智能逐渐融入我们的日常生活的今天,了解公众如何看待这一技术的变化显得格外重要。这种对公众情绪的理解,对预测 AI 将如何影响社会,以及这一技术在不同国家和不同人群中的融合方式会有何异同,都是非常关键的。

章节亮点

本章从全球、国家、人口统计和种族多个层面,全面审视了公众对 AI 的态度。本章的分析依托于多种数据源:包括 Ipsos 进行的时间跨度上的全球 AI 态度纵向调查数据;多伦多大学对公众如何看待 ChatGPT 的调查数据;以及 Pew 对美国民众 AI 态度的调查。本章最后通过分析 Quid 提供的 Twitter 数据,讨论了重要 AI 模型在社交媒体上的讨论情况。

  1. 全球多数人越来越意识到 AI 的潜在影响,并对此感到忧虑。  据 Ipsos 调查,去年认为 AI 在未来三至五年极可能重塑生活的人数比例,从 60% 上升到了 66%。同时,有 52% 的人对 AI 产品和服务持怀疑态度,较 2022 年增长了 13%。在美国,根据 Pew 的数据,52% 的美国人对 AI 感到的担忧超过了兴趣,这一比例较去年的 38% 有所上升。
  2. 西方国家对 AI 的接受度虽低,但正逐渐变好。  2022 年数据显示,德国、荷兰、澳大利亚、比利时、加拿大和美国等发达西方国家对 AI 的正面感受较少。但从那以后,这些国家中每一个都有更多人开始看到 AI 的积极面,尤其是荷兰的变化最为明显。
  3. 公众对 AI 带来的经济益处持保留态度。  在一个 Ipsos 的调查中,仅 37% 的人认为 AI 会改进他们的工作情况。只有 34% 的人认为 AI 会推动经济发展,32% 的人认为会改善就业环境。
  4. 对于 AI 的乐观看法,在不同的人群中表现各异。 在看待 AI 提升生活品质的潜力时,不同年龄层的看法各有不同,年轻人通常更加乐观。比如,有 59% 的 Z 代人认为 AI 会丰富娱乐选择,相比之下,只有 40% 的婴儿潮一代人持相同看法。同时,收入和教育程度较高的群体更倾向于认为 AI 会在娱乐、健康和经济上带来积极影响,这一点与低收入及教育程度较低的群体形成了鲜明对比。
  5. ChatGPT 的知名度和使用率都很高。 来自多伦多大学的国际调查数据显示,63% 的受访者知道 ChatGPT,其中约有一半的人表示他们每周至少使用一次 ChatGPT。