2023 年:AI 改变互联网的一年 [译]
2023 年,许多人开始学习如何与机器人沟通、创造、作弊,并进行合作。
就在一年多前,OpenAI 发布了 ChatGPT,这是一个让用户能够以极为人性化的方式与计算机对话的应用。发布仅五天,它就吸引了一百万用户;两个月后,月活跃用户数飙升至一亿,目前这一数字几乎翻了一番。可以说,2023 年是许多人开始用全新的方式与人工智能进行沟通、创造、作弊和合作的一年。
继 ChatGPT 之后,谷歌发布了其聊天机器人 Bard;微软将 OpenAI 的模型融入了它的必应搜索引擎;Meta 推出了 LLaMA;Anthropic 则带来了 Claude,一款可以应对各种规模任务的“下一代 AI 助手”。这一切让互联网仿佛注入了生命。尽管人工智能并非新鲜事物——我们的生活已经离不开它,无论是 Netflix 的推荐算法、信用卡公司侦测欺诈活动,还是亚马逊的 Alexa 播报早间新闻,人工智能无处不在,却鲜为人注意。
但是,尽管有些人工智能 (A.I.) 在幕后以一种脚本化且脆弱的方式工作,聊天机器人 (chatbot) 却展现出了反应灵敏和即兴创造的能力。它们的行为也充满不可预测性。当我们向它们寻求帮助,用我们所不了解的事物来提问或请求它们提供创意支持时,它们往往能创造出前所未有的东西,仿佛凭空而来。诗歌、文学评论、论文、研究报告、三幕剧本,这些作品都以清晰、纯正的人类语言呈现,宛如机器中的神被赋予了我们的形象。比如,如果你让 ChatGPT 用 Johnny Cash 的风格创作一首关于自动驾驶汽车的歌曲,你可能会得到这样的歌词:
Ridin’solo, but I’m never alone,(独自行驶,但从不孤单,)
Got my AI ridin’shotgun, steady as a stone.(我的 AI 同伴如岩石般稳固,)
On the endless road, under the sky so vast,(在无尽的路途下,天空广袤无垠,)
A ghost driver at the wheel, footprints of the past.(无形的驾驶者操控着,过去的足迹历历在目。)
而如果要求以 Giuseppe Verdi 的风格创作,ChatGPT 则构建了这样一个男高音歌唱的场景:
Ecco la carrozza senza cavallo! (看!无马的马车!)
Scivola nella notte, silenziosa come il fato. (它在夜晚悄无声息地滑行,宛如命运的寂静。)
L’ingegno dell’uomo, l’orgoglio del progresso, (人的智慧,进步的荣耀,)
In questa danza d’acciaio, tessiamo il nostro destino. (在这钢铁之舞中,我们编织着各自的命运。)
虽然至今尚未赢得多项奖项,但像 ChatGPT 这样的聊天机器人令我们的智能设备相形见绌。他们不仅精通各种语言,还精通编程语言;他们可以快速概括冗长的法律和财务文档;开始从事医疗疾病的诊断工作;甚至无需学习就能通过律师资格考试。不过,我们可能会误以为 AI 模型是真正的智慧,而不只是人工合成的——智能,还会误以为他们理解他们传递的内容的含义和后果。但实际上,他们不是。用语言学家 Emily Bender 和其三位合作者的话来说,他们更像是“概率性的复读机”。在 AI 被视为拥有智慧之前,人们不应忘记,AI 所拥有的一切都源于大量的人类知识。我们学会了如何与机器人协同工作,但在这之前,机器人必须首先被教会如何与我们协同工作。
要开始理解这些聊天机器人的工作原理,我们必须掌握新的词汇,从“大语言模型”(L.L.M.s)、"神经网络" 到“自然语言处理”(N.L.P.) 和“生成式 AI”。目前我们大致了解了基本情况:这些聊天机器人汲取了互联网上的内容,并通过一种模仿人脑的机器学习技术进行分析;它们根据统计学原理串联起词语,依据哪些词汇和短语通常会组合在一起。然而,人工智能的极致创新性仍然难以完全理解,正如我们在聊天机器人出现“幻觉”时所发现的那样。
以 Google 的 Bard 为例,它曾错误地创造了关于 James Webb 望远镜的信息。同样,Microsoft 的 Bing 误称歌手 Billie Eilish 在 2023 年超级碗中场秀中表演过。一位律师表示:“我之前没想到 ChatGPT 会编造案例”,他提交给联邦法院的简报中充满了 ChatGPT 提供的虚假引用和捏造的司法意见(因此被法院罚款五千美元)。ChatGPT 在细则中承认其可能不可靠:“ChatGPT 可能会犯错误。请考虑核实重要信息。”奇怪的是,最近的一项研究显示,在过去一年中,ChatGPT 在执行某些任务时的准确性反而下降了。研究人员推测这可能与其训练材料有关,但由于 OpenAI 未公开其用于训练大语言模型 (Large Language Model, L.L.M.) 的具体内容,这仅是推测。
尽管清楚知道聊天机器人可能出错,高中和大学生依然是其最热衷的早期使用者。他们利用聊天机器人来研究和撰写论文、完成题集、编写代码。(去年五月的期末考试周,我有个学生在图书馆里散步,发现几乎每个人的笔记本电脑上都开着 ChatGPT。)根据青少年成就组织最近的一项调查显示,超过一半的年轻人认为使用聊天机器人协助完成学业是作弊,但几乎一半的人表示他们可能会使用它。
学校管理层也感到左右为难。他们对于聊天机器人究竟是误导学生的工具还是促进学习的辅助手段,似乎难以做出明确判断。今年 1 月,纽约市学校校长 David Banks 宣布禁止使用 ChatGPT;一位发言人向华盛顿 Post 表示,聊天机器人“无助于培养学生的批判性思维和解决问题的能力,而这对于学术成就和终身成功来说至关重要。”然而四个月后,Banks 改变了主意,他称这一禁令是一种本能的、基于恐惧的反应,忽略了生成式 AI(生成式 AI)在帮助学生和老师方面的潜力,也没考虑到我们的学生正在成长于一个理解生成式 AI 至关重要的世界。此外,德州 A&M 的一位教授尝试使用 ChatGPT 来识别使用该工具作弊的学生。当 ChatGPT 显示整个班级都有作弊行为时,教授威胁要让所有人挂科。问题在于,ChatGPT 的判断并不准确。(事实上,抓捕作弊者的 AI 程序是一个正在增长的领域。)从某种角度看,我们都像那位教授一样,在对其功能可能存在的高估、误解,或根本不理解的情况下,对这些产品进行初步测试。
人工智能已经开始被用于撰写财务报告、广告文案和体育新闻。3 月份,OpenAI 的联合创始人兼总裁 Greg Brockman 高兴地预测,在未来,聊天机器人还将协助编写电影剧本,甚至重写观众不喜欢的片段。两个月后,美国编剧工会举行了罢工,他们要求签订一份能够保护我们免受劣质 AI 制作电影的影响的合约。他们认为,任何能在多个人类领域创造可靠作品的 AI 平台,都可能对创造力本身构成实质性威胁。
去年九月,在编剧们结束了长达五个月的罢工之际——他们此前已经说服电影制片厂承诺不再使用 AI 编写的剧本——作家协会和一些知名小说家联合对 OpenAI 提起了集体诉讼。他们指责 OpenAI 在搜集网络内容时,未经授权或提供补偿就使用了他们的版权作品。虽然作家们无法完全确定自己的作品是否被公司使用,但由于 OpenAI 在分享其训练数据方面的政策并不透明,他们在诉讼中提到,ChatGPT 在早期对特定书籍的查询会给出字面上的引用,这“暗示该大语言模型 (LLM) 很可能已经包含了这些书籍的全部内容。”(现在这个聊天机器人已被重新训练,以回应“我无法提供版权文本的直接摘录。”)目前,一些企业通过销售特定提示来帮助用户模仿著名作家的风格。但是,如果一个作家能够轻而易举地被模仿,那么他们的作品可能就不会有太高的价值。
七月份,文学非营利组织 pen America 发布的一份报告指出,生成式 AI (Generative A.I.) 通过大幅增强虚假信息和网络滥用的传播,对自由表达构成了威胁。报告强调了一个可能的风险:“人们可能会对语言本身失去信任,进而互不信任。”这种危险如今已经超越了书面文字的范畴。OpenAI 推出了DALL-E 2,这是一个能够将文字转化为人工图像的引擎;几个月后,Stability AI 也发布了一个类似的工具,名为Stable Diffusion。根据艺术探究和报道中心的看法,AI 生成的艺术作品就像“吸血鬼”,它们吞噬了前人的艺术创作,甚至可以被视为“史上最大的艺术盗窃行为”。虽然用这种方式创造“艺术”既有趣又神奇,尤其是对于那些不擅长艺术的人来说,但那些栩栩如生地描绘了未曾发生的事件的场景,也对真实性构成了威胁。任何人都可以用 AI 炮制出塞票箱的男子或抗议者与警察对峙的图像(我亲自尝试过,效果出奇地逼真)。
尽管人们正在尝试对人工智能生成的图像加上水印,但是至今,研究人员 还没有找到一套能有效防御目前广泛使用的破解工具的水印系统;甚至,他们还可以将假水印添加到真实图片上。目前,OpenAI 仍允许用户自由地移除水印。
今年三月,包括 Elon Musk 和苹果公司联合创始人 Steve Wozniak 在内的超过一千名技术专家签署了一封公开信,呼吁 AI 公司暂停其最先进技术的研发六个月,为引入某种监管措施腾出时间。信件部分内容如下:
我们真的应该允许机器在我们的信息渠道中散播宣传和虚假信息吗?我们真的应该将所有工作自动化,即便是那些让人感到成就感的工作吗?我们真的应该开发出可能最终超越、比我们更聪明、甚至取代我们的非人类智能吗?我们真的应该冒着失去对我们文明控制的风险吗?这样重大的决策不应该由那些未经选举的技术领袖来做出。
这些担忧并非空穴来风。例如,IBM 的一个研究团队仅用五分钟就让 ChatGPT 制作出了极具欺骗性的网络钓鱼电邮。其他研究人员则利用生成式 AI(Generative A.I.)编写了能绕过安全协议的恶意软件,这使其成为网络犯罪分子的潜在工具。高盛甚至估计 AI 不久将取代三亿个全职岗位。
不出所料,这些问题并未得到暂停或有效监管。相反,10 月底,拜登政府发布了一份名为“安全、可靠和值得信赖的人工智能发展和使用的行政命令”,这份文件更像是一份愿景清单而非具体指令。这显示出行政部门在 AI 带来的风险和机遇之间努力寻找平衡。就在一周后,OpenAI 宣布推出一系列新产品,包括一个能读懂长达三百页书籍的 AI 模型;一个自制聊天机器人工具包;以及一个名为“版权保护盾”的产品,承诺为被控侵权的开发者支付法律费用。
利用这些新工具,我成功使用 ChatGPT 创建了两个聊天机器人:一个用来判断哪些药物不应同时服用,另一个则列出能够适应特定食物过敏和禁忌的特定地点的餐厅。虽然制作这些聊天机器人既直观又简单,但我对其背后的算法、它们的训练数据来源一无所知。我甚至不清楚这些聊天机器人提供的信息是否准确,也不了解我使用的计算能力有多大,或者我的环境影响有多严重。但毕竟,这些都是很酷的东西,是人们可能愿意为之付费的创新产品。
生成式 AI 的商业应用前景广阔,预计将持续蓬勃发展。AI 技术日益影响到各类复杂领域,包括放射学、药物发现、心理治疗、招聘以及大学录取等。众多公司正计划将 AI 集成进其下一代产品中。例如,三星计划在 1 月发布的新一代旗舰手机中融入生成式 AI。Sam Altman,作为 OpenAI 的联合创始人,他不久前被董事会罢免了首席执行官的职位,但后来又重返 CEO 岗位。据悉,他正在与 Apple 的知名设计师 Jony Ive 合作,共同打造类似于“人工智能领域的 iPhone”这样的产品。我们或许会怀念 2023 年,那是一个智能还没有被普遍商品化的时代。♦