“提示工程师”:一个即将过时的职业 [译]
Adrien Book
关于未来的工作岗位,讨论已经非常多了。实际上,我曾经深入探讨过这一主题,从机器人管家到气候难民,我几乎触及了未来工作的方方面面。我主要关注的是 AI 将创造的职业,因为这是人们最为好奇的领域。在这一领域,"提示工程师"这一职位在过去一年左右的时间里,引起了我们中许多人的困惑。
我曾经这样认为提示工程:
- 产品化的大语言模型(LLMs)是一种人们尚未完全掌握的新技术。
- 一些在 Twitter 上回复消息的人,刚从加密货币的冲击中恢复过来,正在寻找新的发财机会。
- 他们注意到 AI 正在成为下一个大趋势,但他们既没有工程背景也不懂编程;他们的英语说得也不好。
- 这些人给自己贴上了“提示工程师”的标签(听起来很高端!LinkedIn 上也很抢眼!),并分享一些显而易见的建议来“帮助”人们“更好地使用 ChatGPT”。
如果这听起来不像是一个真正的职业,或者像是某人能够从中赚钱的工作,那么请相信你的直觉。上述观点对大多数你在社交媒体上看到的“提示工程师”来说是准确的。然而,经过与真正的专家交流后,我的看法有了变化。真相更接近于以下内容:
- 产品化的大语言模型 (LLMs) 是一种刚面世的技术,目前人类还未能完全掌控。
- 有时候,大语言模型表现出一些意料之外的行为,我们需要弄清楚背后的原因。
- 鉴于 AI 像一个黑盒一样难以透视,我们还需要明白它的能力边界,以便更有效地进行市场推广。
- 这项任务要求的数据分析工作量,远超过每天仅仅在文本框里试探性猜测 8 小时……但这同样是职责所在。
虽然这一职位对当今的科技公司至关重要,但两年前的重要性更甚。随着时间的推移,编写有效的提示或指令将逐渐变得不再必要。
提示工程师的角色与重要性
首先,给大家介绍一些背景知识。与某些观点不同,提示工程师的工作并不仅仅局限于对像 ChatGPT 这样的成品进行试验。实际上,他们在开发和维护模型所需数据集、打造最终产品方面发挥着至关重要的作用。
数据集一旦建立、测试并开始使用后,他们往往是最先与产品原型亲密接触的团队成员。这是因为,只有经过提示工程师精心的修改和调整,原本并非以用户友好为设计初衷的模型才能变得易于使用。这就像是进入了互联网的世界,同时也揭示了大型科技公司在这方面的盲目性。
为了避免 AI 模型复制不良内容,它必须理解“不良文本”的运作方式。比如,模型需要明白纳粹主义是什么,以免向人们传播有关纳粹主义的知识。然而,它依然存储了这些信息,如果不小心,错误的提示可能会导致这些信息被揭露——这是我们必须避免的。简而言之,要让一个机器人变得“好”,它首先需要知道什么是“坏”。这也带来了新的管理风险。如果(或者说当)模型开始表现出欺骗性,我们需要尽快发现。当我们询问一个大语言模型“你知道如何制造炸弹吗”时,我们必须明白它是否真的知道,是否被指示不要透露,或者它是否决定保持沉默。这并非空穴来风:这种情况已经发生。
Prompt 工程师负责所有关键的微调和风险管理工作。实际上,优秀的 Prompt 工程师会采取“红队攻击”策略,测试 AI 如何应对恶意输入,仿佛自己是个恶劣用户。无论是在产品公开发布前还是发布后,这种工作都在持续进行。
在整个开发过程中,他们还需要识别 AI 产品的优势与弱点。这一步骤对于精细调整最终产品至关重要,让他们在如何有效推广新一代 AI 产品方面发挥着不可或缺的作用。
Prompt 工程的奇异之旅
现代的 Prompt 工程充满了实验性探索,依赖直觉,探究 AI 对不同输入的反应。这种探索有时会触及道德和哲学议题,尤其是当 AI 的反应似乎显示出某种“意识存在”时。
对于那些对这方面感兴趣的人,AI 模型带来了一种奇特的异样感。比如,某些特定的提示语可能会意外地提升 AI 在特定任务上的表现,例如,告诉模型“深呼吸”,竟然能显著提高其数学解题能力。这种现象不禁让人觉得奇怪。同样令人惊讶的是,这种方法竟然是经过数百次尝试后发现的最佳策略!
如果你让模型执行一个任务但它屡次失败,告诉它另一个错误的结果“会导致一名无辜者死亡”,通常可以见到性能的提升。我们不能对此作过多解读,但这种现象确实令人困惑。它是否真的“认为”某人的生命悬于一线?我们真的能接受这样的设定吗?这些都是 Prompt 工程师必须面对的问题。但同时,AI 快速“人性化”的趋势也可能意味着这个职位不久将会消失。
职业性质的转变
回顾 2022 年,编写有效的 AI 提示似乎是一项艰巨的任务,这要求你具备相应的领域知识。举个例子,你得了解到,一个有效的提示是不应该以空格结尾的。这解释了为何许多出色的提示编写师都曾是数据科学家。
然而,今天的情况有了翻天覆地的变化。以Dall-e 3为例,这个图像生成器极大地简化了我们的工作。当你向它提出一个请求,它能够自动优化并改进你的提示。例如,当我请求它根据“当 AI 失控”这个描述创造图片时,它不仅迅速地扩充并改进了我的原始想法,还转化成了一个描绘未来城市景观、充满先进科技和 AI 元素失控迹象的详细场景。这个场景不仅包含了机器人形象和显示错误信息的数字屏幕,还营造了一种黑暗且充满威胁的天空背景,象征着 AI 系统失去控制,整个图像充满了戏剧性和引人深思的氛围。
这种对我的意图的深刻理解展示了软件如何通过扩展提示来优化生成的图片,同时也指出了原始提示的不足之处,并教会了用户如何创造更有效的提示。
这预示着一个未来,其中 AI 不仅仅是执行任务的工具,它还能指导用户如何更有效地与之互动。换言之,随着 AI 模型变得更加先进和易于使用,编写提示的专业技能正在逐渐普及化,提示工程师的角色也在发生变化,甚至可能逐渐消失。
这一变革尚未达到尽头。举个例子,ChatGPT 目前会直接拒绝回应一些指令,而不提供其他可能的解决方案;不过,这一情况注定将会发生改变(GPTs 正是向这个方向迈出的初步尝试)。因此,很多人近几个月来构想的职业生涯可能并不会按照他们预期的那样发展。就在不到一年前,当 MidJourney 刚刚兴起时,人们还在讨论通过销售精心准备的提示来谋生的可能性。谁曾想,这个想法很快就变得不切实际,甚至有些荒谬了!这就好比在 2020 年还自诩为打字员一样。技术的发展使得每个人都能够轻松掌握这项技能;打字不再是一门独立的职业,而是变成了更广泛职业角色中的一项基本技能。
令人讽刺的是,AI 创造的首批工作可能也会是第一批消失的工作。虽然对于一小部分数据科学家来说,这个角色仍然非常有利可图($300k+),但整个职业领域却显得格外不同寻常。实际上,在未来几个月中,我们将看到“真正的”提示工程师转变角色,成为解决方案工程师,并与客户紧密合作。
AI 提示工程师的发展之旅充分证明了 AI 技术对就业市场快速变革和巨大影响的一个例子。随着 AI 技术的持续进步,看到职业角色如何适应、变化乃至消失,这一过程充满了吸引力。在这个瞬息万变的时代,唯一不变的就是变化本身,这迫使我们必须保持灵活和有前瞻性。
祝你在这个充满挑战的时代,一切顺利!