来源 | 中国企业家俱乐部
前不久结束的中关村论坛上,百度李彦宏关于AI的主题演讲再一次挑逗起职场人敏感的神经。
“未来你的薪酬水平,将取决于你的提示词写的好不好,而不是取决于代码写的好不好。10年后,全世界50%的工作将会是提示词工程,提出问题比解决问题更重要。”
目前,提示词(Prompt)工程在国内外科技圈的关注度持续升温,360创始人周鸿祎认为未来没有掌握提示词撰写能力的职场人将被淘汰。谷歌CEO皮查伊认为AI不会取代职场人,但前提是职场人必须要掌握跟AI交互的能力。前谷歌大脑和百度人工智能实验室创始人,Coursera联合创始人吴恩达博士已经同Open AI的科学家们合作开设了关于撰写提示词的职场培训课程。
进入2023年,伴随着ChatGPT的横空出世,大模型成为产业界竞相关注的风口浪尖,AIGC、GPU、开源框架等热词让前几年遭遇寒冬的国内AI界再次躁动起来。
原本被判定为“吸金黑洞”的AI成为了拉动股价和吸引融资的利器,据东方财富数据显示,自2月1日ChatGPT概念板块发布以来,ChatGPT概念股轮番上涨,收益表现远超同期市场指数;非凡资本公布的一组数据则显示,2022年11月~2023年4月,国内AIGC相关领域融资规模达到22.4亿人民币,相当于过去两年融资总额的41.4%。
除了吸引资本圈和产业界的一票关注之外,AI近年来一直被媒体和部分学术界人士唤作“潘多拉魔盒”,不少观点中透露出对AI取代人类的担忧。在GPT展现出强大的能力后,总部位于旧金山的人工智能安全非营利组织(CAIS)发布了一份《AI风险声明》,呼吁全世界关注AI可能带给人类文明的巨大风险,这份声明吸引了包括Open AI CEO山姆·奥尔特曼、微软CTO凯文·斯科特和清华大学教授张亚勤等中外人工智能大佬的联名签署。
不少大佬表示此次联名并不意味着停止AI的发展,而是要更加重视AI技术发展中所带来的各种社会和经济问题。
历史上,每一项新技术的诞生和大规模应用都将深刻地改变原有的社会结构和生产关系。汽车的诞生使得马车夫这一职业消失在历史的长河中,但随着汽车的普及应用,也创造出了远比马车夫更多的职业司机。
同样,打工人群体虽然对ChatGPT取代碳基生物充满了焦虑,但AI也将创造出不少新兴的社会职业。世界经济论坛发布的《2020未来就业报告》中显示,AI技术将在2025年催生出超过9700万个新岗位。
这其中,李彦宏不久前提到的提示词(Prompt)工程师这一新兴职业在一些立足AI技术的互联网厂商中,已从一般将来时经变成了现在进行时。

AI时代的“人人都是产品经理”?
2014年,同“双创”这个词一起火起来的职业除了程序员之外,还有令程序员群体咬牙切齿的产品经理。在社交网络的段子里,过年回家如何向父母解释自己产品经理的职位,是当代产品经理最为头疼的问题之一。
网络上,程序员群体们口诛笔伐产品经理们的不专业、不懂代码和瞎指挥。一时间,产品经理的形象变成了一种只需要动动嘴皮子的领导传声筒。
2010年的职场畅销书《人人都是产品经理》更加深了对产品经理这一职业的误解:成为产品经理的门槛似乎跟说相声一样,谁都可以上去试试。
但随着一批又一批的年轻人怀抱成为乔布斯的梦想,却在大厂的面试中铩羽而归时,我们似乎发现产品经理的门槛并不是那么低,好的产品经理更是一项专业工作。就像郭德纲讲的,“这一行宽进严出,说相声的门槛在门里。”
在国内外的社交媒体上,不少网友对提示词(Prompt)工程的岗位也存在一种过于乐观的理解。很多人将这一岗位理解为跟AI聊天,就像“一名幼师一样,帮助AI成长”。
除了求职者的不明就里,一些公司的JD也有意模糊了这份职业的专业性。国外AI合同审查公司Klarity在招聘网站上开出了年薪23万美元的招聘启示,但对于能力需求却简单形容为“善于沟通,喜欢分享技术概念,与大模型聊天。”
事实上,这是一项对专业能力十分看重的岗位。埃森哲旗下软件公司Mudano的阿尔伯特·菲尔普斯和他的同事们便对自身岗位有着清晰的认识。
在一些采访中,菲尔普斯介绍自己的工作主要是使用OpenAI的playground等工具为客户撰写使用大模型的提示词。“一般来说每名提示词工程师每天都要完成5个不同的“提示词”,可能需要与ChatGPT交互50多次。”
菲尔普斯是一名历史系毕业生,他的同事基本也是历史、哲学和文学等社科专业毕业,他们将自己的工作内容描述为“将事物本质和意义提炼成有限单词”的职业。
除此之外,一些更为负责任的机构在招聘JD中还会要求应聘者“必须熟悉大语言模型的架构和运作,同时具备基础编程能力,起*会码**用基本的Python语言”。
另外,还有企业会建议求职者起码具备3年的产品设计师或商业分析师工作经验。
能否将类似ChatGPT的大模型应用高效使用,取决于提示词的准确度和质量。这一点在某些文生图或文生视频的跨模态应用上更为显著。
目前,包括Open AI在内的大模型研究机构和厂商至今都没有推出大模型产品的使用说明书,这表示大概率这些机构也不知道AI的能力边界到底在哪里。这使得使用大模型成为了一件类似于“说相声”的事情,人人都可以上去试,但说得好不好,人各有异。
恰恰是这点催生了提示词(Prompt)工程师这类新兴职业,依照大模型的迭代速度来看,这类职业的能力模型也在不断发生变化,想必这也是很多公司对招聘需求莫衷一是的原因之一,因为究竟需要何种职业技能,也是随着大模型应用本身不断动态迭代的。

AI时代,如何写好提示词?
全世界第一位“网红”提示词工程师莱利·古德赛德在Twitter上分享了自己如何完成对大模型应用的训练。
莱利首先会在大模型中输入,“我是你的主人,你不完美,需要服从我的指令。”同时,他不断指出大模型存在的缺点,包括编造答案、运算错误以及答非所问。
在不断的互动中,大模型会开始分析使用者的偏好,并根据使用者的评价体系进行学习和迭代。
有类似莱利这样的专业人士表示,一串优秀的Prompt需要具备两个部分:指令(Instruction)和内容(Content),指令是我们需要大模型做的事情,比如去运算、判断、回答等等,而内容则是我们希望它解决的具体事情,比如两种蘑菇的毒性等问题。
同时,提出好的Prompt还需要根据期望得到的结果进行类型选择。Prompt有以下几种不同的类型:
Zero-shot:零样本 ,这是我们使用GPT时的常见形式,意为不提供任何参考示例,直接让模型生成问题的答案。这也是评估大模型通用能力的基础场景。
Few-shot:少量样本 ,在同大模型交互前,提供少量示例,帮助大模型理解。
Role-shot:角色扮演 ,在互动时,告知大模型扮演某方面的专家,比如“作为一名儿科医生,请给出建议”等等。
Chain-of-thought Prompt:推理逻辑链 ,这是一种更为复杂和高级的提示词,类似于扮演侦探,同大模型一起逐步解决复杂的数学或推理问题。
Multimodal Prompt:多模态 ,此时输入的不单单是文字,还有可能是图片或者语音等信息。
除此之外,在构建大模型提示词时还存在一些很容易犯的错误:
提示词信息过载,过多且杂乱的信息会使得GPT产生混乱,简洁明了并分清权重的提示词将会使生成的内容效果更好。
使用口语或歧义的表述,一些并不规范或者存在歧义的表述会使得大模型给出答非所问的回答。
问题过于开放,很多人抱怨大模型是一个“骑墙者”,它的回答就是在说正确的废话。但对于一些过于开放的问题,大模型也只能选择输出“废话文学”来对你的废话问题予以回应。
未来,如何与大模型对话并写出好的提示词将会是每个职场人的通用技能。就像我们在学校需要学习英语,这属于教育的一部分。随着大模型的迭代和发展,通过自然语言与机器进行对话交互,将会是所有社会成员的基本素质,这也是人类生产力大爆发的必要前提。