首页


如何用 AI 自动生成一张“智慧卡片”?

输入一句话,帮你生成一张“智慧卡片”图片。

October 14, 2024

View Article

伪代码提示词“汉语新解”详解

李继刚写的汉语新解,输入任意汉语,就可以生成一副卡片,不仅文案写的好,而且生成的卡片美观大方,一段几百字的提示词顶得上几千行代码写出来的应用程序效果,将伪代码和 Claude 的能力结合的绝到好处,真的是了不起👍佩服佩服!鉴于很多人不太理解伪代码和如何用伪代码写 Prompt,我将这段经典的 Prompt 拆解并结合一个例子解释一下。

October 14, 2024

View Article

如何在输入内容很长的情况下,让 GPT 不“偷懒”?

最近比较好的解决了一个困扰我很久的 Prompt 难题:如何在输入内容很长的情况下,让 GPT 不偷懒?

October 12, 2024

View Article

针对智能体的用户体验设计,第三部分:电子表格、生成式和协作式 UI/UX [译]

了解批量处理智能体工作负载的电子表格用户体验、生成式 UI 以及与智能体协作的用户体验。

October 11, 2024

View Article

针对智能体的用户体验设计,第二部分:后台运行[译]

我们将讨论后台运行的智能体,它可以同时处理多个任务,并探讨它们如何应用于您的工作流程。

October 11, 2024

View Article

针对智能体的用户体验设计,第一部分:聊天 [译]

人与计算机的交互已经研究了很多年。我相信在未来几年,人与智能体的交互也将成为一个重要的研究领域。

October 11, 2024

View Article

为智能体进行规划 [译]

智能体规划的意义以及如何提升规划能力。

October 11, 2024

View Article

为什么你应该外包智能体基础设施,但拥有认知架构 [译]

了解为什么你应该根据应用定制认知架构,并运行更好的智能体应用基础设施。

October 11, 2024

View Article

什么是“认知架构”?[译]

“认知架构”一词在神经科学和计算认知科学中有着 悠久的历史 。根据维基百科的定义,“认知架构”既指关于人类思维结构的理论,也指该理论的计算实现。这一定义(以及相关的研究和文章)比我在此提出的定义更全面,本篇博文应被视为我在过去一年中构建和帮助构建基于大语言模型(LLM)的应用程序经验与该研究领域的映射。

October 11, 2024

View Article

什么是智能体?[译]

💡智能体是一个使用大语言模型(LLM)来决定应用程序控制流的系统。

October 11, 2024

View Article

生成式AI 新一幕:推理模型登场 [译]

本文深入探讨了生成式AI的新阶段,揭示了从“快速反应”到“深度推理”的转变趋势。随着微软、OpenAI等科技巨头在AI基础层的主导地位日益稳固,未来的焦点将转向AI推理能力的提升,比如OpenAI的最新模型o1,它具备在推理时“停下来思考”的能力,不再仅仅依赖预训练数据的模式匹配。这一推理能力的进化将引领AI进入全新的智能应用时代,帮助AI解决复杂任务,创造巨大市场机会。文章还指出,未来AI或将实现类似AlphaGo超人表现的突破,真正展现出接近人类思维的能力。

October 10, 2024

View Article

GPT 无法翻译超长内容的提示词优化尝试

最近科技文章翻译 GPT https://chatgpt.com/g/g-uBhKUJJTl-ke-ji-wen-zhang-fan-yi 一直有用户反馈内容长了就不翻译,变成摘要了,这是由于内容一长,GPT-4o “变懒”了,于是不翻译完整内容,只是摘要。

October 9, 2024

View Article

What You Need Is Not an AI Agent, But an AI-Friendly Workflow

The concept of AI agents is gaining popularity, and some people see them as a silver bullet for solving problems with AI. The hype around AI agents suggests that if you have one, many challenges can be easily tackled. However, there are also those who argue that AI agents are overhyped and lack real, viable applications.

October 9, 2024

View Article

AI 的笨是可知的,小弟的笨是不可知的

匿名投稿:《AI 的笨是可知的,小弟的笨是不可知的》 来自一位大厂朋友的经验分享,谈他在用 AI 辅助写代码的感受

October 7, 2024

View Article

用 AI 反向代码案例:揭秘 OpenAI Canvas 如何根据用户操作拼接生成 Prompt

用一个实例来看看如何借助 AI 来反向代码,帮助你更好的理解一些商业产品功能的实现。这里以 OpenAI 新推出的 Canvas 为例,我们看看它是如何根据用户的操作生成不同 Prompt 的。

October 7, 2024

View Article

对比一下两种不同生成摘要提示词的效果

我分别用两种不同的提示词对前面一篇文章生成了摘要,这效果差别有点大!

October 6, 2024

View Article

如何摆脱烂代码陷阱:从重构到最佳实践的实战经验

你是否被烂代码困扰?Martin Fowler 的代码异味理论指出,烂代码背后往往隐藏着更深层次的问题。本篇文章分享了如何通过严格的代码审查、系统设计、技术债务管理以及最佳实践,帮助团队从烂代码的泥潭中解脱出来,显著提高开发效率。学会如何有效重构老项目,如何制定最佳实践,让你的团队从“屎山”代码中脱胎换骨!

October 6, 2024

View Article

对于小型团队而言,当代码量逐渐变大,有什么更好的控制代码质量的方法吗?

对于小型团队而言,当代码量逐渐变大(大至一万行左右)时,有什么更好的控制代码质量的方法吗?

October 6, 2024

View Article

CloudFlare 使用 Workers 和 Nextjs 的深度集成

以前 CloudFlare 只提供了 Cloudflare Pages 的方式集成 Nextjs,现在有了 OpenNext 项目后,Nextjs 也可以和 Cloudflare Workers 集成,这意味着你创建一个项目,不仅有网站,还有 Workers。

October 6, 2024

View Article

分享一点前沿 AI 用法:用 o1 逆向代码

o1 似乎一直没啥热度,毕竟大多数人不用做数学做学术,写代码也有很多代替的。我最近倒是研究出来一个有意思的用法,就是用它逆向代码。对于 Web 应用程序,代码保护的方式就是混淆,但是混淆后的代码你是可以轻松获取到的。可以用 o1 来反向一些有价值的但是混淆保护后的代码,效果惊人。

October 6, 2024

View Article

像用实习生一样用 AI 辅助你编程

> 我是不敢让 ai 帮我写程序的,每回问它的问题,十次倒有八次是错的,问完之后还要自己去网上搜一遍,然后反复测试,才敢写进代码。 不知道大家怎么甩手给它的。 > > ——响马

October 5, 2024

View Article

在构建 Prompt 时,如何避免把翻译内容当成对话内容?

这是一个常见的问题,比如我有一个翻译的 GPT 或者 LLM 应用,有以后 AI 会混淆输入的内容和指令,不清楚你说的话是要它翻译还是在跟它对话。

October 3, 2024

View Article

OpenAI 的 PlayGround 新增加的提示词优化工具,以及它的提示词

OpenAI's "meta" prompt for optimizing GPT prompts on the playground.

October 3, 2024

View Article

Full Prompt of ChatGPT 4o with canvas

Full Prompt of ChatGPT 4o with canvas and how to get the full prompt

October 3, 2024

View Article

将博客系统迁移至了 CloudFlare

记录我将博客系统迁移到 CloudFlare 的经历。

October 2, 2024

View Article

提示词工程:技术分类与提示词微调[译]

作为一个新兴的研究领域,提示词工程尚未有明确的技术分类。当你查看各种讨论这些技术的文章和网站时,你会发现它们风格各异,且缺乏系统性。因此,实践者通常会采用最简单的方法。在本文中,我将为提示词工程技术提供一个概览,并提出一个清晰的分类,这将帮助你更好地理解这些概念并有效应用它们。此外,我还将探讨如何将提示词工程作为一个数据科学过程进行,其中包括提示词微调和评估。

September 28, 2024

View Article

为什么未来属于通才[译]

在 AI 时代,懂一点多领域知识比只懂一个领域的深度知识更有价值

September 28, 2024

View Article

提示工程师是最短命的职业吗?提示工程已经死了吗?

随着 OpenAI 新的推理模型 o1 preview 的发布,它能自动生成高质量思维链,很简单的提示词也可以得到很不错的效果,所以很多人觉得提示工程已经死了,提示工程师是世上最短命的职业之一。

September 20, 2024

View Article

Sam Altman:新发布的推理模型 o1 preview 相当于 GPT-2 时刻,但是升级曲线会很陡峭,意味着很快就会达到它的 GPT-4 时刻 [译]

在 2024 年 T-Mobile Capital Markets Day 上,OpenAI CEO Sam Altman 的一段访谈。OpenAI 新发布的推理模型 o1 preview 相当于 GPT-2 时刻,但是升级曲线会很陡峭,意味着很快就会达到它的 GPT-4 时刻。AI 的五个发展阶段。第一个阶段是聊天机器人。第二个阶段,也就是我们现在刚刚达到的,是推理系统。第三阶段是 AI 智能体。第四阶段是创新者,具有发现新科学信息的能力。第五阶段是完整的组织。从第一阶段过渡到第二阶段花费了一段时间,第二阶段能相对较快地推动第三阶段 AI 智能体的发展。OpenAI 不会用 API 调用的数据后者训练的数据来训练他们的模型。OpenAI 成功的秘诀是因为有坚定的信念和保持专注,能保持研究方向的聚焦。坚信深度学习的力量,相信可以从现有的状态一路走到通用人工智能(AGI)甚至更远,尽最大努力做得最好,并试图保持研究方向的聚焦。与此同时,会根据前进过程中学到的新知识来调整方向。尽全力去完成每一个任务,随着时间的推移,就能产生积累效应。看好未来 AI 在医疗保健领域、教育领域和科学研究领域上的贡献。

September 19, 2024

View Article

对 OpenAI o1 的逆向工程[译]

通过生产化测试时间计算揭示 AI 的未来。探索已经在语言模型训练中应用。

September 17, 2024

View Article

推理规模扩展定律(inference scaling law)会成为大力出奇迹的新方向吗?它能带我们走进 AGI 吗?

OpenAI 新发布的推理模型 o1 开辟了一个新的范式,就是推理规模扩展定律(inference scaling law),它到底是什么?能带我们走进 AGI 吗?

September 15, 2024

View Article

在 o1 发布后,回顾当年 Jim Fan 对 Q*的预测,他对了吗?

去年 Jim Fan 曾对传闻中的 Q* 有了一些有趣的猜测,让我们回头看看是不是对的。

September 15, 2024

View Article

Anthropic 如何构建 Artifacts [译]

Artifacts 背后的团队——一种与 Claude 互动的新颖方式——分享了他们如何在三个月内通过分布式团队打造这一功能的独家细节。

August 29, 2024

View Article

大厂与其山寨 Cursor,不如做个好用的 AI 邮件客户端

大厂抄 Cursor,这样追在别人屁股后面跑是没有前途的,Cursor 已经是红海了,就算大厂又如何,微软比 Cursor 大多少?结果 GitHub Copilot 也没打过 Cursor,大厂还不如多投资几家像 Cursor 这样的公司,为什么非要抄他们呢!

August 25, 2024

View Article

我的代码编辑器使用史,从语法高亮到 AI 生成

记事本 -> 语法高亮 -> 自动完成 -> AI 智能生成 -> ?

August 24, 2024

View Article

我们如何构建 Townie——一个能够生成全栈应用的应用程序 [译]

Townie 在过去的几周内已经彻底重新设计。它在编写全栈应用方面非常厉害。这篇文章讲述了我几周前是如何为这个新版的 Townie 制作原型的。

August 24, 2024

View Article

The full prompt of v0.dev

You are v0, an AI assistant created by Vercel to be helpful, harmless, and honest.

August 21, 2024

View Article

《你是一个有用的邮件助理》和其他 Apple Intelligence 指示 [译]

一些用于 Apple 即将推出的 AI 功能的预提示说明存储在你的 Mac 上,这些说明要求“不要生成虚假信息”和避免“负面”主题。

August 6, 2024

View Article

在 Character.AI 的提示词设计 [译]

在 Character.AI,掌握提示词工程的艺术与科学至关重要。在实际应用中构建提示词需要考虑广泛的数据和因素:当前的对话模式、正在进行的实验、所涉及的角色、聊天类型、各种用户属性、固定记忆、用户角色、整个对话历史等等。鉴于我们每天构建数十亿条提示词、需要最大化利用不断扩展的大语言模型(LLM)上下文窗口,以及我们的用例多样性,一个强大且可扩展的提示词设计方法是必不可少的。我们倡导从传统的“提示词工程”转向“提示词设计”——这种转变使我们远离繁琐的字符串操作,转而设计精确且引人入胜的提示词。这篇文章介绍了我们开发的 Prompt Poet,一个专门解决提示词设计问题的工具。

August 2, 2024

View Article

生成式 AI 路由

在 LinkedIn 这个 AI 产品架构中,有一个重要的模块叫 路由(Routing),这通常是当应用比较复杂,需要用不同的专业模型或者智能体来处理不同的任务,比如当用户希望获得简历方面的建议,就可以交给简历评估的智能体负责;当用户希望获得某个公司的资讯,就可以由专门的公司资讯智能体负责。

July 31, 2024

View Article

引入 Cohere 提示词优化器:提示词优化触手可及 [译]

Cohere Prompt Tuner 使用可定制的优化和评估循环来改进 LLM Prompt,基于 Google Deepmind 的论文 OPRO (Optimization by Prompting) 方法,使用 LLM 驱动的评估结果来迭代优化 Prompts。

July 31, 2024

View Article

翻译 GPT 的提示词更新和优化

我最近对我的翻译 GPT 做了一点优化,让其更好的跟随指令。

July 31, 2024

View Article

介绍 SAM 2:下一代 Meta 视频和图像分割模型 [译]

今天,我们宣布了 Meta Segment Anything Model 2(SAM 2),这是 Meta Segment Anything Model 的下一代产品,现在支持在视频和图像中进行对象分割。我们在 Apache 2.0 许可证下发布了 SAM 2,因此任何人都可以使用它来构建自己的体验。我们还共享了用于构建 SAM 2 的数据集 SA-V,并在 CC BY 4.0 许可证下发布,还推出了一个基于网页的演示体验,人人都可以试用我们模型的一个版本。

July 30, 2024

View Article

构建生成式 AI 平台 [译]

在研究了公司如何部署生成式 AI 应用程序后,我注意到它们的平台有许多相似之处。本文概述了生成式 AI 平台的常见组件、它们的功能以及如何实现。我尽量保持架构的通用性,但某些应用程序可能会有所不同。以下是总体架构的样子。

July 30, 2024

View Article

提示词注入 VS 越狱:有什么区别? [译]

我一直认为_提示词注入_是诱导模型做坏事,而_越狱_是特意诱导它做出违反公司服务条款的事情,通常是在聊天机器人中(因此,越狱是提示词注入的一部分)。但最近在 X 上的一次对话彻底改变了我的想法。我将从我对这些概念的新理解开始,因为这可能是你最关心的内容。然后,我会介绍那次改变我看法的对话,最后是我如何形成错误观点的过程。

July 29, 2024

View Article

大语言模型的工作原理,无需数学解释 [译]

我认为很多人对 GenAI 革命有一个基本疑问,那就是这些模型表面上展示的智能究竟来自哪里。在本文中,我将尝试用简单的术语解释生成式 AI 模型的工作原理,而不使用高级数学,帮助你将它们看作计算机算法,而不是魔法。

July 29, 2024

View Article

LinkedIn 团队构建生成式 AI 产品的经验教训

LinkedIn 的这个分享很有价值,他们分享了在构建生成式 AI 产品时的一些宝贵经验教训

July 28, 2024

View Article

实战经验:在 GoDaddy 运营 LLM 中学到的 10 个教训 [译]

自从 ChatGPT 于 2022 年 12 月发布以来,GoDaddy 在 AI 方面进行了大量投资。在此期间,我们在众多项目中利用大语言模型(LLM)帮助客户创建网站内容、社交营销活动、设计标志,甚至为他们的项目找到最佳域名。我的团队——数字关怀团队,利用 LLM 在我们的消息渠道(短信、WhatsApp 和网络)中提供卓越的客户体验。GoDaddy 每天在我们的消息渠道中收到超过 60,000 个客户联系。许多对话开始于与我们某个机器人进行互动。我们对 LLM 技术在客户支持中的应用充满了期待和兴奋。早期实验表明,LLM 的表现优于旧的自然语言处理单元;然而,运营 LLM 并非易事。我们在运营这些模型的过程中学到了很多经验教训,这篇文章讨论了这些发现。

July 28, 2024

View Article

构建生成式 AI 产品的思考 [译]

在过去的六个月里,我们在 LinkedIn 的团队一直在努力开发一种新的 AI 驱动体验。我们希望重新定义会员们进行工作搜索和浏览专业内容的方式。

July 28, 2024

View Article

我的隐私信息会被大语言模型拿去训练吗?

隐私问题是一个大家都很关注的问题,以前搜索时代,大家担心搜索引擎会泄露自己的身份信息,私密聊天记录等。现在大语言时代,同样有类似担心,担心自己的隐私信息会被大语言模型拿去训练,从而一不小心泄露自己的隐私信息。

July 22, 2024

View Article