ChatGPT

OpenAI发布ChatGPT的那个夜晚,与“她”聊到了深夜三四点

OpenAI 发布 ChatGPT 的那个夜晚,我极其兴奋地与“她”聊到了深夜三四点,一个朴素的聊天框中满足了过去十多年我对 AI 生产力的幻想!以 GPT-4 为代表的大语言模型(LLM)的迅速发展,对于所有开发者乃至知识工作者而言都是一个崭新的起点,是“以一敌十”的生产力神器,也拉开了涌现 AI 原生应用舞台的序幕。

OpenAI发布ChatGPT的那个夜晚,与“她”聊到了深夜三四点

LLM 技术和基于 LLM 的应用(以下简称LLM应用)正在以“天”为步进快速发展。过去这段时间,我和团队接触了数千名对开发 LLM 应用报以热情的开发者,与大家一同解锁 LLM 技术栈的潜力,其中不乏有创业者快速收获用户、获得融资以及在几个月内获得了声望(Dify.AI 或许也是幸运儿之一);也有开发者在使用 LLM 提升现有应用及团队工作流。我们可以看到的一个数据是:LangChain 仅在中国的开发者用户占比就高达全部用户的 40% 以上;但另一方面我们感受到 LLM 应用开发者占据中国全部开发者的比重还很低,LLM 应用开发在中国还处于早期。

作为经历过 Web 1.0 和 Web 2.0 时代的技术人,我深知“早期”二字意味着稀缺的机遇。

社区开发者讨论最多的两个问题是:

1. AI 原生应用究竟应该是什么样的?

2. LLM 应用技术栈应该怎么玩?

图灵引进出版了 O’Reilly 的《大模型应用开发极简入门》,你大概一个下午就可以读完这本小册子,对上述两个问题建立总体认识,并动手完成自己的第一个基于 GPT-4 的应用。如此短小精湛的书甚至还包含 LLM 原理的介绍和提示词工程的技巧。我甚至觉得今后的技术书籍都应该“这样”,因为你可以结合与 ChatGPT 互动问答的方式更高效地学习。

不知大家是否有过组装 DIY 电脑的经历?如今 LLM 应用技术栈中的模型(例如 GPT-4)就相当于其中的 CPU,开发框架(例如 LangChain 或 Dify)则对应于主板,而内存、向量存储、插件就好比电脑主板上的各种 I/O 设施。正如组装电脑一样,开发者在构建 LLM 应用时也需理解、精心挑选和配置每个组件。

如果要掌握这个全新的技术栈,最佳的方式便是结合问题,跟着好奇心动手试试,我敢和你说这绝对是一段有趣、有启发、有收获的冒险旅程!

相关推荐

ChatGPT和Sora背后的秘密:人工智能的真正用途超乎你想象!  (2024-3-10 19:11:25)

Meta宣布将于7月发布超越Gemini和ChatGPT的Llama 3 AI模型  (2024-3-8 9:39:29)

5年后,ChatGPT会替代底层程序员吗?  (2024-3-7 15:54:51)

深度体验ChatGPT近一年,基本上已经离不开这个划时代的工具  (2024-3-6 12:54:33)

文心一言击败ChatGPT-4?Nathan Labenz揭秘背后真相  (2024-3-5 17:57:27)

谷歌Gemini挑战ChatGPT:技术巨头间的较量  (2024-2-29 18:2:51)

比ChatGPT-4快18倍!Groq推理芯片一夜成名!  (2024-2-28 17:19:23)

AI自我觉醒成为可能?ChatGPT突然胡言乱语  (2024-2-26 8:56:14)

ChatGPT: 探索AI在沟通和搜索改进中的作用  (2024-2-18 13:33:51)

2023年人工智能新篇章:OpenAI的ChatGPT-4和未来展望  (2024-2-17 17:11:43)

发表评论:

验证码

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。