我為什么放棄了 LangChain?(1)
「LangChain 的流行已經(jīng)扭曲了圍繞其本身的人工智能創(chuàng)業(yè)生態(tài)系統(tǒng),這就是為什么我不得不坦誠自己對它的疑慮。」
如果你關(guān)注了過去幾個月中人工智能的爆炸式發(fā)展,那你大概率聽說過 LangChain。
簡單來說,LangChain 是一個 Python 和 JavaScript 庫,由 Harrison Chase 開發(fā),用于連接 OpenAI 的 GPT API(后續(xù)已擴展到更多模型)以生成人工智能文本。
更具體地說,它是論文《ReAct: Synergizing Reasoning and Acting in Language Models》的實現(xiàn):該論文展示了一種提示技術(shù),允許模型「推理」(通過思維鏈)和「行動」(通過能夠使用預(yù)定義工具集中的工具,例如能夠搜索互聯(lián)網(wǎng))。
論文鏈接:https://arxiv.org/pdf/2210.03629.pdf
事實證明,這種組合能夠大幅提高輸出文本的質(zhì)量,并使大型語言模型具備正確解決問題的能力。
2023 年 3 月,ChatGPT 的 API 因升級降價大受歡迎,LangChain 的使用也隨之爆炸式增長。
這之后,LangChain 在沒有任何收入也沒有任何明顯的創(chuàng)收計劃的情況下,獲得了 1000 萬美元的種子輪融資和 2000-2500 萬美元的 A 輪融資,估值達到 2 億美元左右。
ReAct 論文中的 ReAct 流示例。
由 LangChain 推廣的 ReAct 工作流在 InstructGPT/text-davinci-003 中特別有效,但成本很高,而且對于小型項目來說并不容易使用。
Max Woolf 是一位 BuzzFeed 的數(shù)據(jù)科學(xué)家。他也使用過 LangChain,這次經(jīng)歷總體來說不太好。
讓我們看看他經(jīng)歷了什么。
「是只有我不會用嗎?」
在 BuzzFeed 工作時,我有一個任務(wù)是為 Tasty 品牌創(chuàng)建一個基于 ChatGPT 的聊天機器人(后來在 Tasty iOS 應(yīng)用中發(fā)布為 Botatouille),可以與用戶聊天并提供相關(guān)食譜。
具體來說,源菜譜將被轉(zhuǎn)換為嵌入式菜譜并保存在一個向量存儲中:例如如果用戶詢問「健康食品」,查詢會被轉(zhuǎn)換為嵌入式菜譜,然后執(zhí)行近似最近鄰搜索以找到與嵌入式查詢相似的菜譜,然后將其作為附加上下文提供給 ChatGPT,再由 ChatGPT 顯示給用戶。這種方法通常被稱為檢索增強生成。
使用檢索增強生成的聊天機器人的架構(gòu)示例。
「LangChain 是 RAG 最受歡迎的工具,所以我想這是學(xué)習(xí)它的最佳時機。我花了一些時間閱讀 LangChain 的全面文檔,以便更好地理解如何最好地利用它?!?/span>
經(jīng)過一周的研究,我一無所獲。運行 LangChain 的 demo 示例確實可以工作,但是任何調(diào)整它們以適應(yīng)食譜聊天機器人約束的嘗試都會失敗。在解決了這些 bug 之后,聊天對話的整體質(zhì)量很差,而且毫無趣味。經(jīng)過緊張的調(diào)試之后,我沒有找到任何解決方案。
總而言之,我遇到了生存危機:當(dāng)很多其他 ML 工程師都能搞懂 LangChain 時,我卻搞不懂,難道我是一個毫無價值的機器學(xué)習(xí)工程師嗎?
我用回了低級別的 ReAct 流程,它立即在對話質(zhì)量和準(zhǔn)確性上超過了我的 LangChain 實現(xiàn)。
浪費了一個月的時間來學(xué)習(xí)和測試 LangChain,我的這種生存危機在看到 Hacker News 關(guān)于有人用 100 行代碼重現(xiàn) LangChain 的帖子后得到了緩解,大部分評論都在發(fā)泄對 LangChain 的不滿:
LangChain 的問題在于它讓簡單的事情變得相對復(fù)雜,而這種不必要的復(fù)雜性造成了一種「部落主義」,損害了整個新興的人工智能生態(tài)系統(tǒng)。
所以,如果你是一個只想學(xué)習(xí)如何使用 ChatGPT 的新手,絕對不要從 LangChain 開始。
LangChain 的「Hello World」
LangChain 的快速入門,從一個關(guān)于如何通過 Python 與 LLM/ChatGPT 進行簡單交互的迷你教程開始。例如,創(chuàng)建一個可以將英語翻譯成法語的機器人:
from langchain.chat_models import ChatOpenAIfrom langchain.schema import ( AIMessage, HumanMessage, SystemMessage)使用 OpenAI ChatGPT 官方 Python 庫的等效代碼:
chat = ChatOpenAI(temperature=0)chat.predict_messages([HumanMessage(content="Translate this sentence from English to French. I love programming.")])# AIMessage(content="J'adore la programmation.", additional_kwargs={}, example=False)
import openaiLangChain 使用的代碼量與僅使用官方 openai 庫的代碼量大致相同,估計 LangChain 合并了更多對象類,但代碼優(yōu)勢并不明顯。
messages = [{"role": "user", "content": "Translate this sentence from English to French. I love programming."}]
response = openai.ChatCompletion.create(model="gpt-3.5-turbo", messages=messages, temperature=0)response["choices"][0]["message"]["content"]# "J'adore la programmation."
提示模板的示例揭示了 LangChain 工作原理的核心:
from langchain.prompts.chat import ( ChatPromptTemplate, SystemMessagePromptTemplate, HumanMessagePromptTemplate,)LangChain 吹噓的提示工程只是 f-strings,一個存在于每個 Python 安裝中的功能,但是有額外的步驟。為什么我們需要使用這些 PromptTemplates 來做同樣的事情呢?
template = "You are a helpful assistant that translates {input_language} to {output_language}."system_message_prompt = SystemMessagePromptTemplate.from_template(template)human_template = "{text}"human_message_prompt = HumanMessagePromptTemplate.from_template(human_template)
chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt])
chat_prompt.format_messages(input_language="English", output_language="French", text="I love programming.")
我們真正想做的是知道如何創(chuàng)建 Agent,它結(jié)合了我們迫切想要的 ReAct 工作流。幸運的是,有一個演示,它利用了 SerpApi 和另一個數(shù)學(xué)計算工具,展示了 LangChain 如何區(qū)分和使用兩種不同的工具:
from langchain.agents import load_toolsfrom langchain.agents import initialize_agentfrom langchain.agents import AgentTypefrom langchain.chat_models import ChatOpenAIfrom langchain.llms import OpenAI各個工具如何工作?AgentType.CHAT_ZERO_SHOT_REACT_DESCRIPTION 到底是什么?agent.run () 的結(jié)果輸出(僅在 verbose=True 時出現(xiàn))更有幫助。
# First, let's load the language model we're going to use to control the agent.chat = ChatOpenAI(temperature=0)
# Next, let's load some tools to use. Note that the `llm-math` tool uses an LLM, so we need to pass that in.llm = OpenAI(temperature=0)tools = load_tools(["serpapi", "llm-math"], llm=llm)
# Finally, let's initialize an agent with the tools, the language model, and the type of agent we want to use.agent = initialize_agent(tools, chat, agent=AgentType.CHAT_ZERO_SHOT_REACT_DESCRIPTION, verbose=True)
# Now let's test it out!agent.run("Who is Olivia Wilde's boyfriend? What is his current age raised to the 0.23 power?")
> Entering new AgentExecutor chain...Thought: I need to use a search engine to find Olivia Wilde's boyfriend and a calculator to raise his age to the 0.23 power.Action:{ "action": "Search", "action_input": "Olivia Wilde boyfriend"}文檔中沒有明確說明,但是在每個思想 / 行動 / 觀察中都使用了自己的 API 調(diào)用 OpenAI,所以鏈條比你想象的要慢。另外,為什么每個動作都是一個 dict?答案在后面,而且非常愚蠢。
Observation: Sudeikis and Wilde's relationship ended in November 2020. Wilde was publicly served with court documents regarding child custody while she was presenting Don't Worry Darling at CinemaCon 2022. In January 2021, Wilde began dating singer Harry Styles after meeting during the filming of Don't Worry Darling.Thought:I need to use a search engine to find Harry Styles' current age.Action:{ "action": "Search", "action_input": "Harry Styles age"}
Observation: 29 yearsThought:Now I need to calculate 29 raised to the 0.23 power.Action:{ "action": "Calculator", "action_input": "29^0.23"}
Observation: Answer: 2.169459462491557
Thought:I now know the final answer.Final Answer: 2.169459462491557
> Finished chain.'2.169459462491557'
最后,LangChain 如何存儲到目前為止的對話?
from langchain.prompts import ( ChatPromptTemplate, MessagesPlaceholder, SystemMessagePromptTemplate, HumanMessagePromptTemplate)from langchain.chains import ConversationChainfrom langchain.chat_models import ChatOpenAIfrom langchain.memory import ConversationBufferMemory我不完全確定為什么這些都是必要的。什么是 MessagesPlaceholder?history 在哪里?ConversationBufferMemory 有必要這樣做嗎?將此調(diào)整為最小的 openai 實現(xiàn):
prompt = ChatPromptTemplate.from_messages([ SystemMessagePromptTemplate.from_template( "The following is a friendly conversation between a human and an AI. The AI is talkative and ""provides lots of specific details from its context. If the AI does not know the answer to a ""question, it truthfully says it does not know." ), MessagesPlaceholder(variable_name="history"), HumanMessagePromptTemplate.from_template("{input}")])
llm = ChatOpenAI(temperature=0)memory = ConversationBufferMemory(return_messages=True)conversation = ConversationChain(memory=memory, prompt=prompt, llm=llm)
conversation.predict(input="Hi there!")# 'Hello! How can I assist you today?'
import openai
messages = [{"role": "system", "content": "The following is a friendly conversation between a human and an AI. The AI is talkative and ""provides lots of specific details from its context. If the AI does not know the answer to a ""question, it truthfully says it does not know."}]
user_message = "Hi there!"messages.append({"role": "user", "content": user_message})response = openai.ChatCompletion.create(model="gpt-3.5-turbo", messages=messages, temperature=0)assistant_message = response["choices"][0]["message"]["content"]messages.append({"role": "assistant", "content": assistant_message})# Hello! How can I assist you today?
這樣代碼行數(shù)就少了,而且信息保存的位置和時間都很清楚,不需要定制對象類。你可以說我對教程示例吹毛求疵,我也同意每個開源庫都有值得吹毛求疵的地方(包括我自己的)。但是,如果吹毛求疵的地方比庫的實際好處還多,那么這個庫就根本不值得使用。
因為,如果快速入門都已經(jīng)這么復(fù)雜,那么實際使用 LangChain 會有多痛苦呢?
*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權(quán)請聯(lián)系工作人員刪除。