探索LangChain:它的原理,价值,和局限性

本来这篇文章是在五月份就要写好的,因为论文的事情耽搁了好久,直到七月份才有点时间来写这篇文章。三个月前,ChatGPT风头十足,每天上网都是各种相关的消息,像是“谁又开源了一个大模型,其性能可以达到GPT-3”,又或是“ChatGPT上架了新的功能”等等。那段时间,我每天都紧跟着技术更新的讯息,害怕错漏一点技术进展,虽然有点焦虑,但也比较充实快乐。

在接触到LangChain之前,我们最初的目的是为了实现一个单一功能的AI问答机器人,例如AI女友,AI专业软件知识问答,或用于语言功能受损的脑梗患者的复健聊天AI。我们知道直接开始这样的一个大项目是很难的,所以我们打算先做一个小的项目练练手,于是我们把目光聚焦到了最为简单的AI知识问答上,也就是这样我们顺理成章的接触到LangChain。在那个时间点,LangChain虽然已经在github上出现了一些项目,但是关注它的人数远远不如现在,在我写这篇文章的时间点,已经有很多相关的文章介绍了LangChain,并且github也有了很多很好的相关项目。

然而,我觉得我还是应该继续写完这篇文章,因为到这个时间点,我个人感觉LangChain事实上没有办法完美的实现大语言模型的单一场景应用。这不仅仅是因为大语言模型的问题(这里是我认为单一场景应该不需要GPT-4或者GPT-3这么多的参数,少量参数的大语言模型也应该可以解决单一应用),也是