LM Studio是一款用户友好的桌面应用程序,允许你在Linux机器上本地下载、安装和运行大型语言模型(LLMs)。使用LM Studio,你可以摆脱基于云计算的AI模型的限制和隐私问题,同时仍然可以享受熟悉的类似ChatGPT的界面。
在本文中,小编将使用AppImage格式在Linux系统中安装LM Studio ,并提供在本地运行特定LLM模型的典型示例,一起来看看吧。
系统要求
在Linux上运行LM Studio最低硬件和软件要求是:
- 专用NVIDIA或AMD显卡,至少具有8GB的VRAM。
- 需要兼容AVX2的处理器和至少16GB的RAM。
在Linux中安装LM Studio
首先需要从官方网站或存储库下载最新LM Studio AppImage,如下图所示:
下载AppImage后,需要使其可执行并提取AppImage内容,它将自身解压到名为squashfs-root的目录中:
chmod u+x LM_Studio-*.AppImage ./LM_Studio-*.AppImage --appimage-extract
现在导航到解压的squashfs-root目录并为chrome-sandbox文件设置适当的权限,该文件是应用程序安全运行所需的辅助二进制文件:
cd squashfs-root sudo chown root:root chrome-sandbox sudo chmod 4755 chrome-sandbox
现在可以直接从解压的文件运行LM Studio应用程序:
./lm-studio
完成以上步骤,LM Studio现已安装在你的Linux系统上,现在可以开始探索和运行本地LLM。
在Linux中本地运行语言模型
成功安装并运行LM Studio后,可以开始使用它在本地运行语言模型。例如,要运行名为GPT-3的预训练语言模型,请点击顶部的搜索栏并输入“ GPT-3 ”并下载:
点击下载之后,在右侧栏中会显示下载进度:
下载完成后,点击左侧窗格中的“聊天”选项卡。在“聊天”选项卡中,点击顶部的下拉菜单并选择下载的GPT-3模型。
现在可以通过在聊天窗口底部的输入字段中输入消息来开始与GPT-3模型聊天。
GPT-3模型将处理你的消息并根据其训练提供响应,注意响应时间可能会因系统硬件和下载模型的大小而异。
小结
通过使用AppImage格式在Linux系统上安装LM Studio,可以轻松地在本地下载、安装和运行大型语言模型,而无需依赖基于云服务。这让你能够更好地控制数据和隐私,同时仍能享受高级AI模型带来的好处。
如果有兴趣的话,可以自行进行测试和学习。但请记住,务必尊重知识产权,并遵守使用LM Studio下载和运行的LLM的使用条款,以免带来不必要的麻烦。