收集云服务器优惠信息
记录云服务器使用心得

教你安装LM Studio以在Linux系统中离线运行LLMs

LM Studio是一款用户友好的桌面应用程序,允许你在Linux机器上本地下载、安装和运行大型语言模型(LLMs)。使用LM Studio,你可以摆脱基于云计算的AI模型的限制和隐私问题,同时仍然可以享受熟悉的类似ChatGPT的界面。

在本文中,小编将使用AppImage格式在Linux系统中安装LM Studio ,并提供在本地运行特定LLM模型的典型示例,一起来看看吧。

系统要求

在Linux上运行LM Studio最低硬件和软件要求是:

  • 专用NVIDIA或AMD显卡,至少具有8GB的​​VRAM。
  • 需要兼容AVX2的处理器和至少16GB的RAM。

在Linux中安装LM Studio

首先需要从官方网站或存储库下载最新LM Studio AppImage,如下图所示:

下载LM Studio AppImage

下载AppImage后,需要使其可执行并提取AppImage内容,它将自身解压到名为squashfs-root的目录中:

chmod u+x LM_Studio-*.AppImage
./LM_Studio-*.AppImage --appimage-extract

现在导航到解压的squashfs-root目录并为chrome-sandbox文件设置适当的权限,该文件是应用程序安全运行所需的辅助二进制文件:

cd squashfs-root
sudo chown root:root chrome-sandbox
sudo chmod 4755 chrome-sandbox

现在可以直接从解压的文件运行LM Studio应用程序:

./lm-studio

Ubuntu上的LM Studio

完成以上步骤,LM Studio现已安装在你的Linux系统上,现在可以开始探索和运行本地LLM。

在Linux中本地运行语言模型

成功安装并运行LM Studio后,可以开始使用它在本地运行语言模型。例如,要运行名为GPT-3的预训练语言模型,请点击顶部的搜索栏并输入“ GPT-3 ”并下载:

安装GPT-3

点击下载之后,在右侧栏中会显示下载进度:

模型下载进度

下载完成后,点击左侧窗格中的“聊天”选项卡。在“聊天”选项卡中,点击顶部的下拉菜单并选择下载的GPT-3模型。

现在可以通过在聊天窗口底部的输入字段中输入消息来开始与GPT-3模型聊天。

在LM Studio中加载LLM模型

GPT-3模型将处理你的消息并根据其训练提供响应,注意响应时间可能会因系统硬件和下载模型的大小而异。

小结

通过使用AppImage格式在Linux系统上安装LM Studio,可以轻松地在本地下载、安装和运行大型语言模型,而无需依赖基于云服务。这让你能够更好地控制数据和隐私,同时仍能享受高级AI模型带来的好处。

如果有兴趣的话,可以自行进行测试和学习。但请记住,务必尊重知识产权,并遵守使用LM Studio下载和运行的LLM的使用条款,以免带来不必要的麻烦。

赞(0)
网站声明:本文内容由趣云笔记原创,部分资源收集于网络,如有侵权请联系企鹅:2472781824删除。
文章名称:《教你安装LM Studio以在Linux系统中离线运行LLMs》
文章链接:https://www.ecscoupon.com/6870.html
本站资源仅供个人学习交流,未经允许不得转载,更不允许用于商业用途。如需转载,请注明来源,感谢理解!