首页
读书
网课
《人工智能》目录


正文

下载地址和官网

https://ollama.com/download/windows


1运行ollama官方自带模型

模型搜索网址:https://ollama.com/library

如: ollama run qwen:0.5b

2运行自定义模型(需要转转换为gguf文件)

2.1文件写入

下载—个gguf文件:如llama3.1_8b_chinese

https://modelscope.cn/models/XD_Al/Llama3.1-8B-Chinese-Chat/resolve/master/gguf/

llama3.1_Sb_chinese_chat_q4_k_m.gguf

将这行内容写入一个文件如:Ilama_zh:

FROM .llama3.1_Sb_chinese_chat_q4_k_m.gguf

2.2创建ollama文件

llamazh为自定义的模型名字,如上面的qwen:0.5b一样的名字

ollama create llama3.1:8bzh -f llama_zh

2.·3查看或运行自定义模型

查看已经下载的模型:ollama list

运行模型:ollama run llama3.1:8bzh


前一段时间xtuner推出了几个效果非常好的多模态大模型:llava-phi3和llava-llama3。

模型地址:huggingface.co/xtuner/l

同时又支持Ollama:

ollama.com/library/llav

ollama.com/library/llav

Ollama上默认量化的模型,llava-phi3效果不错,llava-llama3还需要进一步优化,建议作者多上传几个版本如Q6或者Q8的。


LLava:13b (用于比较)

LLava:13b因为模型比较大,所以输出速度相对慢一些。

llava-phi3:latest

Phi3因为只有3.8B所以模型输出的速度非常快。


常见ollama 属性设置

  我们在平时使用ollama过程中会遇到不少问题,比如模型镜像加载在C 盘有没有办法切换到其他盘符、启动ollama 只能127.0.0.1 不能使用IP 访问等问题。这些问题都是可以借助ollama 属性设置来解决。


     1 OLLAMA_HOST=0.0.0.0 解决外网访问问题


     2 OLLAMA_MODELS=E:\ollamaimagers   解决模型默认下载C 盘的问题


     3 OLLAMA_KEEP_ALIVE=24h     设置模型加载到内存中保持24个小时(默认情况下,模型在卸载之前会在内存中保留 5 分钟)


     4.OLLAMA_HOST=0.0.0.0:8080  解决修改默认端口11434端口


     5.OLLAMA_NUM_PARALLEL=2  设置2个用户并发请求


     6.OLLAMA_MAX_LOADED_MODELS=2 设置同时加载多个模型


设置方式2种:

第一种方式:启动命令如下

set OLLAMA_NUM_PARALLEL=2

set OLLAMA_MAX_LOADED_MODELS=2

ollama serve 

第2种方式:环境变量设置 

有的小伙伴可能看到我们在启动的时候通过set 方式设置参数,窗口关闭了后面参数设置就无效了。有没有办法永久设置呢?答案是肯定的的,我们可以将他设置到系统的环境变量中。

编辑账号的环境变量--环境变量 打开环境变量设置 

https://www.bilibili.com/read/cv34357822/ 出处:bilibili





上一篇: 没有了
下一篇: 没有了
圣贤书院