下载地址和官网
https://ollama.com/download/windows
1运行ollama官方自带模型
模型搜索网址:https://ollama.com/library
如: ollama run qwen:0.5b
2运行自定义模型(需要转转换为gguf文件)
2.1文件写入
下载—个gguf文件:如llama3.1_8b_chinese
https://modelscope.cn/models/XD_Al/Llama3.1-8B-Chinese-Chat/resolve/master/gguf/
llama3.1_Sb_chinese_chat_q4_k_m.gguf
将这行内容写入一个文件如:Ilama_zh:
FROM .llama3.1_Sb_chinese_chat_q4_k_m.gguf
2.2创建ollama文件
llamazh为自定义的模型名字,如上面的qwen:0.5b一样的名字
ollama create llama3.1:8bzh -f llama_zh
2.·3查看或运行自定义模型
查看已经下载的模型:ollama list
运行模型:ollama run llama3.1:8bzh
前一段时间xtuner推出了几个效果非常好的多模态大模型:llava-phi3和llava-llama3。
模型地址:https://huggingface.co/xtuner/l
同时又支持Ollama:
https://ollama.com/library/llav
https://ollama.com/library/llav
Ollama上默认量化的模型,llava-phi3效果不错,llava-llama3还需要进一步优化,建议作者多上传几个版本如Q6或者Q8的。
LLava:13b因为模型比较大,所以输出速度相对慢一些。
Phi3因为只有3.8B所以模型输出的速度非常快。
常见ollama 属性设置
我们在平时使用ollama过程中会遇到不少问题,比如模型镜像加载在C 盘有没有办法切换到其他盘符、启动ollama 只能127.0.0.1 不能使用IP 访问等问题。这些问题都是可以借助ollama 属性设置来解决。
1 OLLAMA_HOST=0.0.0.0 解决外网访问问题
2 OLLAMA_MODELS=E:\ollamaimagers 解决模型默认下载C 盘的问题
3 OLLAMA_KEEP_ALIVE=24h 设置模型加载到内存中保持24个小时(默认情况下,模型在卸载之前会在内存中保留 5 分钟)
4.OLLAMA_HOST=0.0.0.0:8080 解决修改默认端口11434端口
5.OLLAMA_NUM_PARALLEL=2 设置2个用户并发请求
6.OLLAMA_MAX_LOADED_MODELS=2 设置同时加载多个模型
设置方式2种:
第一种方式:启动命令如下
set OLLAMA_NUM_PARALLEL=2
set OLLAMA_MAX_LOADED_MODELS=2
ollama serve
第2种方式:环境变量设置
有的小伙伴可能看到我们在启动的时候通过set 方式设置参数,窗口关闭了后面参数设置就无效了。有没有办法永久设置呢?答案是肯定的的,我们可以将他设置到系统的环境变量中。
编辑账号的环境变量--环境变量 打开环境变量设置
https://www.bilibili.com/read/cv34357822/ 出处:bilibili