用于网速测试的下载测速文件合集
推荐国外使用(Cloudflare Anycast)。 100MB https://speed.cloudflare.com/__down?during=download&by…
docker构建SB镜像
拉取alpine3.22镜像,进入容器终端,或使用虚拟机安装alpine3.22。 1. 前置操作 #更换国内镜像源 sed -i 's/dl-cdn.alpinelinux.org/mirrors.…
pterodactl docker install
安装docker:curl -sSL https://get.docker.com/ | CHANNEL=stable bash -s docker --mirror Aliyun 如遇backpor…
OpenWRT流量实时监控插件
最近路由器连得人变多了,想看下谁用的流量占用的带宽比较大。openwrt没有内置这个功能。所以得安装插件。 1.iftop iftop是个命令行工具,安装起来比较简单,使用就是通过命令行,可以做简单的…
docker部署dify
git clone https://github.com/langgenius/dify.git 不使用80端口,进入 dify/docker 目录,cp .env.example .env 编辑.e…
docker部署searxng隐私搜索引擎
新建 docker-compose.yml home下新建searxng存放配置文件 services: redis: container_name: searxng_redis image: doc…
ollama导入离线模型
ollama可以导入gguf格式的模型文件,但需要进行一些操作。 首先下载gguf模型,或者将hug的模型下载后转换为gguf。 进入模型所在文件夹,建立 modelfile.mf。 内容为: FRO…
使用llama.cpp量化hug、gguf模型。
环境:debian12.9、cmake、python3+、显卡:A100*1(有显卡可加快量化速度,纯CPU非常慢) 首先下载好需要的模型,hug上可下载safetensors、GGUF。如果你下载的…
linux下使用llama.cpp推理与server api
系统:debian12.9 一、下载项目 git clone https://github.com/ggml-org/llama.cpp cd llama.cpp 编译该项目需cmake,未安装请ap…
使用docker运行vllm ollama
安装好docker,显卡驱动与cuda,拉取vllm镜像 docker pull vllm/vllm-openaidocker pull ollama/ollama下载好huggingface上的模型…