webman nginx反向代理配置 PHP

upstream webman {
    server 127.0.0.1:8787;
    keepalive 10240;
}

server {
  server_name 站点域名;
  listen 80;
  access_log off;
  root /your/webman/public;

  location ^~ / {
      proxy_set_header X-Real-IP $remote_addr;
      proxy_set_header Host $http_host;
      proxy_set_header X-Forwarded-Proto $scheme;
      proxy_http_version 1.1;
      proxy_set_header Connection "";
      if (!-f $request_filename){
          proxy_pass http://webman;
      }
  }
}

替换server_name 与 root即可

需要注意upstream设置,否则会导致下载大文件中断错误


杨佳乐 发布于  2024-5-13 14:18 

使用webman框架 mysql 有很多sleep连接 PHP

webman使用长链接模式,每个进程都会开启一个mysql连接,不像fpm每次都是连接释放,webman不释放mysql链接,为了防止mysql没有操作而超时,断开连接,会有定时器 定时select 1 在这个期间没有操作数据库,就会显示sleep状态


杨佳乐 发布于  2024-5-7 14:41 

webman-admin修改进入后台默认路由 PHP

默认进入后台为 /app/admin

修改其他复杂入口,例如 /app/abc3ksncvl

项目配置 config/route.php 里添加

use plugin\admin\app\controller\IndexController;

Route::any('/abc3ksncvl', [IndexController::class, 'index']);

杨佳乐 发布于  2024-5-7 14:28 

2024-4-30 神十七载人飞行任务圆满成功 社会新闻

北京时间4月30日17时46分,神舟十七号载人飞船返回舱在东风着陆场成功着陆,现场医监医保人员确认航天员汤洪波、唐胜杰、江新林身体状态良好,神舟十七号载人飞行任务取得圆满成功。

  16时56分,北京航天飞行控制中心通过地面测控站发出返回指令,神舟十七号载人飞船轨道舱与返回舱成功分离。之后,飞船返回制动发动机点火,推进舱与返回舱分离,返回舱成功着陆,担负搜救回收任务的搜救分队及时发现目标并抵达着陆现场。返回舱舱门打开后,医监医保人员确认航天员身体健康。

  18时37分,神舟十七号航天员汤洪波、唐胜杰、江新林全部安全顺利出舱,健康状态良好。

  至此,航天员汤洪波重返“天宫”的圆梦征程完美收官,航天员唐胜杰、江新林的首飞之旅圆满完成。从首次进驻中国人自己的空间站到2年零1个月后重返“天宫”,汤洪波两次任务累计在轨飞行279天,刷新中国航天员在轨飞行时间最长纪录。

  神舟十七号载人飞船于2023年10月26日从酒泉卫星发射中心发射升空,随后与天和核心舱对接形成组合体。3名航天员在轨飞行187天,进行了2次出舱活动,配合完成空间站多次货物出舱任务,先后开展了舱内外设备安装、调试、维护维修等各项工作,首次完成在轨航天器舱外设施维修任务,为空间站长期稳定在轨运行积累了宝贵的数据和经验;同时,还在地面科研人员密切配合下,完成了涉及微重力基础物理、空间材料科学、空间生命科学、航天医学、航天技术等领域的大量空间科学实(试)验。


杨佳乐 发布于  2024-5-1 05:33 

Docker三分钟搞定LLama3开源大模型本地部署 其他

概述

LLaMA-3(Large Language Model Meta AI 3)是由Meta公司开发的大型开源生成式人工智能模型。它在模型结构上与前一代LLaMA-2相比没有大的变动。

LLaMA-3模型分为不同规模的版本,包括小型、中型和大型,以适应不同的应用需求和计算资源。小型模型参数规模为8B,中型模型参数规模为70B,而大型模型则达到400B,仍在训练中,目标是实现多模态、多语言的功能,预计效果将与GPT 4/GPT 4V相当。

安装 Ollama

Ollama 是一个开源的大型语言模型(LLM)服务工具,它允许用户在本地机器上运行和部署大型语言模型。Ollama 设计为一个框架,旨在简化在 Docker 容器中部署和管理大型语言模型的过程,使得这一过程变得简单快捷。用户可以通过简单的命令行操作,快速在本地运行如 Llama 3 这样的开源大型语言模型。

官网地址:https://ollama.com/download

Ollama 支持多种平台,包括 Mac 和 Linux,并提供了 Docker 镜像以简化安装过程。用户可以通过编写 Modelfile 来导入和自定义更多的模型,这类似于 Dockerfile 的作用。Ollama 还具备一个 REST API,用于运行和管理模型,以及一个用于模型交互的命令行工具集。

Ollama服务启动日志

模型管理

下载模型

ollama pull llama3:8b

默认下载的是llama3:8b。这里冒号前面代表模型名称,冒号后面代表tag,可以从这里查看llama3的所有tag

模型测试

注意:如果想让模型中文回复,请先输入:你好!请中文回复

配置Open-WebUI

在CPU下运行

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

输入地址 http://127.0.0.1:3000 进行访问

初次访问需要注册,这里我注册一个账号,注册完成登录成功

切换中文语言

下载llama3:8b模型

llama3:8b

下载完成

使用

选择模型

使用模型

注意:如果想让模型中文回复,请先输入:你好!请中文回复

内存

注:此文章转载自 Tinywan 开源技术小栈


杨佳乐 发布于  2024-4-30 15:11