苹果开发者多个app是否可以使用同一个证书? 其他

我们在实际的运营中,一个公司可能存在多个app,比如网约车有司机端,有用户端,甚至还有平台管理端。

假如是用一个苹果开发者账号的多个app,是可以使用同一个证书的,因为在同一个苹果开发者账号,最多创建两个发布类型的证书,假如你有三个app以上,是不可能为每一个app创建一个证书的,所以可以多个app公用同一个ios证书。

假如你的苹果开发者账号是个人账号或者company类型的账号,想共享你的证书给其他人使用,我建议是不要这样做,因为其他人假如用了你的证书打包。那么其他人的app就需要在你的苹果开发者账号里上架,app store里显示其他人开发APP的开发者变成了你或你公司的名字。那么其他人的app的责任风险就需要账号拥有者去承担。而开发者的知识产权问题也无法得到保证。虽然这个共享在技术上是没有问题的。

假如你的苹果开发者账号是企业类型的账号,技术上是可以共享你的证书给其他人打包的。但是有一个风险就是,企业类型的账号,苹果仅允许企业内部使用,无法用于上架或互联网安装。假如你让互联网用户安装,苹果有可能会监控到,然后把你的证书撤回或封号。这样你之前安装的用户都会掉签,因此能否共享给别人使用,你最好根据别人的用途而决定。

回到技术上的问题,多个app可以使用同一个私钥证书。但是描述文件(证书profile文件)是不能使用同一个文件的,因为描述文件需要绑定appId,因此不同的app需要创建一个单独的描述文件,描述文件不能共享使用。


杨佳乐 发布于  2024-5-21 08:47 

webman nginx反向代理配置 PHP

upstream webman {
    server 127.0.0.1:8787;
    keepalive 10240;
}

server {
  server_name 站点域名;
  listen 80;
  access_log off;
  root /your/webman/public;

  location ^~ / {
      proxy_set_header X-Real-IP $remote_addr;
      proxy_set_header Host $http_host;
      proxy_set_header X-Forwarded-Proto $scheme;
      proxy_http_version 1.1;
      proxy_set_header Connection "";
      if (!-f $request_filename){
          proxy_pass http://webman;
      }
  }
}

替换server_name 与 root即可

需要注意upstream设置,否则会导致下载大文件中断错误


杨佳乐 发布于  2024-5-13 14:18 

使用webman框架 mysql 有很多sleep连接 PHP

webman使用长链接模式,每个进程都会开启一个mysql连接,不像fpm每次都是连接释放,webman不释放mysql链接,为了防止mysql没有操作而超时,断开连接,会有定时器 定时select 1 在这个期间没有操作数据库,就会显示sleep状态


杨佳乐 发布于  2024-5-7 14:41 

webman-admin修改进入后台默认路由 PHP

默认进入后台为 /app/admin

修改其他复杂入口,例如 /app/abc3ksncvl

项目配置 config/route.php 里添加

use plugin\admin\app\controller\IndexController;

Route::any('/abc3ksncvl', [IndexController::class, 'index']);

杨佳乐 发布于  2024-5-7 14:28 

Docker三分钟搞定LLama3开源大模型本地部署 其他

概述

LLaMA-3(Large Language Model Meta AI 3)是由Meta公司开发的大型开源生成式人工智能模型。它在模型结构上与前一代LLaMA-2相比没有大的变动。

LLaMA-3模型分为不同规模的版本,包括小型、中型和大型,以适应不同的应用需求和计算资源。小型模型参数规模为8B,中型模型参数规模为70B,而大型模型则达到400B,仍在训练中,目标是实现多模态、多语言的功能,预计效果将与GPT 4/GPT 4V相当。

安装 Ollama

Ollama 是一个开源的大型语言模型(LLM)服务工具,它允许用户在本地机器上运行和部署大型语言模型。Ollama 设计为一个框架,旨在简化在 Docker 容器中部署和管理大型语言模型的过程,使得这一过程变得简单快捷。用户可以通过简单的命令行操作,快速在本地运行如 Llama 3 这样的开源大型语言模型。

官网地址:https://ollama.com/download

Ollama 支持多种平台,包括 Mac 和 Linux,并提供了 Docker 镜像以简化安装过程。用户可以通过编写 Modelfile 来导入和自定义更多的模型,这类似于 Dockerfile 的作用。Ollama 还具备一个 REST API,用于运行和管理模型,以及一个用于模型交互的命令行工具集。

Ollama服务启动日志

模型管理

下载模型

ollama pull llama3:8b

默认下载的是llama3:8b。这里冒号前面代表模型名称,冒号后面代表tag,可以从这里查看llama3的所有tag

模型测试

注意:如果想让模型中文回复,请先输入:你好!请中文回复

配置Open-WebUI

在CPU下运行

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

输入地址 http://127.0.0.1:3000 进行访问

初次访问需要注册,这里我注册一个账号,注册完成登录成功

切换中文语言

下载llama3:8b模型

llama3:8b

下载完成

使用

选择模型

使用模型

注意:如果想让模型中文回复,请先输入:你好!请中文回复

内存

注:此文章转载自 Tinywan 开源技术小栈


杨佳乐 发布于  2024-4-30 15:11