快速使用ChatGpt Web Server

快速,使用,chatgpt,web,server · 浏览次数 : 1011

小编点评

**快速使用ChatGpt Web Server** **步骤 1:创建 Docker Compose 文件** ```yaml version: "3.8" services: chat-server: image: registry.cn-shenzhen.aliyuncs.com/tokengo/chat-server container_name: chat-server ports: - 80:80 volumes: - ./chat-server:/app/ volumes: ``` **步骤 2:在服务器上启动 ChatGpt Web Server** ```bash docker-compose up -d ``` **步骤 3:设置 ChatGpt API Key** 1. 在 `docker-compose.yml` 中设置 `api_key` 变量。 2. 示例代码: ```yaml api_key: YOUR_API_KEY ``` **步骤 4:使用 ChatGpt Web Server** 1. 将 `ChatGpt api Key` 变量设置到您的代码中。 2. 示例代码: ```csharp var chatClient = new ChatClient(new ChatClientOptions { ApiEndpoint = "YOUR_API_ENDPOINT", ApiKey = Environment.GetEnvironment("CHATGPT_API_KEY") }); ``` **注意:** * 您需要在服务器上安装 Docker。 * 您需要创建一个名为 `chat-server` 的文件夹,并将其包含您的代码。 * 您需要在服务器上启动 `docker-compose.yml` 文件。 * 您需要确保您的代码具有访问 ChatGpt API 的权限。

正文

快速使用ChatGpt Web Server

ChatGpt Web Server是使用Blazor Server模式部署的一个服务,所有的逻辑和代码执行都会在服务器执行,然后通过SignalR传输到前端渲染。通过这样模式,我们部署ChatGpt Web Server只需要新加坡服务器,不需要在搭建Gateway做中间层转发,并且ChatGpt Web Server访问非常快,对比Wasm模式的ChatGpt相应基本上是秒级,除非网络延迟太高,

实现我们想要准备新加坡服务器

阿里云购买地址:轻量应用服务器 (aliyun.com)

随意大小服务器,都可以使用

购买完成,请先保证服务器有Docker环境或者docker compoent

docker 安装教程 Ubuntu Docker 安装 | 菜鸟教程 (runoob.com)

Docker Compose安装教程

Docker Compose | 菜鸟教程 (runoob.com)

准备完成,登录服务器

docker简单使用执行完成将创建一个chat-server名称的docker容器

docker run -p 80:80 -d --name chat-server registry.cn-shenzhen.aliyuncs.com/tokengo/chat-server

部署完成效果如图

然后在设置中只需要设置 token即可

其他的不需要处理,只需要提供ChatGpt api Key即可使用Web Server,因为服务器在海外,代码执行HttpClient的时候是在服务器执行的,服务器本身就不需要技术就可以使用,所以api地址可以用官方默认的。

Docker Compose简单使用

创建docker-compose.yml 并写入一下脚本,

services:
  chat-server:
    image: registry.cn-shenzhen.aliyuncs.com/tokengo/chat-server
    container_name: chat-server
    ports:
      - 80:80
    

使用docker-compose up -d执行命令将创建容器

然后更加上图去使用程序即可

ChatGpt 源码

项目开源地址 :239573049/ChatGpt.Desktop: ChatGpt Dekstop support Android,IOS,Mac,Linux,Win,Web (github.com)

项目使用的UI组件推荐:MASA Blazor - 企业级多端组件库 (masastack.com)

来自token的分享

.Net 技术交流群:737776595

比JAVA更优秀的语言.NET

与快速使用ChatGpt Web Server相似的内容:

快速使用ChatGpt Web Server

快速使用ChatGpt Web Server ChatGpt Web Server是使用Blazor Server模式部署的一个服务,所有的逻辑和代码执行都会在服务器执行,然后通过SignalR传输到前端渲染。通过这样模式,我们部署ChatGpt Web Server只需要新加坡服务器,不需要在搭建

ChatGPT搭建AI网站实战

1.概述 ChatGPT是一款基于GPT-3.5架构的大型语言模型,它能够进行自然语言处理和生成对话等任务。作为一款智能化的聊天机器人,ChatGPT有着广泛的应用场景,如在线客服、智能助手、个性化推荐等。今天笔者给大家分享一下如何使用ChatGPT的API模型快速搭建一个AI网站。 2.内容 在实

三分钟快速注册 OpenAI ChatGPT 账号(免注册也可以!)

本文已收录到 AndroidFamily,技术和职场问题,请关注公众号 [彭旭锐] 提问。 大家好,我是小彭。 前几天在公众号上分享了 ChatGPT 和 New Bing 的使用攻略,有些小伙伴在后台问小彭如何注册 ChatGPT 账号 😁。使用 ChatGPT 需要注册 OpenAI 账号,这

ChatGPT开发实战

1.概述 前段时间使用体验了ChatGPT的用法,感受到ChatGPT的强大,通过搜索关键字或者输入自己的意图,能够快速得到自己想要的信息和结果。今天笔者将深挖一下ChatGPT,给大家介绍如何使用ChatGPT的API来实战开发一些例子。 2.内容 2.1 ChatGPT起源 这个还得从谷歌发布B

使用SemanticKernel 进行智能应用开发(2023-10更新)

以OpenAI 的ChatGPT 所掀起的GenAI 快速创新浪潮,其中连接LLM 和 应用之间的桥梁的两大开源项目:LangChain[1]和Semantic Kernel[2] ,在半年前写过一篇文章 LangChain vs Semantic Kernel [3],这半年以来Semantic

GPT-4 来了!这些开源的 GPT 应用又要变强了

近日,在 GPT-3.5 发布的半年后,OpenAI 正式推出了大版本的 GPT-4,不同于 GPT-3 到 GPT-3.5 耗时两年,这次版本升级只用了半年。如果你对 OpenAI 不熟悉,答应我读下这篇《ChatGPT 会开源吗?》 ,它详细介绍了 OpenAI 这家公司及其产品。 为了让你快速

模型部署 — PaddleNLP 基于 Paddle Serving 快速使用(服务化部署 - Docker)— 图像识别 + 信息抽取(UIE-X)

[TOC] 图像识别 + 信息抽取(UIE-X),部署接口供别的应用调用 最终在自己部署的环境中识别时报错,不知道是不是和GPU有关,还在尝试中 ## 流程 - 在百度 BML CodeLab 中跑好模型(免费算力,玩玩够了) - 下载模型 (比较大,我这个有10G了,可以适当做裁剪) - Linu

百度飞桨(PaddlePaddle) - PP-OCRv3 文字检测识别系统 基于 Paddle Serving快速使用(服务化部署 - CentOS 7)

Paddle Serving 是飞桨服务化部署框架,能够帮助开发者轻松实现从移动端、服务器端调用深度学习模型的远程预测服务。 Paddle Serving围绕常见的工业级深度学习模型部署场景进行设计,具备完整的在线服务能力,支持的功能包括多模型管理、模型热加载、基于Baidu-RPC的高并发低延迟响应能力、在线模型A/B实验等,并提供简单易用的Client API。Paddle Serving可以

百度飞桨(PaddlePaddle) - PP-OCRv3 文字检测识别系统 基于 Paddle Serving快速使用(服务化部署 - Docker)

[toc] [百度飞桨(PaddlePaddle) - PP-OCRv3 文字检测识别系统 预测部署简介与总览](https://www.cnblogs.com/vipsoft/p/17439619.html) [百度飞桨(PaddlePaddle) - PP-OCRv3 文字检测识别系统 Padd

Jest快速使用指南

本文描述快速使用Jest进行代码测试