Skip to the content.

helm包管理

由于tars服务使用自定义CRD来描述(tserver), 通常情况你需要熟悉tserver等资源描述的写法(../install/tarscontroller/crds), 根据tars服务的应用和名称, 实现yaml文件, 才能发布到K8S平台上.

但是这样操作起来比较麻烦, 为了方便tars服务的发布, 提供了一套使用helm发布tars服务机制, 方便使用者快速发布tars服务. 你可以把这套方案和内网gitlab结合完成自动的CI/CD.

helm的使用和说明请自己查询相关的文档.

基本说明:

每个TARS服务都需要对应一个values.yaml文件, 这个文件在helm包模板中(helm-template目录)是不存在的, 这个文件通常跟随服务的源码, 在服务自动构建过程中, 传递给exec-deploy.sh脚本, 完成helm包的制作.

这个文件是一个固定格式, 实例如下:

# 应用名称
app: Base 
# 服务名称
server: HelloServer
# subtype(tars/normal)
subtype: tars
# 使用的模板(tars.nodejs/tars.cpp/tars.java/tars.go/tars.php)
template: tars.nodejs
# 私有模板(通常为空)
profile: ""
# servant列表
servants:
  - name: AuthObj
    # 容器内端口
    port: 10000
    # 是否是tars服务, 如果是http服务, 这里为false
    isTars: true
    #是否是tcp服务
    isTcp: true
    #业务线程个数
    thread: 4
    capacity: 100000
    connection: 100000
    timeout: 60000
# 服务部署个数    
replicas: 2
# 环境变量, 默认为空
envVars:
  - name: name1 
    value: value1
# 是否启用宿主机网络
hostNetwork: false
# 是否启用hostIpc, 一旦启用, 则共享内存等, 都和宿主机打通, 这个时候就需要注意共享内存key不用搞冲突了!!!
hostIPC: false
# 是否启用hostPorts 默认[]即可
hostPorts: []
# 是否开启hostPorts, 如果使用, 则表示这个Obj, 会开启nodePort(即宿主机的port)
#hostPorts:
#  - nameRef: HelloObj
#    port: 22394
# 发布地址, id必填, image可以自己加tag, 这个通常是CI/CD时自动填写的
repo:
  id:
  image: tarscloud/base.helloserver
  secret: tars-image-secret
#应用级配置, 通常为空
appConfig:
  - name: app.conf
    content: |
      app config content
#节点配置, podSeq表示节点号(statefullset部署的)
nodeConfig:
  - name: config.json
    podSeq: 0
    content: |
      node config
# 服务配置文件, 可以有多个!  
config:
  - name: config.json
    content: |
      {
          "webConf": {
              "port": 6080,
              "loggerPath": "./log",
              "logFileKeepDays": "1",
              "defaultLanguage": "cn",
          }
      }
    

说明:

部分服务由于需要涉及到本地存储, 需要将宿主机目录映射到, values.yaml采用如下方式(注意参考mounts这段):


# 应用名称
app: Base 
# 服务名称
server: HelloServer
# subtype(tars/normal)
subtype: tars
# 使用的模板(tars.nodejs/tars.cpp/tars.java/tars.go)
template: tars.nodejs
# 私有模板(通常为空)
profile: ""
# servant列表
servants:
  - name: AuthObj
    port: 10000
    isTars: true
    isTcp: true
    thread: 2
    capacity: 100000
    connection: 100000
    timeout: 60000
# 服务部署个数    
replicas: 2
# 发布地址, id必填, image可以自己加tag, 这个通常是CI/CD时自动填写的
repo:
  id:
  image: base/base.helloserver
  secret: tars-image-secret
# 环境变量, 默认为空
envVars:
  - name: name1 
    value: value1
mounts:
  - name: test-host-path
    source:
      hostPath:
        path: /data/test-host-path
        type: DirectoryOrCreate
    mountPath: /data/mount-path
    subPathExpr: $(Namespace)/$(PodName)
  - name: test-pvc
    source:
      persistentVolumeClaim:
        claimName: remote_log_pvc
        readOnly: false
  - name: remote-log-dir
    mountPath: /usr/local/app/tars/remote_app_log
    source:
      tLocalVolume: {}
  - name: auth-remote-log-dir
    mountPath: /usr/local/app/tars/remote_app_log
    source:
      tLocalVolume:
        gid: "0"
        mode: "755"
        uid: "1000
...

以上示例中, 给出三种mounts的方式:

如何配置节点绑定

在web平台,可以将应用绑定到某些节点上, 但是如果想指定某个服务绑定, 就需要需要用LabelMatch的能力, 可以直接在values.yaml中添加LabelMatch来实现, 参考y以下示例(注意LabelMatch段):

# 应用名称
app: Base 
# 服务名称
server: HelloServer
# subtype(tars/normal)
subtype: tars
# 使用的模板(tars.nodejs/tars.cpp/tars.java/tars.go)
template: tars.nodejs
# 私有模板(通常为空)
profile: ""
# servant列表
servants:
  - name: AuthObj
    port: 10000
    isTars: true
    isTcp: true
    thread: 2
    capacity: 100000
    connection: 100000
    timeout: 60000
# 发布地址, id必填, image可以自己加tag, 这个通常是CI/CD时自动填写的
repo:
  id:
  image: base/base.helloserver
  secret: tars-image-secret
# 服务部署个数    
replicas: 2
# 环境变量, 默认为空
envVars:
  - name: name1 
    value: value1
labelMatch:
  - key: xxxx
    operator: In
    values: ["yyyy"]
  - key: kubernetes.io/hostname
    operator: In
    values: ["node87","node88"] 
...
    

LabelMatch的匹配说明如下: