0%

prepare a CI/CD environment

Prepare a web app, build contain image

Automatically build images after a PR

搭建步骤

  1. 使用Travis.CI搭建CI/CD,关于github与其账户的连接并使得Travis.CI监控目标项目的代码变更过程可以看之前的Github项目
  2. 这次的项目是一个web app,需要使用 MySQL 作为数据库,需要在配置文件 .travis.yml 中设置mysql服务。还新建了config/database.yml,作用未知

    1
    2
    services:
    - mysql
  3. CICD平台启动 mvn test 测试时会连接mysql数据库,需要设置root密码与JDBC一致,并作hibernate映射,需要在数据库中有相应的DATABASE和TABLE,因而要在配置文件中运行mysql脚本生成scheme并插入数据

    1
    2
    3
    4
    before_install:
    - echo "USE mysql;\nUPDATE user SET password=PASSWORD('xxx') WHERE user='root';\nFLUSH PRIVILEGES;\n" | mysql -u root
    - mysql -u root --password="xxx" < sqlscript/all2.sql
    - sudo service mysql restart
  4. 使用 mvn install 打包项目文件生成 war 包

  5. 构建 docker image 需要使用 Dockerfile 如下,该文件指导docker build 指令如何从 tomcat 基础镜像开始构建新的镜像,主要是用 ADD 将war包加入到该镜像中

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    FROM tomcat:9-jre8
    RUN apt-get update \
    && apt-get install -y --no-install-recommends cowsay \
    && rm -rf /var/lib/apt/lists/*
    ENV PATH "$PATH:/usr/games"

    ADD ./target/Mybk-iteration3-0.0.1-SNAPSHOT.war /usr/local/tomcat/webapps/

    ENTRYPOINT ["cowsay"]
    CMD ["Hello, World!"]
  6. 自动化构建并发布image需要 Docker Registry ,在这里使用 Docker Hub, 在使用前需要注册账户,创建 repo ,创建 automation 等操作,完成后类似下图:dockerRepo 右侧的指令可以 push 新构建的 image 到这个镜像仓库

  7. 构建运行发布新的docker image,注意tag的一致

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    before_script:
    - docker build --tag fjjleon/bookstore .
    - docker run fjjleon/bookstore

    ······

    before_deploy:
    - docker login -u "$REGISTRY_USER" -p "$REGISTRY_PWD"

    deploy:
    provider: script
    script: docker push fjjleon/bookstore
    on:
    branch: master
  8. 完成配置后,有新的代码变更时Travis.CI就会自动进行CICD,构建image发布到Docker Hub上。

  • PS: WEBAPP不是前后端分离的,配合k8s的部分会出现问题
  1. 修改webapp项目使其前后端分离,使用了 nginx 运行前端静态页面,其中涉及了跨域访问的问题,这里配置了反向代理,由nginx服务器转发相应跨域访问请求。配置时注意会出现到端口号无法使用的情况,修改使用其他端口,nginx反向代理存在问题,改为直接由ajax访问后端api,配合后端加入了cors的配置。详细配置文件见前端项目文件nginx.conf

  2. 类似后端项目的CICD配置过程,为前端项目添加CICD,其中项目打包脚本,Dockerfile需要作相应修改,使用 npm 打包项目,基础镜像使用 nginx,新建了docker hub仓库储存前端镜像。

  3. 暂时使用的mysql是Host的 mysql 服务,在mysql上安装MySQL服务,中间为root设置密码为 fangjj1998,否则可能jdbc还是无法访问。另外需要运行sql脚本导入数据

    1
    2
    3
    4
    5
    sudo apt-get update
    sudo apt-get install mysql-server
    可以执行 mysql_secure_installation 第一个 y, 后面全部回车
    systemctl status mysql.service
    mysql -u root --password "fangjj1998" < all2.sql
  4. 在docker pull 之后要 docker run 时使用,使用了HOST的网段,做法不是很好,需要改进,或者加 (-d)以守护进程运行

    1
    sudo docker run -p 8200:8080 -p 3306:3306  --network="host" fjjleon/bookstore
  5. 在浏览器访问 http://localhost:8080/Mybk-iteration3/#/ 可以渲染出界面,但是点击 Get Books 在 Console 控制台看到了数据,但是没有渲染,考虑是浏览器问题

  6. 不使用nginx的反向代理,跨域访问需要在后端里加入 corsconfig

  7. 使用 Tomcat 运行 war 包以部署时,无论是访问静态网页还是访问api都要加上 war 包名,形如 [ip]:[port]/[war包名(不包括.war)]/[api]

  8. 数据库配置完成后在mysql的shell 可以直接手动复制粘贴初始化数据,注意账户与后端JDBC一致

    Reference

在腾讯云服务器创建集群

  • 服务器环境:

    • master节点:Ubuntu 16.04.1 LTS (GNU/Linux 2核 4G内存)
    • node节点:Ubuntu 16.04.1 LTS (GNU/Linux 1核 1G内存)
  • 安装指定版本的docker:

    https://releases.rancher.com/install-docker/17.03.sh  
    卸载掉之前版本的docker后运行该脚本即可安装17.03版本的docker
    
  • 配置ssh
    ssh-keygen生成密匙,在/etc/hosts目录下加入其他节点的内网IP(因为腾讯云的主机同一个地区同一个用户是有内网连接的路由规则的)
    在ssh-copy-id [hostname]将公匙发送给相应主机,此时就能免密ssh连接,即满足rke的需求
  • 配置rke config
    rke的cluster.yml是一个高度集成的配置文件,通过./rke up –config [config-file]即可一键部署。config参数默认为同目录下的cluster.yml,可以手动设置。如果最后一行是 Finished building Kubernetes cluster successfully 代表集群创建成功。

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    //cluster.yml
    nodes:
    - address: 172.17.16.6
    user: ubuntu
    role: [controlplane,etcd,worker]
    ssh_key_path: ~/.ssh/id_rsa
    - address: 172.17.0.12
    user: cse
    role: [worker]
    ssh_key_path: ~/.ssh/id_rsa
    network:
    plugin: flannel
    system_images:
    flannel: rancher/coreos-flannel:v0.9.1
    ```
    创建成功后运行

    cp kube_config_cluster.yml ${HOME}/.kube/config
    chmod 777 ${HOME}/.kube/config

    1
    2
    3
    4
    5
      这是将新生成的集群配置文件放入正确的位置,让知乎kubectl的使用免参数
    * 安装kubctl
    在官方提供的URL里下载即可:
    https://github.com/kubernetes/kubernetes/blob/master/CHANGELOG.md#client-binaries-1
    下载完成后,运行以下shell命令:

    tar -zxvf kubernetes-client-linux-amd64.tar.gz
    sudo mv /kubernetes/client/bin/kubectl /usr/local/bin/kubectl

    1
    此时就安装成功,使用方法如下:

    kubectl version
    kubectl get nodes//查看节点信息
    kubectl get pods,svc//查看pods与service情况
    kubectl apply -f [yaml-file]//部署应用

    1
    2
    3
    4
    5
    6

    ## 在kubernetes集群上部署应用


    ## 数据库部署:
    使用deployment部署MySQL的pod,并对外暴露32000端口

IN MASTER:
kubectl apply -f mysql-dm.yaml
kubectl apply -f mysql-svc.yaml

IN YOUR OWN COMPUTER:
mysql -h[Master’s public Ip] -P32000 -uroot -p[Mysql Password]

mysql>

1
2
3
4
然后进入MySQL命令行模式,输入sql脚本。

## 前端部署:
使用deployment对它进行部署,对外暴露32001端口。

IN MASTER:
kubectl apply -f front-dm.yaml
kubectl apply -f front-svc.yaml

1
2
3
## 后端部署:
同样使用deployment进行部署,对外暴露32002端口
进行ingress配置,即将www.test.com时将流量转发给service,同时在自己的主机上 /etc/hosts文件里增加hosts->public IP的映射

IN MASTER:
kubectl apply -f back-ingress.yaml
kubectl apply -f back-dm-yaml
kubectl apply -f back-svc.yaml
`

Demo:

avatar

then cleck button “Get Books”
avatar

于是现在实现了“deploy your web application on kubernetes”

Load Balance

measure the reponse time of different scale

初始状态:replica = 1

avatar
avatar

get pods得到frontend1个pod

此时使用jmeter加压,使用response time graph查看RPS增长情况 jmeter安装配置略

20s逐渐启动20个线程,循环访问test:32001端口获取前端,执行60s。

得到其增长曲线如下

avatar

修改yaml文件后执行kubectl apply -f front_dm.yaml

replica=2重复以上步骤

avatar

结果如下

avatar

考虑网络波动和其他原因,我们关注曲线下方较平滑的位置,可见其平均RPS处于100ms左右,2pods明显低于1pod时的RPS。

replica=3重复以上步骤

avatar

结果如下

avatar

可见3pods时平均RPS略微低于2pods时的RPS,且更加平滑。

故两个实例可以满足峰值情况下正常平均RPS不高于500ms。

Requirement 5

实验

使用jmeter创建500个线程,持续向前端发送http请求,此时replica个数为1,这时response time较高,且会出现error。在1分钟之后(21:25:11)手动将replica个数增加到2个,在第二个pod的启动过程中可以观察到response time出现波动,第二个pod的启动大约需要10秒钟。从图表可以看到,大约40秒之后(21:25:53)response time趋于稳定,稳定值明显低于一个pod的情况,由此证明手动scale起到了效果。后续又手动将pod的个数增加到5个,过程与之前类似,response time的稳定值比起2个pod的情况更低。

整个测试过程jmeter绘制的响应时间图如下所示
测试

要实现Autoscale可以通过创建hpa资源,使用如下命令:

kubectl autoscale deployment front-dm –max=5 –cpu-percent=50

上面的命令指定replica个数在1个到5个之间,cpu的最高占用率为50%,即当cpu使用到达50%时开始通过增加pod的个数来scale up。

Welcome to Hexo! This is your very first post. Check documentation for more info. If you get any problems when using Hexo, you can find the answer in troubleshooting or you can ask me on GitHub.

Quick Start

Create a new post

1
$ hexo new "My New Post"

More info: Writing

Run server

1
$ hexo server

More info: Server

Generate static files

1
$ hexo generate

More info: Generating

Deploy to remote sites

1
$ hexo deploy

More info: Deployment