承接上文 k8s自动化运维二
kuboard版本升级
在上文已经安装好的kuboard基础之上进行版本升级:
集群导入
因为k8s环境是通过minikube安装的,所以按照上篇文章说的方式进行kuboard导入k8s集群,但这里会遇到一个问题:访问不到k8s集群
查看k8s集群信息
在服务器上访问是可以的
但在服务器之外访问是不同的,所以需要通过服务器进行转发到docker模式创建的minikube环境
服务器ip信息
ssh -L 18443:192.168.49.2:8443 -N -f root@192.168.49.1
或
ssh -L 18444:192.168.49.2:8443 -N -f root@10.1.2.219
表示在本地启动18443端口,与远程主机root@10.1.2.219或192.168.49.1建立连接,端口转发到远程主机192.168.49.2:8443上去
查看18843端口
在宿主机上开了一个18443的端口,访问该端口就可以转发到192.168.49.2:8443上。18443前面没有加ip的话,只能通过127.0.0.1访问,所以需要加上0.0.0.0才能使用主机ip访问:
ssh -L 0.0.0.0:18445:192.168.49.2:8443 -N -f root@192.168.49.1
安装netstat
yum -y install net-tools
k8s集群ip换成这个192.168.49.1:18443,就可以导入进来了
安装nfs,并通过kuboard连接使用
k8s gitlab问题
源码部署文件
https://gitee.com/pingfanrenbiji/gitlab
问题1-存储空间不够
上图中显示2个pod处于Completed状态
kubectl describe pod gitlab-69d849887c-jk74r -n kube-ops
the node was low on resource: ephemeral-storage 这个错误说明存储资源不够了,需要扩大磁盘空间
问题2-pod因健康检测而被kill
在gitlab.yaml中有存活检测的配置,如果gitlab在做代码备份(bin/rake gitlab:backup:create)或代码恢复(bin/rake gitlab:backup:restore BACKUP=1658317630_2022_07_20_11.8.1)操作,在代码资源比较大的情况下,可能会较长时间占用cpu资源,导致健康检测时间过长,从而kill掉pod。所以可以把livenessProbe和readinessProbe的超时时间设置长一些或注释掉健康检测的配置。
强制删除pod或pv等资源
kubectl patch pv nfs-xibaoxiao-cloud -p '{"metadata":{"finalizers":null}}'
代码备份
gitlab pod中会进行代码的备份,备份好之后的代码会保存在/home/git/data/backups目录下,
同时也会映射到宿主机的磁盘上,但这样就可以睡安稳觉了么,当然不能,因为备份时间比如设置在凌晨1点,如果还没有到该时间点即还没有进行备份或备份中,pod挂掉了,那一天的代码是不是就丢失了,为了保证数据不会丢失,还需要做一个代码备份。
通过crontab定时执行代码备份脚本
crontab -e
查看是否生效
crontab -l
启动cron服务
/sbin/service crond start
初始化代码库
git clone http://root:ad321@10.1.2.xxx:30003/cib/xibao-cmp
备份脚本
git config credential.helper store
git pull --all
需要手动输入一次用户名和密码,之后就不需要了,因为已经缓存在本地了
检查cron任务是否在执行
tail -f /var/log/cron
可以看到定时任务已经在执行了,每次都会把最新的代码pull到本地进行备份了
通过web mvc做反向代理
比如 访问 https://ip:port/Attachments/work/20000/2022/07/12/2/ae5e0607-e4cc-43b5-9eae-4ccb3d20b149.jpeg
访问到该服务之后,发现是/Attachments/**格式的路径,然后就会转发到文件实际存储的位置比如/opt/Attachments/work/20000/2022/07/12/2/ae5e0607-e4cc-43b5-9eae-4ccb3d20b149.jpeg即通过应用服务访问静态文件,类似于把静态文件通过web容器比如nginx代理转发。
留言与评论(共有 0 条评论) “” |