Всем привет! 

 

Поделюсь своим опытом и отвечу на вопрос как можно обновить helm-пакет сервиса Exchange Listener.



Сама ссылка на актуальный helm-пакет сервис: https://academy.terrasoft.ru/docs/user/ustanovka_i_administrirovanie/razvertyvanie_onsite/nastrojka_kontejnernyh_komponentov/nastroit_servis_sinkhronizacii_exchange_listener#title-2503-2 (см. "скачайте helm-пакет").



P.S. В целом по обновлению или переустановке helm пакета информация есть в интернете (https://helm.sh/docs/helm/helm_upgrade/)



Обновить версию можно сделать двумя способами:



1. Обновление. Использовать команду:



helm upgrade -i #параметры указать такие же как и при установке установке#



2. Удаление и повторная установка:



- удаление сервиса



helm delete -purge <название вашего сервиса>

 

- повторная установка согласно инструкции (https://academy.terrasoft.ru/docs/user/ustanovka_i_administrirovanie/razvertyvanie_onsite/nastrojka_kontejnernyh_komponentov/nastroit_servis_sinkhronizacii_exchange_listener#title-2503-2)

 

Хорошего дня!

Нравится

Поделиться

0 комментариев
Показать все комментарии

Всем привет!

 

Продолжаем освещать вас жизненными примерами по разворачиванию сервиса Exchange Listener. Если вы пропустили прошлую публикацию, то рекомендуем также с ней ознакомиться - https://community.terrasoft.ru/articles/1-realnyy-primer-po-razvertyvaniyu-servisa-exchange-listener-s-ispolzovaniem-kubernetes.

 

На этот раз поделился подробной инструкцией с нами пользователь Еремеев Игорь Юрьевич (ссылка на профиль - https://community.terrasoft.ru/user/196420). Данная инструкция полезна тем, что в ней предоставлены наглядные скриншоты и решение по ошибкам, которые могут возникнуть в процессе развертывания.

(!) Данная инструкция процитирована и зафиксирована в таком виде, в каком нам передали с небольшими изменениями.

 

Задача поднять Кластер (Cluster) Kubernetes

 

Kubernetes — нишевое решение под конкретные проекты.

Kubernetes средство оркестрации (управления) контейнерами Docker. Это инструмент для их автоматического запуска, выделения ресурсов, контроля состояния, обновления.

 

Системные требования

Устанавливаем на виртуальных машинах:

  • мастер нода – 1 виртуальная машина - 2 cpu и 4 gb ram
  • рабочие ноды – 2 виртуальные машины - 2 cpu и 4 gb ram

 

Структура кластера

Изображение удалено.

 

 

 

 

 

 

 

 

Примечание:

  • Виртуальная машина 1 Поколение;
  • Образ CentOS-7-x86_64-NetInstall-2003;
  • Пользователь root, 123456qQ;

Необходимые условия:

  • Установлена ВМ (прим. виртуальная машина) Centos 8;
  • Отключён Firewall, своппинг, SELinux;
  • Для дальнейших шагов необходим неограниченный доступ в Интернет.

Подготовим 1 образа, далее просто его скопируем под 3 ВМ (см инструкцию 0. Kubernetes  преднастройка VM CentOS)

 

Далее делаем на всех нодах

  1. Приведем имена в порядок
hostnamectl set-hostname master-node
hostnamectl set-hostname node-1
hostnamectl set-hostname node-2
  1. Пропишем внутренний DNS

задайте имя хоста системы и обновите DNS в файле / etc / hosts

cat <<EOF>> /etc/hosts
192.168.25.182 master-node
192.168.25.30 node-1 worker-node-1
192.168.25.170 node-2 worker-node-2
EOF
  1. Установите Docker-CE на CentOS 8
  • Сначала необходимо добавить репозиторий Docker.
  • Также установите пакет containerd.io , который доступен в качестве демона, который управляет полным жизненным циклом контейнера его хост-системы, от передачи и хранения образа до выполнения и контроля контейнера, до низкоуровневого хранилища, сетевых вложений и далее.
  • Команды под учетной записью root запускаю сразу весь пакет,  Ставим на всех ВМ
dnf config-manager --add-repo=https://download.docker.com/linux/centos/docker-ce.repo
dnf install https://download.docker.com/linux/centos/7/x86_64/stable/Packages/containerd.io-1.2.6-3.3.el7.x86_64.rpm -y
dnf install docker-ce -y
systemctl enable docker
systemctl start docker

4. Установите Kubernetes (Kubeadm)

4.1. Необходимо добавить репозитории Kubernetes вручную

cat <<EOF > /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=https://packages.cloud.google.com/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=1
repo_gpgcheck=1
gpgkey=https://packages.cloud.google.com/yum/doc/yum-key.gpg https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg
EOF

 

4.2. Установить пакет kubeadm

 

dnf install kubeadm -y
systemctl enable kubelet
systemctl start kubelet 

 

Все что выше делаем на всех ВМ.

 

5. на мастере выполняем команды:

5.1.

 

kubeadm init --pod-network-cidr=10.244.0.0/16

 

(!) Важно сохраняем результат

 

kubeadm join 192.168.25.182:6443 --token z86i8r.u6mmy6adnkmp4iad \    --discovery-token-ca-cert-hash sha256:8104a99fe76b167b65d5d450467ec14fd60b973db9f97a40e81c90cc7ade73b8

 

если потеряли токен то можно запросить

 

kubeadm token list
https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/ 5.2
mkdir -p $HOME/.kube
cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
chown $(id -u):$(id -g) $HOME/.kube/config

 

5.3. Устанавливаем Flannel:

 

kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/k8s-manifests/kube-flannel-rbac.yml

 

 

5.4. . Вводим команду для возможности запуска контейнеров на текущей машине:

 

kubectl taint nodes --all node-role.kubernetes.io/master-

 

Делаем reboot – много всего поставлено

 

 6. Проверяю состояние подов:

 

kubectl -n kube-system get pods

Изображение удалено.

Все работает

 

7. Устанавливаем Helm:

wget https://get.helm.sh/helm-v3.3.0-rc.1-linux-amd64.tar.gz
tar xzvf helm-v3.3.0-rc.1-linux-amd64.tar.gz
mv linux-amd64/helm /usr/local/bin/helm

 

И подключаем репозиторий (возьмем самый популярный) и делаем update

 

helm repo add stable https://kubernetes-charts.storage.googleapis.com/
 
helm repo update

 

Делаем бэкап своих виртуальных машин.

Результат у нас создан кластер из 1 ВМ, созданы ВМ на которой установлен только Докер.

 

8. Устанавливаем Redis:

 

helm repo update
 
helm install --namespace default --set usePassword=false --set=slave.persistence.enabled=false --set master.persistence.enabled=false --set cluster.enabled=false redis bitnami/redis

 

используем --namespace default

 

Получили:

 

To connect to your Redis server:

1. Run a Redis pod that you can use as a client:

   kubectl run --namespace default redis-client --rm --tty -i --restart='Never' \

   --image docker.io/bitnami/redis:5.0.7-debian-10-r32 -- bash

2. Connect using the Redis CLI:

   redis-cli -h redis-master

To connect to your database from outside the cluster execute the following commands:

    kubectl port-forward --namespace default svc/redis-master 6379:6379 &

    redis-cli -h 127.0.0.1 -p 6379

 

Результат.

 

Изображение удалено.

 

Изображение удалено.

 

Изображение удалено.

 

9. Устанавливаем Exchange Listener.

 

Нам потребуется  ip-адрес redis-master: XX.XXX.233.155 (см. скриншоты)

 

Качаем последний актуальный дистрибутив (на данный момент 0.6.9):

wget http://ftp.bpmonline.com/support/downloads/Exchangelistener/exchangelistener-0.6.9.tgz
 
helm install --set env.host=XX.XXX.233.155 --set service.type=NodePort --set service.nodePort=30001 --set apiVersion=apps/v1 --namespace default elistener exchangelistener-0.6.9.tgz

 

Изображение удалено.

 

--set env.host - указать IP мастер Redis

default - namespace, который использовался в пункте 11.

elistener - произвольное название нашего сервиса.

exchangelistener-0.6.9.tgz - путь к скачанному дистрибутиву.

Порт не обязательно должен быть 30001. Допустимый диапазон 30000-32767.

На этом минимальная настройка сервиса на стороне сервера завершена.

 

10. Проверяем поды сервиса

kubectl get pods

Изображение удалено.

 

Проверяем доступность сервиса Exchange Listener.

telnet: -

telnet 192.168.25.182 30001

 

Где:

192.168.25.182 - ip-адрес нашей linux-машины,

30001 - порт сервиса Exchange Listener, выбранный при установке на 12 шаге.

Если соединение проходит - открываем веб-браузер (желательно сразу на машине с Creatio) и вводим в адресную строку http://192.168.25.182:30001/api/listeners/status

 

Изображение удалено.

 

Включим в кластер еще 2 ВМ

 

(команду kubeadm init --pod-network-cidr=10.244.0.0/16 не вводим)

- Node-1

Вводим ключ-команду

 

kubeadm join 192.168.25.182:6443 --token z86i8r.u6mmy6adnkmp4iad     --discovery-token-ca-cert-hash sha256:8104a99fe76b167b65d5d450467ec14fd60b973db9f97a40e81c90cc7ade73b8

 

если потеряли токен то можно запросить

 

kubeadm token list

 

- Проверяем поды на master-машине (их должно стать больше):

 

Изображение удалено.

kubectl -n kube-system get pods

 

- Node-2

Вводим ключ-команду

kubeadm join 192.168.25.182:6443 --token z86i8r.u6mmy6adnkmp4iad     --discovery-token-ca-cert-hash sha256:8104a99fe76b167b65d5d450467ec14fd60b973db9f97a40e81c90cc7ade73b8

 

- На мастере проверяем

 

kubectl get node

 

Изображение удалено.

kubectl get svc

 

Изображение удалено.

 

kubectl get pods

 

Изображение удалено.

 

Какие команды могут помочь при решении проблем:

 

Почему-то не было доступа из внешнего IP к порту 30001, где развернут сервис. и были выполнены следующие команды:

ufw allow 30001 - команда конкретно firewall ubuntu. К другим дистрибутивам вероятнее всего не подойдет (возможно только если к Mint, т.к. ядро тоже самое). 

iptables -I INPUT -p tcp --dport 30001 -j ACCEPT - уже более распространенный вариант. 

 

Команды для просмотра логов. Примеры:

 

kubectl logs POD_NAME

kubectl logs REDIS_NAME-api-0

 

kubectl logs  elistener-api-0

kubectl logs  elistener-api-1

kubectl logs redis-master-0

 

log4net:ERROR Could not create Appender [ExchangeListenerGelfAmqpAppender] of type [Gelf4Net.Appender.GelfAmqpAppender, Gelf4Net.AmqpAppender]. Reported error follows.

RabbitMQ.Client.Exceptions.BrokerUnreachableException: None of the specified endpoints were reachable ---> RabbitMQ.Client.Exceptions.ConnectFailureException: Connection failed --->




Означает, что он не может Rabbit не может достучаться до Graylog (мониторинг логов). В данном случае у вас не настроен Graylog. Но это не должно блокировать работу. Можно ориентировать на вот это Gelf4Net (он пишет в Rabbit).



Но
ниже по логу должно быть видно следующее:

Hosting environment: Production Content root path: /app Now listening on:
http://[::]:80 Application started. Press Ctrl+C to shut down.



Если это так, то значить сервис запущен и теперь вам нужно проверить доступность и статус сервиса.

А после провести настройку на стороне Creatio.

Нравится

Поделиться

1 комментарий

Теперь k8s наша общая боль) 

Показать все комментарии

Всем привет! 

В данной статье описан один из возможных сценариев как можно развернуть сервис в On-Site, с которым поделился наш партнер "Baso-IT" в лице Александра Горчакова. Данная инструкция процитирована и зафиксирована в таком виде, в каком партнер нам передал.

 

Характеристики (из расчета ~70 почтовых ящиков):

  • одна виртуальная машина  (Ubuntu без предустановленных настроек с root-доступ)
  • 2 ядра по 2 Гц
  • с оперативной памятью 4gb

Шаги, которые были предприняты для разворачивания сервиса (текущую машину будем считать master-машиной):

 

(!) за основу брать инструкцию по разворачиванию сервиса на Академии - https://academy.terrasoft.ru/documents?product=administration&ver=7&id=2075

 

1. На "чистой" Ubuntu (версия 20.04) создаем нового пользователя

adduser username

и добавляем его в группу sudo:

usermod -a -G sudo username

ssh-доступ он получит по умолчанию.

(!) Далее если система где-то будет ругаться на root-доступ или отсутствие прав - просто добавляем в начале команды sudo

 

2. Логинимся под созданным пользователем и устанавливаем Midnight Commander, для более удобного пользования каталогами:

apt install mc

При установке система может задать вопрос - выбираем Y

 

3. Обновляемся и ставим Docker:

apt-get update
apt-get install -y docker.io

 

Стоит его так же сразу перезапустить:

service docker restart

 

4. Устанавливаем kubeadm, kubelet и kubectl:

apt-get update && apt-get install -y apt-transport-https
curl -s https://packages.cloud.google.com/apt/doc/apt-key.gpg | sudo apt-key add -
cat <<EOF >/etc/apt/sources.list.d/kubernetes.list
deb http://apt.kubernetes.io/ kubernetes-xenial main
EOF

ИЛИ (нужно знать как работать в редакторе VIM (https://help.ubuntu.ru/wiki/vim)

apt-get update && apt-get install -y apt-transport-http
curl -s https://packages.cloud.google.com/apt/doc/apt-key.gpg | sudo apt-key add -
sudo vim /etc/apt/sources.list.d/kubernetes.list
deb http://apt.kubernetes.io/ kubernetes-xenial main

Здесь может оказаться так, что система не даст создать файл kubernetes.list ввиду отсутствующего каталога sources.list.d

Если так случится - сначала используем mkdir и создаем каталог:

mkdir /etc/apt/sources.list.d

Далее повторяем последние 3 команды из пункта 4:

cat <<EOF >/etc/apt/sources.list.d/kubernetes.list
deb http://apt.kubernetes.io/ kubernetes-xenial main
EOF

Устанавливаем Kubernetes:

apt-get update
apt-get install -y kubelet kubeadm kubectl kubernetes-cni

 

5. Далее выполняем команду:

kubeadm init --pod-network-cidr=10.244.0.0/16

Именно 10.244.0.0/16! Вводим ровно то что написано.

 

Процесс может занять минуту или более в зависимости от вашего интернет-соединения.

 

Результат выполнения команды

Изображение удалено.

 

В процессе установки могут быть Warning и Error. Последние сначала придется устранить.

 

Самый популярный Error - жалоба на swap. Замечу что банальной команды отключения swap (swapoff -a) недостаточно, т.к. даже в случае успешной установки - после перезагрузки системы придется повторно ее вводить каждый раз, что не очень удобно (иначе просто ничего не будет работать).

 

Рекомендую запустить тот же MobyXTerm или Midnight Commander (mc), найти файл fstab ("/etc/fstab"), расположенный в каталоге etc и просто закомментировать (поставить в начале строки #) строку, в которой содержится слово swap и перезагрузить машину.

Так же можно просто не создавать swap-раздел при установке ubuntu.

 

В случае успешного выполнения система предоставит команду для подключения других машин к текущей для создания кластера (выдуманный пример):

kubeadm join 192.168.101.199:6443 --token selist.zho8rggai807dtsr \
 
    --discovery-token-ca-cert-hash sha256:8250d1a19e1c9bc7ab32ef43811f143f1c658ccc476383e9260d133a2988666c

Сохраните полученную команду и используйте при необходимости собрать кластер.

 

Так же в процессе выполнения могут быть Warning'и вида:

docker service is not enabled, please run 'systemctl enable docker.service'

Собственно вводим то что написано:

#Как вылечить сообщение [WARNING Service-Docker]: docker service is not enabled, please run 'systemctl enable docker.service'
 
systemctl enable docker.service

Или же такие:

detected "cgroupfs" as the Docker cgroup driver. The recommended driver is "systemd"

 

В таком случае создаем\редактируем файл daemon.json, расположенный по пути etc/docker (можно вручную отредактировать через cat или vim):

{
 
  "exec-opts": ["native.cgroupdriver=systemd"]
 
}

Но можно и командой, которая все делает:

#Как вылечить [WARNING IsDockerSystemdCheck]: detected "cgroupfs" as the Docker cgroup driver. The recommended driver is "systemd". Please follow the guide at https://kubernetes.io/docs/setup/cri/
 
cat > /etc/docker/daemon.json <<EOF
{
  "exec-opts": ["native.cgroupdriver=systemd"],
  "log-driver": "json-file",
  "log-opts": {
    "max-size": "100m"
  },
  "storage-driver": "overlay2"
}
EOF

И перезапускаем Docker:

service docker restart

Но в целом это скорее просто рекомендация. Работать будет и так.

 

6. Вводим команды:

sudo mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config

 

7. Вводим команду для возможности запуска контейнеров на текущей машине:

kubectl taint nodes --all node-role.kubernetes.io/master-

 

8. Устанавливаем Flannel:

kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
 
kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/k8s-manifests/kube-flannel-rbac.yml

 

9. Проверяем состояние подов:

kubectl -n kube-system get pods

Должны быть статусы Running

 

10. Устанавливаем Helm:

wget https://get.helm.sh/helm-v3.3.0-rc.1-linux-amd64.tar.gz
tar xzvf helm-v3.3.0-rc.1-linux-amd64.tar.gz
mv linux-amd64/helm /usr/local/bin/helm

Название дистрибутива может меняться. В данный момент это текущая актуальная версия.

И подключаем репозиторий (возьмем самый популярный):

helm repo add stable https://kubernetes-charts.storage.googleapis.com/

 

11. Устанавливаем Redis:

helm repo update
 
helm install --namespace default --set usePassword=false --set=slave.persistence.enabled=false --set master.persistence.enabled=false --set cluster.enabled=false redis bitnami/redis

Я использовал namespace k8s по умолчанию (default). Как и название Redis'а (redis).

 

12. Устанавливаем Exchange Listener.

Качаем последний актуальный дистрибутив (на данный момент 0.6.9):

wget http://ftp.bpmonline.com/support/downloads/Exchangelistener/exchangelistener-0.6.9.tgz

 

Находим ip-адрес redis-master:

kubectl get service

В выводе в столбце ClusterIP будут ip-адреса. Нас интересует redis-master

Допустим это 10.104.17.189

В таком случае следующая команда будет выглядеть:

helm install --set env.host=10.104.17.189 --set service.type=NodePort --set service.nodePort=30001 --set apiVersion=apps/v1 --namespace default elistener exchangelistener-0.6.9.tgz

 

Где:

--set env.host - указать IP мастер Redis

default - namespace, который использовался в пункте 11.

elistener - произвольное название нашего сервиса.

exchangelistener-0.6.9.tgz - путь к скачанному дистрибутиву.

 

 

Порт не обязательно должен быть 30001. Допустимый диапазон 30000-32767.

 

На этом минимальная настройка сервиса на стороне сервера завершена.

Пункты 1 и 2 тоже не могу назвать обязательными. Это скорее рекомендация для личного удобства.

 

Проверяем состояние сервисов:

kubectl get pods

Должны быть состоянии Running.

 

Проверяем доступность сервиса Exchange Listener.

Сначала можно через telnet:

telnet 192.168.101.199 30001

Где 192.168.101.199 - ip-адрес нашей linux-машины, а 30001 - порт сервиса Exchange Listener, выбранный при установке на 12 шаге.

Если соединение проходит - открываем веб-браузер (желательно сразу на машине с Creatio) и вводим в адресную строку http://192.168.101.199:30001/api/listeners/status

Вывод должен быть вида "ServiceStatus": "Started", и т.д.

 

Дополнительно:

При желании собрать кластер, на всех дополнительных машинах проделываем:

Вводим команды, описанные в Error'ах и Warning'ах шага 5 (саму команду kubeadm init --pod-network-cidr=10.244.0.0/16 не вводим)

Вводим ключ-команду полученную на на шаге 5. Замечу что нужно стереть символ если он присутствует.

Проверяем поды на master-машине (их должно стать больше):

kubectl -n kube-system get pods

 

Какие команды могут помочь при решении проблем

Почему-то не было доступа из внешнего IP к порту 30001, где развернут сервис. и были выполнены следующие команды:

 

ufw allow 30001 - команда конкретно firewall ubuntu. К другим дистрибутивам вероятнее всего не подойдет (возможно только если к Mint, т.к. ядро тоже самое). 

 

iptables -I INPUT -p tcp --dport 30001 -j ACCEPT - уже более распространенный вариант. 

 

Команды для просмотра логов. Примеры:

kubectl logs POD_NAME

kubectl logs REDIS_NAME-api-0

 

Спасибо!

Нравится

Поделиться

15 комментариев

Подскажите команду 

7. Вводим команду для возможности запуска контейнеров на текущей машине:

kubectl taint nodes --all node-role.kubernetes.io/master-

необходимо вводить только на мастер ноде или на всех нодах

Еремеев Игорь Юрьевич,

 

Здравствуйте, Игорь! 

 

Данная команда нужна если у вас развернут К8S не в кластере - https://kubernetes.io/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/

Добрый день.

При выполнении п. 7, 8 и т.д. получаю ошибку: 

The connection to the server localhost:8080 was refused - did you specify the right host or port?

Проверил права для пользователя на папку $HOME/.kube/config

Команда: ls -l $HOME/.kube/config

Вывод:

-rw------- 1 username username 5454 Aug  6 05:55 /home/username/.kube/config

Чего не хватает?

 

UPD: Получил config куба:

Команда: sudo kubectl config view

Ответ:

apiVersion: v1

clusters: null

contexts: null

current-context: ""

kind: Config

preferences: {}

users: null

Смущает, что здесь пусто.

Коллеги, опубликовали второй пример по развертыванию сервиса - https://community.terrasoft.ru/articles/2-realnyy-primer-po-razvertyvaniyu-servisa-exchange-listener-s-ispolzovaniem-kubernetes

Коновалов Игорь,

Предположу что дело во включенном свопе.

Добрый день! Подскажите пожалуйста можно ли развернуть сервис без неограниченного доступа в Инернет?

Сергей, в статье ничего не указано о неограниченности интернет-доступа, только о скорости. Если оплата будет помегабайтной, то при установке и использовании трафик, естественно будет потребляться.

 

Или речь о работе в локалке без Интернета вообще? Тогда нужно, как минимум, позаботится о локальных репозиториях для установки по apt-get упомянутого софта. А по поводу работы Kubernetes в таких условиях лучше будет уточнить у них.

Спасибо за развернутое описание. Пришлось немного поиграться с правами доступа к папкам, но в целом все сработало

Добрый день, подскажите пожалуйста: как это лечиться?

 

root@l-creatio-lel:/home/adminka# kubectl get pods

NAME               READY   STATUS             RESTARTS   AGE

elistener-api-0    0/1     CrashLoopBackOff   4          4m5s

 

  Warning  Unhealthy  13m (x4 over 15m)   kubelet            Readiness probe failed: Get "http://10.244.0.5:80/healthcheck": dial tcp 10.244.0.5:80: connect: connection refused

  Warning  BackOff    86s (x57 over 15m)  kubelet            Back-off restarting failed container

 

$ kubectl logs elistener-api-0

Unhandled exception. StackExchange.Redis.RedisConnectionException: It was not possible to connect to the redis server(s). There was an authentication failure; check that passwords (or client certificates) are configured correctly. AuthenticationFailure (None, last-recv: 310) on 10.96.133.113:6379/Interactive, Flushed/ComputeResult, last: ECHO, origin: SetResult, outstanding: 0, last-read: 0s ago, last-write: 0s ago, keep-alive: 60s, state: ConnectedEstablishing, mgr: 8 of 10 available, last-heartbeat: never, global: 14s ago, v: 2.1.58.34321

 

 

$ kubectl get pods -o wide

NAME               READY   STATUS             RESTARTS   AGE     IP           NODE            NOMINATED NODE   READINESS GATES

elistener-api-0    0/1     CrashLoopBackOff   5          5m46s   10.244.0.5   r-creatio-lel   <none>           <none>

redis-master-0     1/1     Running            0          6m32s   10.244.0.4   r-creatio-lel   <none>           <none>

redis-replicas-0   0/1     Pending            0          6m32s   <none>       <none>          <none>           <none>

 

 

$  kubectl get service

NAME             TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)        AGE

elistener-api    NodePort    10.109.70.15    <none>        80:30001/TCP   6m14s

kubernetes       ClusterIP   10.96.0.1       <none>        443/TCP        11m

redis-headless   ClusterIP   None            <none>        6379/TCP       7m

redis-master     ClusterIP   10.96.133.113   <none>        6379/TCP       7m

redis-replicas   ClusterIP   10.102.18.199   <none>        6379/TCP       7m

 

 

 

 

 

 

Екатерина Валерьевна,

Попробуйте при установке редиса вместо ключа "--set usePassword=false" указать "--set auth.enabled=false".

Dima Avdoshin,

спасибо большое - помогло

Добрый день,

 

что может быть?

 

 

adminka@r-creatio-lel-st:~$ kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/k…

unable to recognize "https://raw.githubusercontent.com/coreos/flannel/master/Documentation/k…": no matches for kind "ClusterRole" in version "rbac.authorization.k8s.io/v1beta1"

unable to recognize "https://raw.githubusercontent.com/coreos/flannel/master/Documentation/k…": no matches for kind "ClusterRoleBinding" in version "rbac.authorization.k8s.io/v1beta1"

 

Екатерина Валерьевна,



Возможно для решения вам помогут статьи на общедоступных ресурсах:

https://github.com/GoogleCloudPlatform/gke-monitoring-tutorial/issues/14

https://github.com/rook/rook/issues/2681

Добрый день всем, у нас используется on-site Creatio CRM, и возникла необходимость поднять kubernetes для ExchangeListener-а, но на самом последнем пункте возникает ошибка установки самого пакета в helm, прошу помочь в решении этого пункта, версии helm и  exchange взяты за основу из этой статьи, только репозиторий helm поменялся, и добавил соответствующий. В остальном тоже самое.

Dima Avdoshin пишет: Добрый день, подскажите пожалуйста

NAME                 STATUS   ROLES           AGE   VERSION

r-creatio-exl-prod   Ready    control-plane   51m   v1.25.4

 

почему роль у него control-plane  ставиться, а не мастер?

 

и при использовании

helm install --namespace default --set auth.enabled=false --set=slave.persistence.enabled=false --set master.persistence.enabled=false --set cluster.enabled=false redis bitnami/redis

wget https://academy.creatio.com/sites/default/files/documents/downloads/Exc…

helm install --set env.host=10.104.164.119 --set service.type=NodePort --set service.nodePort=30001 --set apiVersion=apps/v1 --namespace default elistener exchangelistener-0.8.39.tgz

 

adminka@r-creatio-exl-prod:~$ kubectl get pods

NAME               READY   STATUS             RESTARTS        AGE

elistener-api-0    0/1     CrashLoopBackOff   9 (3m16s ago)   29m

 

 

  Warning  Unhealthy  28m                    kubelet            Liveness probe failed: Get "http://10.244.0.6:80/api/listeners/exists": dial tcp 10.244.0.6:80: connect: connection refused

  Warning  Unhealthy  8m32s (x15 over 28m)   kubelet            Readiness probe failed: Get "http://10.244.0.6:80/healthcheck": dial tcp 10.244.0.6:80: connect: connection refused

  Warning  BackOff    3m32s (x101 over 27m)  kubelet            Back-off restarting failed container

 

Подскажите пожалуйста, как это победить? И есть ли более новые версии ExchangeListener, которые можно поставить?

 

https://artifacthub.io/packages/helm/bitnami/redis

--set=slave.persistence.enabled=false - почему тут равно и для slave нет никаких опций.

 

Показать все комментарии