Я пытаюсь в настоящее время получить голову вокруг k8s и linkerd. Раньше я использовал докер-сочинение раньше и консула.Linkerd, k8s и routing
Я не совсем понял, что я делаю неправильно, поэтому я был бы рад, если бы кто-то мог проверить логику и посмотреть, где ошибка.
Я использую minikube
локально и хотел бы использовать GCE для развертывания.
Я в основном пытаюсь получить простой контейнер, который запускает приложение-узел, запущенное в k8s и linkerd, но для некоторых реанов я не могу заставить маршрутизацию работать.
config.yaml
apiVersion: v1
kind: ConfigMap
metadata:
name: l5d-config
data:
config.yaml: |-
admin:
port: 9990
namers:
- kind: io.l5d.k8s
experimental: true
host: localhost
port: 8001
routers:
- protocol: http
label: outgoing
baseDtab: |
/srv => /#/io.l5d.k8s/default/http;
/host => /srv;
/http/*/* => /host;
/host/world => /srv/world-v1;
interpreter:
kind: default
transformers:
- kind: io.l5d.k8s.daemonset
namespace: default
port: incoming
service: l5d
servers:
- port: 4140
ip: 0.0.0.0
- protocol: http
label: incoming
baseDtab: |
/srv => /#/io.l5d.k8s/default/http;
/host => /srv;
/http/*/* => /host;
/host/world => /srv/world-v1;
interpreter:
kind: default
transformers:
- kind: io.l5d.k8s.localnode
servers:
- port: 4141
ip: 0.0.0.0
Я тогда развернуть deamonset
, из которого я понял, что это самый разумный способ использовать linkerd
apiVersion: extensions/v1beta1
kind: DaemonSet
metadata:
labels:
app: l5d
name: l5d
spec:
template:
metadata:
labels:
app: l5d
spec:
volumes:
- name: l5d-config
configMap:
name: "l5d-config"
containers:
- name: l5d
image: buoyantio/linkerd:0.8.6
env:
- name: POD_IP
valueFrom:
fieldRef:
fieldPath: status.podIP
args:
- /io.buoyant/linkerd/config/config.yaml
ports:
- name: outgoing
containerPort: 4140
hostPort: 4140
- name: incoming
containerPort: 4141
- name: admin
containerPort: 9990
volumeMounts:
- name: "l5d-config"
mountPath: "/io.buoyant/linkerd/config"
readOnly: true
- name: kubectl
image: buoyantio/kubectl:v1.4.0
args:
- "proxy"
- "-p"
- "8001"
затем развернуть контроллер репликации с Докер контейнера I строительство:
apiVersion: v1
kind: ReplicationController
metadata:
name: testservice
spec:
replicas: 3
selector:
app: hello
template:
metadata:
labels:
app: hello
spec:
dnsPolicy: ClusterFirst
containers:
- name: service
image: eu.gcr.io/xxxx/testservice:1.0
env:
- name: NODE_NAME
valueFrom:
fieldRef:
fieldPath: spec.nodeName
- name: POD_IP
valueFrom:
fieldRef:
fieldPath: status.podIP
- name: http_proxy
value: $(NODE_NAME):4140
command:
- "pm2-docker"
- "processes.json"
ports:
- name: service
containerPort: 8080
Когда я затем вхожу minikube service l5d
, отображаются службы и linkerd, но я не получаю страницу по умолчанию, которая должна отображаться.
Чтобы проверить, работает ли все, я создаю другую службу, которая указывает прямо на порт 8080, а затем работает, но не через прокси-сервер linkerd.
Может ли кто-нибудь обнаружить ошибку? Заранее большое спасибо.
Я не могу ответить на ваш вопрос, но ИМХО это не является необходимым, чтобы добавить инструмент обнаружения сервисов в Kubernetes, так как он имеет это [собственный один ] (https://kubernetes.io/docs/user-guide/services/#discovering-services). Это просто добавляет еще один слой сложности, который может сломаться. Единственная причина, которая приходит мне на ум, - это миграция. – svenwltr