Kubernetes 1.9 が最近リリースされ、CoreDNS がその一部として同梱されています。 Kubernetes を単一のステップで簡単にインストールできるツールキットである Kubeadm を介して、CoreDNS をデフォルトのサービスディスカバリーとしてインストールできるようになりました。
現在、CoreDNS は Kubernetes 1.9 でアルファ版です。ロードマップでは、CoreDNS をバージョン 1.10 でベータ版にし、最終的には kube-dns に代わるデフォルトの DNS にします。
kube-dns から CoreDNS に切り替える際、現在 kube-dns に付属している構成(スタブゾーン、フェデレーションなど)は存在しなくなり、CoreDNS のデフォルト構成に切り替わることに注意することが重要です。 kube-dns からの構成の変換は、CoreDNS がベータ版になる次期バージョンの Kubernetes (v1.10) からサポートされます。
CoreDNS の構成について
これは、kubeadm に同梱されているデフォルトの CoreDNS 構成です。これは、coredns
という名前の Kubernetes configmap に保存されています。
# kubectl -n kube-system get configmap coredns -oyaml
apiVersion: v1
data:
Corefile: |
.:53 {
errors
health
kubernetes cluster.local 10.96.0.0/12 {
pods insecure
upstream /etc/resolv.conf
}
prometheus :9153
proxy . /etc/resolv.conf
cache 30
}
kind: ConfigMap
metadata:
creationTimestamp: 2017-12-21T12:55:15Z
name: coredns
namespace: kube-system
resourceVersion: "161"
selfLink: /api/v1/namespaces/kube-system/configmaps/coredns
uid: 30bf0882-e64e-11e7-baf6-0cc47a8055d6
Corefile 部分は CoreDNS の構成です。この構成は、CoreDNS の次のプラグインに基づいています。
- errors: エラーは stdout にログ出力されます。
- health: CoreDNS のヘルス状態は http://localhost:8080/health で報告されます。
- kubernetes: CoreDNS は、Kubernetes のサービスとポッドの IP に基づいて DNS クエリに応答します。詳細についてはこちらをご覧ください。
Kubernetes プラグインには、kubeadm によってデフォルトで
Cluster Domain
およびService CIDR
のオプションがそれぞれcluster.local
および10.96.0.0/12
として定義されています。 kubeadm の--service-dns-domain
および--service-cidr
フラグを使用して、目的の値を変更および選択できます。
pods insecure
オプションは、kube-dns との後方互換性のために提供されています。
Upstream
は、外部ホスト(外部サービス)を指すサービスを解決するために使用されます。
- prometheus: CoreDNS のメトリクスは、Prometheus 形式で http://localhost:9153/metrics で利用できます。
- proxy: Kubernetes のクラスタドメイン内にないクエリは、事前に定義されたリゾルバー (/etc/resolv.conf) に転送されます。
- cache: これにより、フロントエンドキャッシュが有効になります。
この configmap を変更することで、デフォルトの動作を変更できます。変更を有効にするには、CoreDNS ポッドの再起動が必要です。
新規 Kubernetes クラスタへの CoreDNS のインストール
新規 Kubernetes クラスタ用に kube-dns の代わりに CoreDNS をインストールするには、feature-gates
フラグを使用して CoreDNS=true
に設定する必要があります。新しい Kubernetes クラスターをインストール中に、CoreDNS をデフォルトの DNS サービスとしてインストールするには、次のコマンドを使用します。
# kubeadm init --feature-gates CoreDNS=true
# kubeadm init --feature-gates CoreDNS=true
[init] Using Kubernetes version: v1.9.0
[init] Using Authorization modes: [Node RBAC]
[preflight] Running pre-flight checks.
[WARNING SystemVerification]: docker version is greater than the most recently validated version. Docker version: 17.09.1-ce. Max validated version: 17.03
[WARNING FileExisting-crictl]: crictl not found in system path
[preflight] Starting the kubelet service
[certificates] Generated ca certificate and key.
[certificates] Generated apiserver certificate and key.
[certificates] apiserver serving cert is signed for DNS names [sandeep2 kubernetes kubernetes.default kubernetes.default.svc kubernetes.default.svc.cluster.local] and IPs [10.96.0.1 147.75.107.43]
[certificates] Generated apiserver-kubelet-client certificate and key.
[certificates] Generated sa key and public key.
[certificates] Generated front-proxy-ca certificate and key.
[certificates] Generated front-proxy-client certificate and key.
[certificates] Valid certificates and keys now exist in "/etc/kubernetes/pki"
[kubeconfig] Wrote KubeConfig file to disk: "admin.conf"
[kubeconfig] Wrote KubeConfig file to disk: "kubelet.conf"
[kubeconfig] Wrote KubeConfig file to disk: "controller-manager.conf"
[kubeconfig] Wrote KubeConfig file to disk: "scheduler.conf"
[controlplane] Wrote Static Pod manifest for component kube-apiserver to "/etc/kubernetes/manifests/kube-apiserver.yaml"
[controlplane] Wrote Static Pod manifest for component kube-controller-manager to "/etc/kubernetes/manifests/kube-controller-manager.yaml"
[controlplane] Wrote Static Pod manifest for component kube-scheduler to "/etc/kubernetes/manifests/kube-scheduler.yaml"
[etcd] Wrote Static Pod manifest for a local etcd instance to "/etc/kubernetes/manifests/etcd.yaml"
[init] Waiting for the kubelet to boot up the control plane as Static Pods from directory "/etc/kubernetes/manifests".
[init] This might take a minute or longer if the control plane images have to be pulled.
[apiclient] All control plane components are healthy after 31.502217 seconds
[uploadconfig] Storing the configuration used in ConfigMap "kubeadm-config" in the "kube-system" Namespace
[markmaster] Will mark node sandeep2 as master by adding a label and a taint
[markmaster] Master sandeep2 tainted and labelled with key/value: node-role.kubernetes.io/master=""
[bootstraptoken] Using token: 4cd282.a826a13b3705a4ec
[bootstraptoken] Configured RBAC rules to allow Node Bootstrap tokens to post CSRs in order for nodes to get long term certificate credentials
[bootstraptoken] Configured RBAC rules to allow the csrapprover controller automatically approve CSRs from a Node Bootstrap Token
[bootstraptoken] Configured RBAC rules to allow certificate rotation for all node client certificates in the cluster
[bootstraptoken] Creating the "cluster-info" ConfigMap in the "kube-public" namespace
[addons] Applied essential addon: CoreDNS
[addons] Applied essential addon: kube-proxy
Your Kubernetes master has initialized successfully!
Kubernetes のデプロイ中に次の出力が表示される場合、CoreDNS のインストールは確認済みです。
[addons] Applied essential addon: CoreDNS
既存のクラスタを CoreDNS を使用するように更新する
既存のクラスタがある場合、kubeadm upgrade
コマンドを使用して、DNS サービスを CoreDNS にアップグレードし、kube-dns を置き換えることも可能です。
kubeadm upgrade plan
を使用し、feature-gates
フラグを CoreDNS=true
に設定することで、変更を適用する前にインストールされる CoreDNS のバージョンを確認できます。
アップグレードする CoreDNS のバージョンを確認する
# kubeadm upgrade plan --feature-gates CoreDNS=true
# kubeadm upgrade plan --feature-gates CoreDNS=true
...
Components that must be upgraded manually after you have upgraded the control plane with 'kubeadm upgrade apply':
COMPONENT CURRENT AVAILABLE
Kubelet 1 x v1.9.0 v1.10.0-alpha.1
Upgrade to the latest experimental version:
COMPONENT CURRENT AVAILABLE
API Server v1.9.0 v1.10.0-alpha.1
Controller Manager v1.9.0 v1.10.0-alpha.1
Scheduler v1.9.0 v1.10.0-alpha.1
Kube Proxy v1.9.0 v1.10.0-alpha.1
CoreDNS 1.0.1 1.0.1
Etcd 3.1.10 3.1.10
You can now apply the upgrade by executing the following command:
kubeadm upgrade apply v1.10.0-alpha.1
Note: Before you can perform this upgrade, you have to update kubeadm to v1.10.0-alpha.1.
次に、kubeadm upgrade apply
と feature-gates CoreDNS=true
を使用して、CoreDNS をデフォルトの DNS として使用したクラスタのアップグレードを実行できます。
# kubeadm upgrade apply <version> --feature-gates CoreDNS=true
# kubeadm upgrade apply v1.10.0-alpha.1 --feature-gates CoreDNS=true
[preflight] Running pre-flight checks.
[upgrade] Making sure the cluster is healthy:
[upgrade/config] Making sure the configuration is correct:
[upgrade/config] Reading configuration from the cluster...
[upgrade/config] FYI: You can look at this config file with 'kubectl -n kube-system get cm kubeadm-config -oyaml'
[upgrade/version] You have chosen to change the cluster version to "v1.10.0-alpha.1"
[upgrade/versions] Cluster version: v1.10.0-alpha.1
[upgrade/versions] kubeadm version: v1.9.0
[upgrade/version] Found 1 potential version compatibility errors but skipping since the --force flag is set:
- Specified version to upgrade to "v1.10.0-alpha.1" is at least one minor release higher than the kubeadm minor release (10 > 9). Such an upgrade is not supported
[upgrade/prepull] Will prepull images for components [kube-apiserver kube-controller-manager kube-scheduler]
[upgrade/apply] Upgrading your Static Pod-hosted control plane to version "v1.10.0-alpha.1"...
[upgrade/staticpods] Writing new Static Pod manifests to "/etc/kubernetes/tmp/kubeadm-upgraded-manifests781134294"
[controlplane] Wrote Static Pod manifest for component kube-apiserver to "/etc/kubernetes/tmp/kubeadm-upgraded-manifests781134294/kube-apiserver.yaml"
[controlplane] Wrote Static Pod manifest for component kube-controller-manager to "/etc/kubernetes/tmp/kubeadm-upgraded-manifests781134294/kube-controller-manager.yaml"
[controlplane] Wrote Static Pod manifest for component kube-scheduler to "/etc/kubernetes/tmp/kubeadm-upgraded-manifests781134294/kube-scheduler.yaml"
[upgrade/staticpods] Moved new manifest to "/etc/kubernetes/manifests/kube-apiserver.yaml" and backed up old manifest to "/etc/kubernetes/tmp/kubeadm-backup-manifests038673725/kube-apiserver.yaml"
[upgrade/staticpods] Waiting for the kubelet to restart the component
[apiclient] Found 1 Pods for label selector component=kube-apiserver
[upgrade/staticpods] Component "kube-apiserver" upgraded successfully!
[upgrade/staticpods] Moved new manifest to "/etc/kubernetes/manifests/kube-controller-manager.yaml" and backed up old manifest to "/etc/kubernetes/tmp/kubeadm-backup-manifests038673725/kube-controller-manager.yaml"
[upgrade/staticpods] Waiting for the kubelet to restart the component
[apiclient] Found 1 Pods for label selector component=kube-controller-manager
[upgrade/staticpods] Component "kube-controller-manager" upgraded successfully!
[upgrade/staticpods] Moved new manifest to "/etc/kubernetes/manifests/kube-scheduler.yaml" and backed up old manifest to "/etc/kubernetes/tmp/kubeadm-backup-manifests038673725/kube-scheduler.yaml"
[upgrade/staticpods] Waiting for the kubelet to restart the component
[apiclient] Found 1 Pods for label selector component=kube-scheduler
[upgrade/staticpods] Component "kube-scheduler" upgraded successfully!
[uploadconfig] Storing the configuration used in ConfigMap "kubeadm-config" in the "kube-system" Namespace
[bootstraptoken] Configured RBAC rules to allow Node Bootstrap tokens to post CSRs in order for nodes to get long term certificate credentials
[bootstraptoken] Configured RBAC rules to allow the csrapprover controller automatically approve CSRs from a Node Bootstrap Token
[bootstraptoken] Configured RBAC rules to allow certificate rotation for all node client certificates in the cluster
[addons] Applied essential addon: CoreDNS
[addons] Applied essential addon: kube-proxy
[upgrade/successful] SUCCESS! Your cluster was upgraded to "v1.10.0-alpha.1". Enjoy!
[upgrade/kubelet] Now that your control plane is upgraded, please proceed with upgrading your kubelets in turn.
CoreDNS サービスの検証
CoreDNS が実行されていることを確認するには、ノード内のポッドの状態とデプロイメントを確認できます。ここで、CoreDNS サービスは「kube-dns」のままであることに注意してください。これにより、サービスディスカバリーを kube-dns から CoreDNS にアップグレードする際の円滑な移行が保証されます。
pod
の状態を確認する
# kubectl -n kube-system get pods -o wide
NAME READY STATUS RESTARTS AGE IP NODE
coredns-546545bc84-ttsh4 1/1 Running 0 5h 10.32.0.61 sandeep2
etcd-sandeep2 1/1 Running 0 5h 147.75.107.43 sandeep2
kube-apiserver-sandeep2 1/1 Running 0 4h 147.75.107.43 sandeep2
kube-controller-manager-sandeep2 1/1 Running 0 4h 147.75.107.43 sandeep2
kube-proxy-fkxmg 1/1 Running 0 4h 147.75.107.43 sandeep2
kube-scheduler-sandeep2 1/1 Running 4 5h 147.75.107.43 sandeep2
weave-net-jhjtc 2/2 Running 0 5h 147.75.107.43 sandeep2
Deployment
を確認する
# kubectl -n kube-system get deployments
NAME DESIRED CURRENT UP-TO-DATE AVAILABLE AGE
coredns 1 1 1 1 4h
いくつかの基本的な dig
コマンドを使用して、CoreDNS が正常に機能しているかどうかを確認できます。
# dig @10.32.0.61 kubernetes.default.svc.cluster.local +noall +answer
; <<>> DiG 9.10.3-P4-Ubuntu <<>> @10.32.0.61 kubernetes.default.svc.cluster.local +noall +answer
; (1 server found)
;; global options: +cmd
kubernetes.default.svc.cluster.local. 23 IN A 10.96.0.1
# dig @10.32.0.61 ptr 1.0.96.10.in-addr.arpa. +noall +answer
; <<>> DiG 9.10.3-P4-Ubuntu <<>> @10.32.0.61 ptr 1.0.96.10.in-addr.arpa. +noall +answer
; (1 server found)
;; global options: +cmd
1.0.96.10.in-addr.arpa. 30 IN PTR kubernetes.default.svc.cluster.local.