Я использовал Миникуба Как мой локальный кластер, так как я начал учиться Кубернеты . Но я решил позволить ему идти в пользу Добрый . Вот история.
Пару недель назад я дал разговор о нулевых простоях на Кубейнетах. Демо входит в разговор, как и большинство моих презентаций. Во время репетиции по утрам демонстрация работала, хотя и медленно. За два дня до этого у меня была еще одна демо, которая также использует Кубернаны, и это было уже медленно. Но я не взял намек.
Во время демонстрации все было медленно: планирования стручков, конечно, но и бега и удаление стручек. Демо не удалось несчастнее. Мне даже не удалось остановить Minikube чисто, и мне пришлось остановить VM Отказ
Сказать, что я был разочарован, довольно занижение. Это был мой первый выстрел на этой демонстрации. Я ненавижу, когда демоны идут не так; Я ненавижу это еще больше, когда он работает во время репетиции, и он терпит неудачу перед аудиторией. Я обильно извинился и решил, что не буду повторять тот же опыт.
После разговора я удалил кластер и снова создал его с нуля. Как для удаленного кластера, я использовал VirtualBox Водитель. Я также использовал ту же конфигурацию, что и раньше: 4 ядра и 16 ГБ. И все же, планирование было медленно … снова.
У меня уже было Некоторый интерес в альтернатив Миникуба. Эта неудача дала мне правильный стимул. Я выбрал добро, потому что некоторые из комментариев упоминаются об этом в хороших условиях.
Исходя из Миникуба, стоит упомянуть пару различий. Самое главное, что добрые пробеги в Docker Отказ Его название на самом деле аббревиатура для « k Ubernetes в * d * kocker». Следовательно, Docker должен бежать до любой доброй операции.
Как следствие, нет выделенного кластера IP, все напрямую на localhost
Отказ Однако кластер должен быть явно настроен на карту портов.
apiVersion: kind.x-k8s.io/v1alpha4 kind: Cluster nodes: - role: control-plane extraPortMappings: - containerPort: 30002 # 1 hostPort: 30002 # 1 - role: worker
- Карта Контейнер Порт
30002
принять порт порта30002.
Нужно пройти конфигурацию в момент создания:
kind create cluster --config kind.yml
Конфигурация кластера не может быть изменена. Единственный обходной путь — удалить кластер и создать еще один с новой конфигурацией.
Еще одно важное различие становится видимым, когда изображение запланированного POD является локальным I.E. не доступно в реестре. С Minikube можно настроить среду, чтобы, когда он создает изображение, он напрямую загружен в докер кластера демон . С родом нужно загружать изображения из докера до доброй кластера.
kind load docker-image hazelcast/hzshop:1.0
Я повторю проверил всю демонстрацию. Работает как часы!
Есть один оставшийся шаг в моем контексте, создать Вход
Отказ Документация чисто.
Идти дальше:
Первоначально опубликовано Java Geek. 7 марта готовность 2021
Оригинал: «https://dev.to/nfrankel/goodbye-minikube-1lf9»