Вживання російської небезпечне

Чому ми так вважаємо
Перейти на українську
  • Бронирование
  • Cейчас просматривает 1 соискатель
АТБ-маркет

Senior/middle DevOps Engineer (On-Prem Data Lake Platform)

  • Користувач ОС Linux
  • Git
  • GitHub
  • GitLab
  • Jenkins
  • Terraform
  • Адміністрування локальної мережі
  • Адміністрування серверів
  • Ansible
  • Ініціативність
  • Віртуалізація
  • Kubernetes
  • Amazon S3
  • Apache Kafka
  • Реплікація даних
  • CI/CD
  • GitHub Actions
Показать все навыкиСвернуть навыки

Описание вакансии

Запрошуємо приєднатися до нашої команди Senior/middle DevOps Engineer.

Обов’язки:

  • проєктування, розгортання та підтримка on-prem інфраструктури для data lake / DWH платформи обсягом 100+ ТБ;
  • побудова та адміністрування кластерів (Kubernetes або аналогічна контейнерна оркестрація і теж звичайні сервери);
  • налаштування масштабування — горизонтального та вертикального, high availability, балансування навантаження;
  • автоматизація інфраструктури за допомогою IaC (Terraform, Ansible, Helm тощо);
  • створення та підтримка CI/CD пайплайнів (ETL, аналітичні сервіси, API);
  • моніторинг продуктивності, метрик та capacity planning для кластерів з великим обсягом даних;
  • забезпечення безпеки інфраструктури: мережеві політики, секрети, TLS, контроль доступу;
  • операційне супроводження платформи: оновлення, резервне копіювання, disaster recovery;
  • підготовка документації, runbook'ів та автоматизованих процедур розгортання та задач по підтримці рішення.

Обов’язкові вимоги:

  • 3+ років досвіду як DevOps / SRE / Platform Engineer;
  • досвід роботи з on-prem інфраструктурою, — мережі, віртуалізація, налаштування гіпервізорів;
  • знання Linux (мережа, безпека, performance tuning);
  • досвід роботи з Kubernetes або іншими оркестраторами контейнерів у продакшн середовищах;
  • досвід з Infrastructure as Code (Terraform, Ansible, Helm);
  • практичне налаштування CI/CD (GitLab CI / GitHub Actions / Jenkins);
  • розуміння принципів побудови кластерів та розподілених систем (реплікація, HA, sharding, rebalancing);
  • досвід роботи з мережевою інфраструктурою;
  • вміння писати скрипти;
  • досвід роботи з Git та Git-flow.

Бажано (буде плюсом):

  • досвід роботи з об'єктними сховищами (MinIO, S3-сумісні системи) або файловими системами HDFS;
  • досвід роботи з колонарними та аналітичними сховищами даних;
  • знання стеків обробки даних: Spark, Airflow, Kafka, dbt;
  • розробка або супровід великих кластерів з даними 10−100+ ТБ;
  • досвід побудови backup & disaster recovery стратегій.

Особисті якості:

  • орієнтація на автоматизацію та бажання мінімізувати ручні операції;
  • уважність до деталей, вміння працювати з великими обсягами даних та складними системами;
  • вміння працювати в умовах обмежень on-prem інфраструктури;
  • вміння пріоритезувати критичні задачі в умовах стресу;
  • відповідальність, структурованість, прозорість у комунікації;
  • готовність документувати рішення та ділитися знаннями з командою;
  • ініціативність у покращенні процесів і стабільності платформи.

Компанія пропонує:

  • дистанційний або гібридний формат роботи;
  • працевлаштування на умовах гіг-контракту або в штат (є можливість бронювання);
  • оплачувану щорічну відпустку 24 календарних дня, оплачуваний лікарняний;
  • регулярну виплату заробітної плати без затримок та в обумовлених обсягах, регулярний перегляд заробітної плати;
  • можливість професійного та кар'єрного росту;
  • курси підвищення кваліфікації.

Контактна особа: Катерина, тел. (t.me/KaterynaB_HR)


Похожие вакансии

Все похожие вакансии