- SQL
- Python
- MongoDB
- Docker
- Робота з базою даних
- AWS
- Machine learning
- Databricks
- Scala
- Snowflake
- BigQuery
- Synapse
- Spark/PySpark
- dbt
- Data Mesh
- Lakehouse
- Lambda/Kappa
- Terraform/IaC
- CI/CD
- Docker/Kubernetes
- Feature Stores
- Vector Databases
- MLOps
Опис вакансії
Стань лідером data-стратегії для наших глобальних клієнтів. Ми шукаємо Senior Data Engineer, який виступатиме надійним технічним радником — людину, здатну проектувати складні Lakehouse-архітектури, аргументовано захищати технічні рішення перед стейкхолдерами та драйвити пресейл-активності.
МІСІЯ:
Твоя місія — проектувати масштабовані, безпечні та економічно ефективні платформи даних, що вирішують критичні бізнес-задачі. Ти проводитимеш технічні аудити, визначатимеш best practices для команди та будуватимеш фундаментальну інфраструктуру, що дає можливість реалізувати просунуту аналітику та впровадження AI/GenAI можливостей для наших клієнтів.
ЩО ТИ БУДЕШ РОБИТИ:
- Очолювати проектування та впровадження масштабованих пайплайнів та Lakehouse-архітектур. Виступати ключовим технічним експертом (Design Authority) на проектах.
- Вирішувати найскладніші технічні виклики — оптимізація високонавантажених стрімінгових пайплайнів, дебагінг складних Spark-job та розробка універсальних фреймворків.
- Брати участь у технічних оцінках, аудитах існуючих систем та підготовці пропозицій (estimations). Пояснювати клієнтам ROI технічної модернізації.
- Гарантувати, що всі рішення готові до продакшну: безпечні, покриті моніторингом, економічно ефективні (FinOps) та документовані.
- Визначати стандарти кодування, проводити code reviews та менторити Middle/Junior інженерів для розвитку Data Engineering напряму.
ЩО НАМ ВАЖЛИВО:
- Python або Scala (Експертний рівень/Design Patterns), SQL (Експертний рівень).
- Databricks (Unity Catalog), Snowflake, BigQuery, Synapse.
- Spark/PySpark (Глибоке розуміння внутрішніх механізмів, тюнінг, стрімінг), dbt (Enterprise патерни).
- Data Mesh, Lakehouse (Delta Lake/Iceberg), Lambda/Kappa.
- Просунутий Terraform/IaC, CI/CD, Docker/Kubernetes.
- Feature Stores, Vector Databases, основи MLOps.
- Експертний рівень володіння Python (патерни проектування, розробка бібліотек) та SQL. Вміння оптимізувати код, написаний іншими.
- Глибоке володіння Databricks (керування пам’яттю Spark, стратегії партиціювання) або Snowflake (тюнінг Warehouse, RBAC, Zero-Copy Cloning). Ти розумієш, як ці інструменти працюють «під капотом».
- Здатність проектувати end-to-end рішення, обирати правильні інструменти (наприклад, аргументувати «Чому Snowflake, а не Redshift у цьому кейсі?») та захищати свої рішення перед керівництвом клієнта.
- Експертні знання AWS, GCP або Azure. Глибоке розуміння мереж (VPC, PrivateLink), безпеки (IAM) та лімітів інтеграції.
- Досвід участі у Presales, технічних аудитах або discovery-фазах. Вміння трансформувати бізнес-потреби у технічні специфікації.
- Розуміння принципів підготовки даних для Machine Learning (Feature Engineering, пайплайни для LLM/RAG).
БУДЕ ПЛЮСОМ:
- Глибокий досвід роботи з Kafka, Kinesis або Spark Structured Streaming.
- Досвід роботи з векторними базами даних (Pinecone, pgvector, Weaviate) або фреймворками типу LangChain.
- Професійні хмарні сертифікації (наприклад, AWS Solutions Architect Pro, Databricks Certified DE Professional).
- Просунуте моделювання даних для DynamoDB, Cosmos DB або MongoDB.
Схожі вакансії
-
Senior Data Engineer
Перший Український Міжнародний Банк (ПУМБ), Дистанційно -
Junior Data Engineer
Nix, Дистанційно -
Data Engineer
Аврора, Дистанційно -
Full-Stack Data Integration, Automation Engineer
35 000 – 55 000 грн, Amer sad LLC, Дистанційно -
Lead Data Engineer
COMFY, Дистанційно