Вживання російської небезпечне

Чому ми так вважаємо
Перейти на українську

Mykola

ML Engineer, 70 000 грн

Вид занятости:
полная, неполная
Возраст:
45 лет
Город проживания:
Другие страны
Готов работать:
Удаленно

Контактная информация

Соискатель указал телефон и эл. почту.

Фамилия, контакты и фото доступны только для зарегистрированных работодателей. Чтобы получить доступ к личным данным кандидатов, войдите как работодатель или зарегистрируйтесь.

Опыт работы

Machine Learning Engineer

с 03.2022 по 05.2026 (4 года 3 месяца)
AI Pro, Дистанційно (IT)

Побудував RAG систему для технічної документації (100k+ документів, ~25M токенів)
Сервіс обслуговує:
~8,000+ активних користувачів/місяць
~1,200+ DAU
пік: ~120–150 RPS
Оптимізував inference pipeline:
latency: 3.8s → 1.6s (P95)
cost ↓ на 38%
Реалізував autoscaling (GPU + CPU ноди) під навантаження
Впровадив monitoring + alerting → uptime 99.9%.

Приклад кейсiв
1. Production RAG система (high-load)
Архітектура: LLM (Mistral 7B) + embeddings + FAISS
Дані: 100k+ документів, ~10GB тексту
Навантаження:
~120 RPS (пікове)
~1.5M запитів/день
Оптимізації:
smart chunking + reranking
caching (Redis)
Результат:
latency ↓ на 50%
↑ релевантність відповідей на ~40%
скорочення часу пошуку для інженерів у 10+ разів

2. Масштабування LLM inference (GPU optimization)
Початково:
1 запит = 1 GPU inference (~3–5 сек)
Впровадив:
batching (до 16 запитів)
INT8/INT4 quantization
async pipeline
Після:
throughput ↑ у 6 разів
latency P95 ~1.5 сек
GPU utilization ↑ з ~35% до ~85%

ML Engineer

с 10.2019 по 02.2022 (2 года 5 месяцев)
Innovatech, Київ (IT)

NLP сервіси з навантаженням:
~2–5 млн запитів/день
~30–50 RPS стабільно
Розробив embedding search систему (top-k retrieval <100ms)
Інтегрував ML у backend продукти

Приклад кейса:
Fine-tuning LLM під технічний домен
Dataset: ~50k прикладів (інженерні тексти, документація)
LoRA fine-tuning (1–2 GPU)
Evaluation pipeline (custom metrics + human eval)
Результат:
↓ hallucinations ~30%
↑ accuracy відповідей у домені ~35%

Знания и навыки

  • LLM
  • TensorFlow
  • PyTorch
  • MLOps
  • FineTu
  • Fine-tuning

Дополнительная информация

ML Engineer з 7+ роками досвіду у розробці та масштабуванні ML/NLP систем. Спеціалізуюсь на LLM, RAG-архітектурах та production-ready MLOps. Маю досвід побудови високонавантажених систем із тисячами користувачів та оптимізації витрат інфраструктури.

Machine Learning / NLP:
LLM (LLaMA 2/3, Mistral 7B), fine-tuning (LoRA, PEFT)
Embeddings, semantic search, RAG
Quantization (INT8/INT4), distillation

Технології:
Python, PyTorch, TensorFlow
Hugging Face, LangChain, LlamaIndex
FastAPI, REST

MLOps:
MLflow, W&B
CI/CD, Airflow
Monitoring: Prometheus, Grafana

Інфраструктура:
AWS, RunPod
Docker
Linux / Bash
PostgreSQL

Похожие кандидаты

Все похожие кандидаты

Кандидаты в категории

Кандидаты по городам


Сравните свои требования и зарплату с вакансиями других компаний: