Forwarded from Kristina Samko
Senior Data Engineer в Mno Go Games

О компании:
Разрабатываем мобильные викторины, которые знают и любят по всему миру. Наш флагманский продукт, QuizzLand, собрал 100+ млн установок и входит в топ-игр в категории trivia/quiz.

Стек: clickhouse, aerospike, tidb, grafana, kafka.

Задачи:
- Проектирование и разработка Data Pipeline;
- Работа с большими объемами данных: проведение анализа, выполнение ad hoc выборок, оперативное выявление проблем и их решение;
- Разработка и оптимизация структур баз данных;
- Интеграция с внешними сервисами;
- Проработка и подготовка данных для дашбордов;
- Поддержка системы мониторинга, предсказание аномалий.

Мы друг другу подойдем, если:
- У вас есть аналогичный опыт работы от 3-х лет;
- Глубоко понимаете архитектуру обработки данных и работали с большими объемами данных;
- Уверенно себя чувствуете в работе с Clickhouse, включая составление сложных запросов;
- Владеете Python на уровне middle;
- Умеете работать самостоятельно без дополнительного контроля.

Что предлагаем:
- Работу в компании, независимой от инвесторов и отсутствие бюрократии;
- Возможность работать из любой точки мира. У нас есть офис на Кипре, но все рабочие процессы настроены под удаленный формат;
- Гибкое начало рабочего дня (работаем по GMT+3), график 5/2;
- Компенсацию изучения английского языка и профильных курсов;
- 100% компенсацию отпускных дней и оплачиваемые больничные;
- Возможность тестировать различные AI инструменты: не любим унылую ручную работу, топим за автоматизацию и оптимизацию;
- Возможность развиваться внутри компании: мы за инициативность, активность и движение вперед.

📌Присылать CV и задавать вопросы сюда → https://www.tg-me.com/kristinasamko
Forwarded from Олег
Добрый день!
Я представляю компанию Яндекс, сервис Яндекс Маркет
Вакансия: Data Engineer
Грейд: Middle и Senior
Занятость: Full-time
Локация: Москва/Санкт-Петербург/Минск (гибрид)

Кажется, сегодня тот самый день, когда стоит попробовать свои силы и устроиться в Яндекс Маркет!
У нас ты сможешь развиваться в дата-инженерии DWH.
Технологически ядро хранилища построено на системах хранения данных YTsaurus и СlickHouse. Мы разрабатываем ETL-процессы на собственном фреймворке, созданном в Яндексе. У нас сейчас самое крупное хранилище среди всех бизнесов компании — порядка 30 петабайт, и оно будет только расти :)

Отправить отклик или задать вопросы — @maria_danilyuk ✍️
Forwarded from Dmitry Zuev
Привет

Запускаем сбор докладов на SmartData 2025, и как всегда, в фокусе — дата-платформы и всё, что с ними связано!

Ищем ваши реальные истории и кейсы! Успешные внедрения, интересные архитектурные решения, неочевидные оптимизации или даже поучительные провалы — всё это ценный опыт для сообщества. Может, вы настроили Trino так, что он летает? Или нашли способ эффективно хранить петабайты данных? А может, у вас есть что рассказать про CDC, который наконец-то работает как часы?

Подать заявку можно здесь: https://smartdataconf.ru/callforpapers/

Как член программного комитета, с радостью помогу с оформлением и подготовкой доклада. Опыт выступлений не так важен — важнее ваша экспертиза и желание делиться знаниями!

Пожалуйста, расшарьте это приглашение среди коллег и единомышленников. Чем больше практиков с реальным опытом, тем ценнее будет конференция для всех участников.
Data jobs feed pinned «Привет Запускаем сбор докладов на SmartData 2025, и как всегда, в фокусе — дата-платформы и всё, что с ними связано! Ищем ваши реальные истории и кейсы! Успешные внедрения, интересные архитектурные решения, неочевидные оптимизации или даже поучительные…»
Forwarded from Anastasia
Вакансия: (TechLead) на проект по автоматизации бизнес-процессов логистической компании

ЗП: 400-500 т.р.
Формат: гибрид или офис
Локация: Москва
Есть возможность трудоустройства в аккредитованную IT организацию



✍️ Задачи:

- формирование предложений по архитектуре и выбору технологий для реализации решений по автоматизации процессов, в т.ч. на основе ИИ
- координация разработчиков и аналитиков, занимающихся проектом по внедрению искусственного интеллекта и автоматизации процессов
- решение технических и организационных вопросов взаимодействия с подрядчиками и поставщиками услуг, а также внутренними подразделениями в ходе реализации проекта
- оценка рисков и разработка планов по их минимизации
- обеспечение качества разработки и соответствия стандартам безопасности
- поддержание технической документации и участие в презентациях перед руководством
- сопровождение внедрения решений и обеспечение их успешной интеграции в существующие бизнес-процессы

⁉️ Требования:

- высшее техническое образование (предпочтительно информатика, прикладная математика, инженерия)
- опыт работы техническим лидером или руководителем проектов от 3 лет
- глубокое понимание алгоритмов машинного обучения и нейронных сетей
- практические навыки работы с языками программирования Python, R, JavaScript
- опыт работы с библиотеками для машинного обучения (TensorFlow, PyTorch, Scikit-learn)
- отличные коммуникативные навыки и умение эффективно взаимодействовать с командой и клиентами
- способность решать сложные технические проблемы и находить оптимальные решения

Если по всем требованиям мэтч , то откликайтесь сразу с резюме

🚀 https://www.tg-me.com/stasy_yart_work 🙌🏻
Forwarded from Nikita Ryanov
Вакансия: Data Engineer
Вилка: от 300 до 400 на руки
Контакт рекрутера: @lessyalesssya — Олеся

Привет! Мы — Wildberries, крупнейший маркетплейс Европы, 30 млн пользователей ежедневно и технологические задачи, у которых нет аналогов. Наша компания стабильно развивается и работает в усиленном режиме: использует современный стек и новейшие технологии, разрабатывает множество новых hi-tech продуктов.

Сейчас мы в поиске сильного Data Engineer в команду разработки платформы данных в Data Office.

Вам предстоит принять участие в разработке Data Lakehouse, расширить его возможностями Streamhouse и развить его в Nethouse в перспективе. Проект крайне амбициозный. Мы находимся на ранней стадии, поэтому у вас будет уникальная возможность оказать существенное влияние на продукт и увидеть результат своих трудов.

Мы занимаемся платформенной разработкой, но спектр задач у нас достаточно широкий, поэтому мы готовы предложить сотрудничество широкому кругу специалистов уровня Middle и Senior из разных областей экспертизы. Позиций открыто много. С отдельными кандидатами, способными предложить нам ценный для нас опыт, полученный при работе с указанным ниже стеком, мы готовы будем обсудить оплату выше указанной вилки.

Что нужно делать:

- Разрабатывать пайплайн поставки данных в Data Lakehouse.
- Разрабатывать механизм для потоковой проверки качества данных (DQ).
- Разрабатывать механизм для автоматической сборки витрин.
- Внедрить Apache Kylin и Apache Paimon для последующего переноса кубов и NRT-отчётов.
- Проектировать, прототипировать и проверять гипотезы для внедрения новых компонентов и улучшения существующих решений.

Наш стек: Java (Sparks jobs), Python (DAG, скрипты), Go (сервисы), Avro, Kafka, Flink, Spark, Airflow, ORC, Iceberg, Trino, S3, Ansible, Gitlab CI, Grafana, k8s, OpenMetadata.

Что мы от вас ожидаем:

- Уверенное владение Java или Python.
- Свободное владение SQL.
- Опыт работы со Spark или Flink.
- Опыт работы с Docker и docker-compose.
- Способность самостоятельно решать сложные технические задачи.
- Стремление писать документацию.
- Умение работать в команде и делиться знаниями.

Также большим плюсом будет:

- Знание принципов, особенностей применения и построения хранилищ данных (DWH, Data Lake, Lakehouse).
- Значимый опыт работы с большими объёмами данных.
- Опыт работы с Apache Iceberg.
- Опыт работы с Clickhouse.
- Понимание особенностей форматов данных Avro, ORC, Parquet.

Мы предлагаем:

- Полная удаленка, гибрид или офис с диванчиками, гамаками, качелями, кафе и зелеными зонами. У нас уже целых 5 офисов, мы находимся на станциях: Парк Культуры, Белорусская, Охотный ряд, Автозаводская, Динамо;
- Бесплатное питание в офисах компании;
- Современный стек, действительно масштабные задачи, все команды горят работой, нет бюрократии и тайм-трекеров;
- Официальное трудоустройство в аккредитованную IT-компанию с 1 рабочего дня;
- Конкурентная заработная плата без задержек.
Forwarded from Мозг Немчина
Уже идет прием заявок на доклады для Data Internals X 2025📌

Data Internals - профессиональная конференция по инженерии данных, базам данных и системам хранения и обработки данных. Участие в конференции - это возможность расширить свой профессиональный горизонт и присоединиться к сообществу экспертов.

На этот год мы определили перечень направлений, наиболее актуальных для сообщества. Мы не будем ограничиваться только ими, но предпочтение будет отдано докладам на следующие темы:

▶️Разработка СУБД и инструментов работы с данными
▶️Практические примеры внедрений
▶️Архитектура данных
▶️Управление данными
▶️Машинное обучение и искусственный интеллект в разработке инструментов управления данными

Если вы бы хотели выступить с другой темой, тоже смело подавайте заявку! Программный комитет обязательно ее рассмотрит.

Узнать больше о бонусах для спикеров, изучить этапы процесса подготовки и подать заявку можно на сайте.

🖇Ждем ваших докладов на Data Internals X 2025!
Forwarded from Dmitry R
#вакансия #remote #fulltime

Позиция: Senior Data Engineer
🏦 Компания: Rusprofile
💰 Вилка ЗП: от 300.000 до 450.000 на руки (готовы платить выше указанной вилки, если твой опыт отвечает всем нашим ожиданиям)

Rusprofile — быстрорастущая частная компания, один из лидеров российского рынка RegTech. Сервис помогает компаниям быстро и эффективно принимать критические для бизнеса решения на основе данных, собираемых ежедневно из десятков источников. Аудитория Rusprofile — это около 10 млн пользователей в месяц и десятков тысяч платящих клиентов, от малого бизнеса до крупных корпораций.

Про наш стэк: ClickHouse, Airflow, Kafka, Superset, Mysql, Python, PHP, Docker, Git.


⚙️ Твои задачи будут включать:

1. Погружение в текущую инфраструктуру данных:
- Изучение существующего хранилища данных, структуры и настройки (ClickHouse, MySQL), пайплайнов данных и инструментов (Airflow, Superset, Kafka);
- Погружение в текущие процессы и практики команды.

2. Планирование и определение приоритетов:
- Выявление возможностей для быстрых оптимизаций в текущей инфраструктуре и процессах;
- Разработку плана тактических улучшений текущей инфраструктуры данных на ближайшие 3-4 месяца, совместно с CTO;
- Определение топ приоритетных задач, которые должны быть обязательно закрыты в течение испытательного срока.

3. Перенос инфраструктуры данных на IaC:
- Поиск, выбор внешнего партнера (вероятно flant или express42) и запуск пилотного проекта по переходу на IaC в первые 3 месяца;
- Планирование и начало реализации полного перехода с bare metal на IaC в течение полугода.

4. Взятие на себя ответственности за инфраструктуру данных:
- Стать владельцем текущего стека данных и процессов;
- Обеспечение поддержки и стабильной работы существующей инфраструктуры.

5. Сотрудничество с командами:
- Налаживание эффективного взаимодействия с продуктовой командой, разработчиками и командой инфраструктуры;
- Обеспечение коммуникации и совместной работы над проектами по развитию инфраструктуры данных.


Как понять что ты подойдешь

- Опыт работы от 3 лет в роли Data Engineer;
- Глубокое знание SQL и понимание методик оптимизации запросов;
- Уверенное владение Python;
- Опыт работы с Airflow, Superset, ClickHouse;
- Понимание устройства реляционных и нереляционных баз данных;
- Умение разрабатывать ETL/ELT пайплайны на базе Airflow;
- Навыки мониторинга и отладки пайплайнов обработки данных;
- Умение проектировать архитектуру данных в том числе индексы, партиционирование, шардирование;
- Понимание принципов data quality и data lineage;
- Опыт работы с Docker и контейнеризацией;
- Знание Linux на уровне базового администрирования;
- Опыт работы с Git;
- Умение самостоятельно развертывать и поддерживать сервисы обработки данных;
- Опыт настройки и оптимизации производительности СУБД;
- Базовые навыки практик DevOps;
- Опыт работы с CI/CD.


Что мы предлагаем

- Свободу действий в принятии решений и высокий уровень ответственности - у тебя будет возможность влиять на продукт и строить процессы так, чтобы они помогали бизнесу достигать своих целей;
- Интересный продукт в одном из самых быстрорастущих сегментов рынка во всем мире. У нас большие стратегические планы по развитию стека обработки данных и сейчас очень ранний этап работы с этими планами, есть возможность сразу сделать хорошо почти с нуля;
- Основной бизнес компании - данные. Лучшего применения своим знаниям трудно представить, так как от эффективности и скорости работы с данными напрямую зависит успех;
- Гибкий график и возможность удаленной работы (можно также работать в нашем офисе в Москва-Сити с потрясающим видом на столицу);
- Работу в аккредитованной ИТ компании с полным соблюдением ТК РФ;
- Любую технику для работы;
- ДМС, 7 Day Off, оплату обучения, семинаров и конференций.

Откликнуться сюда 📩 @fuelhett
Forwarded from Elena Vasilchenko
Data Engineer (middle) в inDrive
inDrive — международная технологическая платформа транспортных услуг.

Наш стек:
Languages: Python, SQL, Scala, Go
Frameworks: Spark, Apache Beam Storage and
Analytics: BigQuery, GCS, S3, Trino, other GCP and
AWS stack components Integration: Apache Kafka,
Google Pub/Sub, Debezium, Zero ETL, Firehose ETL: Airflow2
Infrastructure: Kubernetes, Terraform Development: GitHub, GitHub Actions, Jira

Задачи:
- Развивать культуру управления данными в компании
- Разрабатывать процессы обработки, хранения, очистки и обогащения данных
- Проектировать и поддерживать конвейеры передачи данных от сбора до использования
- Разрабатывать API (REST, gRPC) для высоконагруженных сервисов
- Создавать инфраструктуру для хранения и обработки больших массивов данных на K8S, Terraform
- Автоматизировать тестирование, валидацию и мониторинг данных
- Участвовать в проектировании системы и принятии архитектурных решений

Мы друг другу подойдем, если у вас есть:
- Опыт Python 3.7+, PySpark и глубокое знание SQL
- Обширный опыт создания ETL с Airflow 2, опыт работы в промышленных условиях с Kubernetes
- Понимание принципов и алгоритмов обработки данных
- Отличное знание ООП, шаблонов проектирования, чистой архитектуры
- Продуктивность, ответственность и способность брать ответственность на себя
Было бы плюсом: Опыт работы с высоконагруженными сервисами, навыки DevOps и опыт автоматизации CI/CD

Мы предлагаем:
- Стабильная заработная плата, официальное трудоустройство
- Медицинская страховка
- Смешанный режим работы и гибкий график
- Для кандидатов из других регионов предлагается пакет услуг по переезду (для Казахстана и Кипра)
- Доступ к профессиональным консультационным услугам, включая психологическую, финансовую и юридическую поддержку
- Разнообразные программы внутреннего обучения
- Частично или полностью оплачиваемые дополнительные курсы повышения квалификации
- Все необходимое рабочее оборудование



:pushpin:Присылать CV и задавать вопросы сюда → @vasilchenkoelena
Forwarded from Valentina
#вакансия

Компания:Excdev
Удаленный формат работы из любой страны.
График с 10.00 до 19.00 по московскому времени.
Зарплата:от 2000$ до 3300$
Должность: Data engineer


Чем предстоит заниматься:
Обязанности:
1. Разработка и поддержка ETL/ELT процессов
• Проектирование, разработка и оптимизация пайплайнов в Airflow для загрузки и трансформации данных.
• Автоматизация загрузки данных из различных источников (БД, API, файловые хранилища).
• Оптимизация ETL-процессов для работы с большими объемами данных.
2. Работа с базами данных (ClickHouse, PostgreSQL)
• Проектирование моделей данных и схем хранения для аналитики.
• Оптимизация SQL-запросов, индексация, настройка партиционирования и репликации.
• Настройка и поддержка ClickHouse и PostgreSQL для высоконагруженных аналитических задач.
3. Витринизация данных и подготовка аналитики
• Разработка агрегированных витрин данных для BI-инструментов (Tableau).
• Настройка процессов обновления данных в витринах.
• Оптимизация хранения данных и построение OLAP-структур.
4. Интеграция и работа с API
• Подключение к внешним API и автоматизация выгрузок данных.
• Разработка сервисов для передачи данных между системами.
• Создание механизмов стриминговой обработки данных (Kafka/RabbitMQ).
5. Автоматизация и DevOps-практики
• Настройка мониторинга процессов (логирование, алерты, метрики).
• Поддержка CI/CD-процессов для деплоя ETL-скриптов.
• Контейнеризация сервисов с использованием Docker/Kubernetes.
6. Работа с аналитиками и бизнес-командами
• Сбор требований от аналитиков и продуктовых команд.
• Дизайн моделей данных с учетом бизнес-логики и аналитических нужд.
• Поддержка пользователей BI-отчетности (оптимизация запросов, настройка дашбордов).
7. Обеспечение качества и безопасности данных
• Контроль целостности данных и обработка ошибок загрузки.
• Настройка доступов и ролевой модели для работы с данными.
• Разработка тестов и механизмов валидации данных.


Требования:
• Высшее образование в области информационных технологий, математики или смежных дисциплин.
• Опыт работы с инструментами ETL/ELT (Apache Airflow) не менее 2-х лет.
• Уверенные знания SQL и опыт работы с базами данных ClickHouse и PostgreSQL.
• Опыт разработки BI-решений и работы с инструментами визуализации данных (Tableau).
• Знания в области интеграции API и опыт работы с Kafka/RabbitMQ.
• Опыт работы с Docker/Kubernetes и понимание DevOps-практик.
• Умение работать в команде, высокая степень ответственности и внимание к деталям.
• Хорошие коммуникативные навыки и способность взаимодействовать с аналитиками и бизнес-командами.

Контакт для связи :
@VLT_recruiter
Forwarded from Tanya Dementeva
BI-разработчик

Зарплатная вилка: от 80 000 до 200 000
Формат работы: удаленный
График: 5/2

Компания – консалтинговая компания, специализирующаяся на бизнес-аналитике (BI), расширенной аналитике данных (Advanced Analytics) и архитектуре данных для бизнес-аналитики в сфере FMCG. Мы создаем решения, которые помогают нашим клиентам извлекать максимум ценности из данных.

Обязательные требования:

1) Высшее техническое образование ❗️
2) Английский от B2 (будет интервью на английском языке) ❗️
3) Хороший SQL
❗️

Обязанности:

- Участие в полном цикле разработки BI-решений.
- Проектирование и разработка архитектуры баз данных, структур данных, таблиц, словарей.
Разработка ETL процессов с использованием инструментов (Informatica Power Center, SSIS, и др.).
- Работа с базами данных (Oracle, MS SQL, DB2): проектирование, создание процедур, представлений.
- Создание и поддержка хранилищ данных, управление нормативно-справочной информацией.
- Разработка отчетов и визуализаций (Power BI, MicroStrategy, Tableau, Qlik, BW).
- Создание сложных корпоративных отчетов (вложенные, drill-down, вычисляемые метрики).


Требования:

- Экспертное знание SQL.
- Опыт разработки OLAP-кубов.
- Владение Excel на экспертном уровне (Pivot Tables, VLOOKUP, SUM, SUMIF, макросы, Power Query).
- Опыт работы с ETL инструментами (Informatica, SSIS, Azure Data Factory и др.).
- Уверенное знание баз данных (Oracle, MS SQL, DB2).
- Навыки работы с BI-платформами (Power BI, MicroStrategy, Tableau, Qlik, SSAS/SSRS).
- Английский язык: от B2 (способность общаться, задавать и отвечать на вопросы).
- Высшее техническое образование (обязательно).

Этапы отбора:

1) HR-собеседование.
2) Техническое интервью с экспертом компании (возможно тестовое задание).

Если вам интересна данная позиция и вы хотели бы обсудить детали, пожалуйста, свяжитесь со мной. Буду рада ответить на любые ваши вопросы и обсудить возможное сотрудничество.

С уважением, Татьяна Дементьева

IT рекрутер @aeravn
Forwarded from Олег
Data Engineer в команду продуктовой аналитики Yandex Infrastructure

Город: Москва, Санкт-Петербург, гибридный формат работы.
Уровень специалиста: middle+

О нас:
Инфраструктура Яндекса — это технологии, системы и сервисы для работы наших продуктов, которые ежедневно используют разработчики компании. Мы обеспечиваем полный цикл разработки — от написания кода до развёртывания приложений и сервисов. Наша команда активно работает с данными, строит аналитику, обучает ML-модели и принимает продуктовые решения. Для этого мы развиваем своё хранилище данных.

Какие задачи вас ждут:
— Разработка DWH
Вам предстоит разрабатывать ETL-процессы на внутренних инструментах с использованием Python и YQL (внутреннего диалекта SQL). Нужно будет проектировать сущности из данных и создавать витрины для аналитики и ML.

— Проработка интеграций
Вам предстоит разобраться во всех тонкостях десятков систем-источников, которые хранят данные в различных базах и разных форматах, чтобы свести всё к понятному формату для построения качественных витрин.

— Оптимизация кода
Вам предстоит оптимизировать код, чтобы обеспечить быструю обработку большого объёма данных. Мы занимаемся постоянным улучшением существующих ETL-процессов и ищем возможности ускорения запросов.

Мы ждем, что вы:
— Отлично владеете Python и SQL
— Владеете навыками проектирования с использованием ER modeling и dimensional modeling
— Готовы погружаться в специфику инфраструктуры и тесно общаться с разработчиками и менеджерами
— Готовы активно участвовать в улучшении существующих процессов команды, включая процесс разработки

Узнать подробнее и откликнуться.
Forwarded from Trino и CedrusData
Всем привет! 24 апреля в Москве в офисе Лемана Тех пройдет очередной митап по технологиям Trino и Apache Iceberg! Также будет доступна онлайн-трансляция.

В программе:
- Доклад от Лемана Тех про миграцию на Trino
- Доклад от Азбуки Вкуса про использование каталога Nessie
- Круглый стол про проблемы внедрения lakehouse с инженерами T-Банк, S7 Airlines, Лемана Тех и Кверифай Лабс

Регистрация по ссылке: https://cedrusdata.timepad.ru/event/3299844/
Data jobs feed pinned «Всем привет! 24 апреля в Москве в офисе Лемана Тех пройдет очередной митап по технологиям Trino и Apache Iceberg! Также будет доступна онлайн-трансляция. В программе: - Доклад от Лемана Тех про миграцию на Trino - Доклад от Азбуки Вкуса про использование…»
Forwarded from Darya Mardan
Привет!
Я Дарья, сорсер в ОнЗэСпот. Мы сейчас находимся в поиске специалистов для нашего заказчика. Мог бы ты, пожалуйста, опубликовать пост?

#вакансия #vacancy #job #senior #hybrid #poland #warsaw #bigdataengineer

Vacancy: Big Data Engineer
Location: Warsaw
Format: Hybrid
Type of Contract: B2B

Orca Security is a leading cloud infrastructure security platform. If you like working with cutting-edge tech and solving real security challenges, this might be your perfect match!

Key Responsibilities:
- Design, develop, and maintain scalable and robust data pipelines for processing large datasets
- Optimize ETL/ELT workflows to ensure high performance, scalability, and efficiency
- Work with structured and unstructured data from multiple sources (e.g., logs, events, databases, APIs, and streams)


Requirements:
- 5+ years of experience in designing and developing data pipelines for big data processing
- Expertise in Python, Scala, or Java for data engineering tasks
- Proficiency with big data technologies like Apache Spark, Flink, Kafka, or Hadoop
- Experience with stream processing frameworks (Kafka Streams, Apache Flink, or Spark Streaming)
- Experience working with cloud platforms such as AWS, GCP, or Azure (e.g., S3, Athena, Redshift, BigQuery, Databricks)


📩 For inquiries, contact me on Telegram: @seele_99
Forwarded from Ilya
Ищу Senior Data Engineer (https://invent.us/careers/#job_senior-data-engineer)
Локация: не РФ/РБ/Украина(так как регуляторы US запрещают это)

Компания: Invent (https://invent.us)
Создаём fintech продукты на американском рынке. Один из новых проектов - Data Warehouse, сейчас активно развивается поэтому ищем пополнение в команде.

Требования:
- Опыт работы как Data Engineer от 5 лет
- Большой опыт работы с Python и SQL
- Понимание big data как в теории, так и на практике
- Опыт работы с Airflow, DBT, DWH, Data Vault 2

Условия:

🌍 контракт на иностранное ИП, не РФ/РБ/Украина
🏠 полная удалёнка
📃 full-time, оплата в USD

За подробностями в личку - @implicat
Forwarded from Tanya
Привет! Крупный банк ещет крутого Middle- Data Engineer в антифрод-команду, который хочет развиваться в области обработки больших данных и борьбы с мошенничеством.
Зарплатная вилка: от 280 000 руб на руки.
Основные требования:
1. Технологический стек:
- Обязательно: Hadoop, Apache Spark (PySpark), SQL, Python, Airflow.
- Плюсом: Kafka, DWH (Greenplum/ClickHouse), CI/CD, юнит-тестирование, мониторинг.
- Специфика: Опыт работы с Big Data в антифрод-системах или смежных областях (например, финтех, кибербезопасность).

2. Опыт:
- 2+ года в Data Engineering.
- Поддержка и оптимизация ETL-пайплайнов, интеграция данных, контроль их качества.

3. Soft Skills:
- Умение работать в Agile-команде.
- Готовность участвовать в код-ревью и делиться экспертизой.

Условия:
- Удалёнка, в том числе за пределами РФ или гибрид в Москве.
- Обучение за счет компании и участие в конференциях (HighLoad, JPoint).
- Соцпакет: страховка со стоматологией, льготные продукты банка.
- Развитие в DE-коммьюнити — возможность обмена опытом.

Контакты HR для связи: @privet_tanya
Forwarded from Evgenia
Григорий, привет. Размести пжлста вакансию
Вакансия: Middle Data engineer
Формат: Удаленный / Гибрид
Вилка: от 180 000 рублей до 250 000 рублей net
Локация: РФ

Привет! :) Меня зовут Евгения и я HR бизнес-партнер в компании Aplaut. Мы - продуктовая MarTech компания для eCommerce, лидер на Российском рынке среди сервисов по управлению UGC. Наши клиенты входят в топ-100 отечественного eCommerce: Спортмастер, Лемана Про (Леруа Мерлен), Эльдорадо, Ситилинк и т.д.

Сейчас ищем крутого Data Engineer для нашей продуктовой команды. Твоя задача – совместно с DevOps и аналитиком развивать и совершенствовать архитектуру Data Lake и DWH, создавать и оптимизировать ETL/ELT пайплайны и обеспечивать корректную интеграцию данных из различных источников.

Ты активно будешь взаимодействовать с разработчиками, менеджером продукта и своим главным боссом - Техническим директором.

Мы работаем по Scrum — у нас короткие спринты, четкие приоритеты и минимум встреч.


Задачи:
- Разрабатывать, оптимизировать и поддерживать ETL/ELT-процессы на базе Meltano.
- Интегрировать данные из REST API, баз данных, файловых хранилищ.
- Разрабатывать и поддерживать кастомные Meltano taps и targets.
- Работать с PostgreSQL, Mongodb, Elasticsearch и другими хранилищами.
- Автоматизировать обработку данных с использованием Dagster.
- Оптимизировать производительность data pipelines.
- Обеспечивать контроль качества данных, работать с метриками и мониторингом.

Мы ждем, что у тебя:
- Опыт работы Data Engineer от 2 лет.
- Уверенные знания Python и его экосистемы для работы с данными (pandas, SQLAlchemy, requests).
- Опыт работы с Meltano (настройка, разработка кастомных taps/targets, интеграция).
- Опыт работы с dbt.
- Знание SQL и реляционных баз данных (PostgreSQL, MySQL).
- Опыт работы с облачными платформами.
- Опыт работы с Dagster (настройка и оркестрация data pipelines).
- Опыт работы с форматами данных (JSON/Parquet/ Avro/CSV).
- Уверенные знания Docker.

Как плюс:
- Опыт работы с Kafka.
- Опыт построения data lake и dwh архитектур.

Почему мы?
- Мы работаем над собственными продуктами небольшой командой и являемся лидером рынка в сегменте UGC.
- У нас прозрачные бизнес-процессы, отсутствие микроменеджмента, минимум бюрократии и свобода в принятии решений.
- Ты быстро увидишь результаты своей работы, в отличии от корпораций.
- Стремимся к достижению амбициозных целей.

Что мы предлагаем:
- Аккредитованная ИТ компания.
- Официальное оформление по ТК с первого дня, есть возможность оформления как самозанятый.
- Гибкий график работы.
- Удаленный формат работы для сотрудников из регионов и гибрид для сотрудников из Москвы.
- Уютный лофт-офис в 5 минутах пешком от метро Электрозаводская.
- Финансирование обучения для сотрудников и профессиональная литература за счет компании.
- Возможность использовать sick day вместо больничного 5 дней в году.
- Лучшая команда, которая всегда придет на помощь.
- Насыщенная корпоративная жизнь.

Для связи: @Evgenika_hr
Forwarded from Yuliya Grin
#вакансия #удалённо #parttime #RL #ML #NLP #преподаватель

Компания: образовательная платформа OTUS

Вакансия: преподаватель онлайн-курсов:
- Reinforcement Learning
- ML для финансового анализа
- NLP

Требуется от 3-4 лет опыта в DS и знания в области тематики курса. Темы занятий - на выбор из программы (подробнее в лс).

Можно без опыта преподавания — мы научим всему необходимому 🦉

Обязанности:
- Подготовиться к занятиям и провести их. Формат занятий: онлайн, важно уделять внимание практике. Здесь вы сможете развивать свои навыки публичных выступлений, работы с аудиторией и подачи обратной связи
- За доплату возможна проверка домашних заданий и проектов

Условия:
Занятия по будням с 20:00 до 21:30, можно оставлять пожелания по расписанию (есть дни на выбор)
Оплата: от 3000 до 6000 руб. за вебинар (полтора часа) и 300-400 рублей за проверку 1 домашнего задания, 1000 руб. за проверку 1 проекта
Бонусы: доступ к курсам OTUS, нетворкинг, развитие личного бренда, наши воркшопы и конференции

Обсудить подробнее: @yu_grin 📩
Please open Telegram to view this post
VIEW IN TELEGRAM
2025/04/12 00:25:17
Back to Top
HTML Embed Code: