Big Data разработчик
В архиве с 11 ноября 2017
от 250 000 ₽ до вычета налогов
Требуемый опыт работы: 3–6 лет
Полная занятость, полный день
Москва
Вакансия в архиве
Работодатель, вероятно, уже нашел нужного кандидата и больше не принимает отклики на эту вакансию
Похожие вакансии
Москва, Технопарк
Опыт от 1 года до 3 лет
Настраивать инструменты контроля качества данных. Работать с требованиями, поступающими от аналитиков. Решать adhoc-задачи по сборке витрин на базе BigData.
Знания Python (pandas, numpy). Знание SQL (оконные функции, виды джойнов). Знания git. Будет плюсом опыт работы с большими данными (hadoop...
Москва, Технопарк
Опыт от 1 года до 3 лет
Процессить данные, собирать витрины с помощью pyspark на хадуп-кластере (постановка – от аналитиков). Выстраивать регламенты обработки данных (Airflow).
Знание и опыт работы с Python. Знание и опыт работы с SQL. Опыт работы с Spark, Hive, Hadoop. Знание PostgeSQL.
Опыт от 1 года до 3 лет
Откликнитесь среди первыхМожно из дома
Построение, валидация и поддержка скоринговых модели для страховых продуктов на основе транзакционной и поведенческой информации. Анализ и обработка больших массивов...
Высшее техническое образование (будет преимуществом – МГУ, МФТИ, МГТУ им. Баумана, СПбГУ). Уверенное понимание методов как классического скоринга, так и машинного...
Опыт более 6 лет
Разрабатывать новые сервисы и подсистемы продукта, развивать существующие. Активно участвовать в проектировании архитектуры распределенной высоконагруженной системы и разработке продуктовых фич.
Опыт коммерческой разработки на Java 11+ или Kotlin. Опыт коммерческой разработки с любым из фреймворков: Spring Boot, Quarkus, Micronaut...
Москва
Опыт от 3 до 6 лет
Можно из дома
Анализировать источники данных. Создавать процессы интеграции данных в DWH. Создавать процессы обновления данных внутри DWH. Помогать аналитикам с созданием витрин.
Опыт работы в DWH, Python, SQL в совершенстве. Понимание архитектуры построения хранилищ. Знание отличия Anchor от Data Vault.
Опыт от 3 до 6 лет
Загружать и обрабатывать в DWH данных внутренних и внешних систем (стек Kafka, PySpark, Hadoop, Clickhouse, AirFlow). Принимать участие в построении...
Опыт обработки больших данных, знание принципов работы БД и методологий моделирования. Продвинутый уровень владения Spark, Python, Apache AirFlow, SQL.
Москва