Пропустити навігацію EPAM

EPAM Big Data Hiring Week

29 березня - 2 квітня, 2021
Онлайн
Україна

Цей захід завершено. Але у нас завжди є цікаві пропизиції співпраці для Big Data-інженерів.

Тож якщо ви хотіли б поспілкуватися стосовно ролей в EPAM, заповніть форму і ми зв'яжемося з вами.

Запрошуємо

Big Data-інженерів рівня Middle і вище:

  • Досвід роботи з Big Data-інфраструктурою (MapReduce, Hive, HDFS, YARN, HBase, Oozie)
  • Розробка Spark RDD/DF/SQL, Spark Streaming додатків
  • Досвід роботи з Data і Data Management технологіями, SQL, NoSQL
  • Використання інструментів і програм Big Data-екосистеми: Kafka/Scoop, NoSQL

  • Професійне знання хоча б однієї мови програмування: Python/Java/Scala
  • Досвід використання AWS/Azure Clouds буде перевагою
  • Професійне використання Unix
  • Рівень англійської: B1+
  • 4-5 років досвіду роботи в Data Engineering сфері у ролі Data Engineer
  • Вміння слідкувати за новітніми трендами, тенденціями і практиками у галузі
  • Вміння аналізувати Big Data рішення і пошук оптимального дизайну Data Warehouse
  • Досвід роботи з Cloud-based Solutions Design
  • Навички ділового спілкування і презентації
  • Управління командою від 5 людей
  • Рівень англійскої: B2+
  • Понад 4 роки досвіду роботи у ролі інженера програмного забезпечення для великих даних з великим досвідом дизайну/розробки на Java, Scala або Python
  • Досвід роботи з Google Storage, DataProc
  • Впевненні знання Stackdriver, DataFlow
  • Досвід розробки проєктів з аналітики даних та створення рекомендацій щодо архітектури
  • Знання методики розробки Agile, зокрема Scrum
  • Сильні комунікативні навички
  • Досвід безпосереднього спілкування з клієнтами та попереднього продажу бізнес-консалтингових проєктів клієнтам у великих корпоративних середовищах
  • Рівень англійської: B2+

Перевагою буде:

  • Досвід роботи з HIVE, Spark, Apache Hadoop
  • Досвід роботи на комерційних проєктах

 

  • Понад 5 років досвіду роботи у Data Engineering сфері у ролі Data Engineer
  • Вміння слідкувати за новітніми трендами, тенденціями та практиками у галузі
  • Гавички аналізу Big Data-рішень і пошуку оптимального дизайну Data Warehouse
  • Досвід роботи з Cloud-based Solutions Design
  • Навички ділового спілкування і презентації
  • Управління командою від 10 людей
  • Рівень англійської: B2+

Практика інженерії великих даних в EPAM

Data & Analytics PRACTICE

Data & Analytics практика надає end-to end сервіси, включно з Data & Analytics консультуванням, Data Platform Engineering, Data Science, Machine learning та Enterprise Analytics для міжнародних компаній у різних вертикалях.

Intelligent Automation

Intelligent Process Automation Competence охоплює розробку та впровадження бізнес-процесів, управління бізнес-кейсами та аналітику, автоматизацію когнітивних / робототехнічних систем тощо.

В ЕРАМ існує можливість співпрацювати з компанією на крутих проєктах незалежно від вашої локації.
Тому, якщо вас зацікавила пропозиція і ви живете в місті, де немає офісу EPAM, ми пропонуємо вам приєднатися віддалено.  

Клієнти і Проєкти

Генна інженерія в Агропромисловості

Наш клієнт - один із найбільших у світі розробник і виробник високоякісного насіння, лідер із виробництва засобів захисту рослин. Компанія працює з великою кількістю даних про генотипи і фенотипи рослин, розшифровуючи геном кожного покоління до базових амінокислот, використовує машинне навчання для покращення селекції.

Аналіз та аналітика даних є невід'ємною частиною бізнесу клієнта і потребують значних ресурсних затрат. Клієнту необхідна суттєва оптимізація на рівні зберігання і процесингу даних. Додаткової уваги потребує балансування пікових навантажень на систему.

Мета проєкту - зменшити вартість роботи з аналітикою та перенести у AWS хмару.

Проєктні активності:

  • Налаштування середовища
  • Побудова ETL і pipelines
  • Оркестрація потоку
  • Прийом та перевірка даних
  • Інтеграція Spark на EMR
  • Автоматизація
  • Запит даних і аналітика

Технологічний стек:

  • AWS (S3, EMR, Athena)
  • Hadoop (Cloudera),
  • Spark, Spark SQL, Spark streaming
  • Docker
  • Airflow
Клієнти та проєкти

Провайдер кур'єрських послуг

Клієнт - Британська кур’єрська компанія зі штаб-квартирою у Лондоні і річним доходом понад $10 млрд, яка забезпечує доставлення вантажів та документів в межах як Британії, так і всього світу. Компанія налічує понад 150 тис. працівників.

EPAM забезпечує розробку та імплементацію багатьох проєктів клієнта:

  • Міграція додатків, що вже існують та баз даних у хмару - Google Cloud
  • Інтеграційні проєкти
  • Трансформація даних
  • Побудова звітів

Основним технологічним стеком є Google Cloud (Apache Airflow або Google Cloud Composer, Google DataFlow, Pub/Sub або Kafka, Google DataProc, BigQuery).

Мови програмування: Python або Java.

Процес розробки програмного забезпечення базується на SAFe та Agile / Scrum методології з двотижневими ітераціями.

Клієнти та проєкти

Міжнародний постачальник фармацевтичного сервісу

Наш клієнт - одна з найбільших і найбільш шанованих фармацевтичних компаній у світі, яка використовує науково обґрунтовані інновації для досягнення кращих результатів для пацієнтів і прагне лідирувати у зростаючих сферах охорони здоров'я.

Мета проєкту: впровадження Sandoz Data Hub на платформі клієнта. Необхідно розробити повний конвеєр даних від введення даних до зони посадки, через інтеграцію/уніфікацію даних та удосконалення слоїв; розробити систему управління бізнес-правилами і основні можливості додатку (механізм управління даними і сервіс із обслуговування, сервіс аудиту та моніторингу, інформаційний портал).

Технології: Big Data - ETL, Spark, DataBricks, Redshift, S3, Python, SQL, AWS

Клієнти та проєкти

Провайдер страхових послуг

Наш клієнт - канадський провайдер послуг у сфері майнового страхування та страхування від нещасних випадків. Це одна з провідних і найбільш надійних страхових компаній у цій країні, яка вже майже 150 років на ринку.

Задачі проєкту:

  • Рефакторинг існуючих Pentaho DI jobs з тим, щоб використовувати Parquet замість зберігання даних у CSV
  • Впровадження Quality Gates і Rerun Points із використанням Spark
  • Переробка Pentaho DI ETL jobs в Spark

Технології:

  • Hadoop-стек: HDFS, Hive, Impala
  • Spark
  • ETL (переважно Pentaho)
  • Cloudera 5.1+
Клієнти і Проєкти

компанія з обслуговування клієнтів

Наш клієнт — відомий CRM бренд, компанія з обслуговування клієнтів, яка надає свої сервіси і рішення клієнтам у 160 країнах.

Проєкт #1: ми працюємо над продуктом, який забезпечить аналітику для бізнесу, що буде оцінювати й поліпшувати весь клієнтський досвід. Команда працюватиме саме над створенням нових наборів даних у межах цього продукту. Основні процеси наступні: 

  • Витягування даних

Для реалізації витягування даних продукт потребує колекцій, доступних через API сервісу збору даних.

  • Перетворення та завантаження

За допомогою документів із вимогами, які описують кінцевий результат в Postgres / Redshift і логіку перетворень, команда розробників реалізовує перехід на Scala з використанням Spark і EMR

  • Створення набору даних у всіх сервісах продукту

Набір даних повинен бути визначений у продукті. Це означає, що майже всі сервіси мають бути інформовані про новий набір даних, а також регулярно оновлюватися. Це включає створення набору даних у коді Rails API, позначаючи правила доступу (який тип облікового запису має доступ до набору даних) і feature flag, що використовується для доступу до нього. 

Клієнти і Проєкти

компанія з обслуговування клієнтів

Проєкт #1

  • Створення набору даних у продукті

Щойно дані стають доступними в Postgres, команда розробників може створювати набір даних за допомогою внутрішнього з'єднувача до Postgres. 

  • Повторення набору даних

На цьому етапі ми маємо набір даних Postgres на одному виробничому обліковому записі, який необхідно використовувати як шаблон для набору даних.

  • Розгортання набору даних

Після першої програми EAP / Beta набір даних розгортається для клієнтів. Оскільки це може мати величезний вплив на ETL, розгортання виконується поступово з декількома перевірками (перевірка цілісності даних, моніторинг, функціональні тести). Багато з цих перевірок проводяться вручну.

Проєкт #2: ми збираємо команду, яка буде працювати над R&D напрямом для Data Hub. Команда інфраструктури клієнта вже надає інфраструктуру для прийому даних в Apache Hudi. Обсяг роботи ефективно споживає дані з Apache Hudi і інтегрує їх в нашу наявну інфраструктуру, спочатку – як підтвердження концепції (POC) з декількома рішеннями за "методом спроб". Ми очікуємо від досвідчених інженерів із загальними знаннями AWS уміння створювати POC рішення і оцінювати їх у співпраці з командою архітектури клієнта та PMа. 

Клієнти та проєкти

Краса

Наш клієнт — американська компанія, лідер у галузі престижної краси, одна із найбільших світових компаній з виготовлення декоративної косметики і парфумерії і різноманітним асортиментом понад 25 брендів, що продаються у 150 країнах. 

Про проєкт — команда створює платформу даних про клієнтів в Azure:

  • Одне сховище для всіх споживчих даних у Європі для забезпечення можливостей ведення бізнесу
  • Забезпечення бездоганного клієнтського досвіду шляхом узгодження онлайн та офлайн споживчих та пов’язаних основних даних у Європі для підтримки бізнес-можливостей
  • Створення найкращих споживчих записів
  • Інтеграція з платформою Google Cloud
  • Інтеграція з хмарною CRM-платформою для забезпечення цільових маркетингових кампаній
  • Інтеграція зі сторонніми системами

Технологічний стек:

  • Java
  • Python
  • Scala
  • SQL
  • Azure

ТРИ ПРОСТИХ КРОКИ, ЩОБ ОТРИМАТИ ПРОПОЗИЦІЮ ТА БОНУС ЗА ПРИЄДНАННЯ ДО КОМПАНІЇ!

Заповніть форму

Будь ласка, надайте всю необхідну інформацію. Резюме допоможе нам якомога швидше повернутися до вас із відповіддю.

ЗВОРОТНІЙ ЗВ'ЯЗОК

Всі реєстрації розглядаються індивідуально. Ви отримаєте відповідь протягом трьох робочих днів.

ПРОЙДІТЬ ОНЛАЙН СПІВБЕСІДУ

Дуже зручно і безпечно, а також - економить ваш час!

Чому варто взяти участь у Big Data Hiring Week?

Постійний професійний розвиток

Для експертів EPAM доступна інформація глобальної експертизи компанії, яка накопичується завдяки співпраці з клієнтами в різних сферах, зокрема, фінансові послуги, подорожі, розваги, життєвий баланс та охорона здоров'я, програмне забезпечення та Hi-Tech та тощо. Гакатони, під час яких ми створюємо інноваційні рішення для наших клієнтів. Solution Architecture School - забезпечує фундаментальні знання з дисципліни архітектурних рішень і доступна лише для EPAM-ерів. Потужна Big Data-спільнота, яка дозволяє постійно розвивати професійні навички.

Чому варто взяти участь у Big Data Hiring Week?

Бонус за приєднання

Отримайте signing-бонус у розмірі Middle - $1500, Senior - $3000, Lead і вище - $4000, у разі якщо ви приймаєте пропозицію співпраці протягом 24 годин після того, як отримали пропозицію від нас.

 

Чому варто взяти участь у Big Data Hiring Week?

НОВА РОБОТА ЗА 24 ГОДИНИ

Ми цінуємо ваш час. Ось чому формат цього заходу був запланований так, щоб ви змогли отримати нову роботу лише за 24 години. Вам не потрібно планувати кілька співбесід, довго чекати рішення і витрачати дорогоцінний час.

 
 

Заповніть форму, якщо вам цікава співпраця з EPAM

Дякуємо за реєстрацію! Наша команда Talent Acquisition зв’яжеться з вами найближчим часом.

Щось пішло не так. Будь ласка, спробуйте ще раз.

Нам дуже важливо отримати ваше резюме. Якщо ви не можете додати документ з мобільного пристрою, залиште посилання, за яким ми зможемо знайти ваше резюме в Інтернеті.

Перетягніть сюди файл або натисніть, щоб вибрати з файлів

Учасники EPAM University Programs не можуть брати участь у хайрінг-заходах EPAM. Стосовно кар'єрних можливостей, будь ласка, зверніться до свого куратора.