Цей захід завершено. Але у нас завжди є цікаві пропизиції співпраці для Big Data-інженерів.
Тож якщо ви хотіли б поспілкуватися стосовно ролей в EPAM, заповніть форму і ми зв'яжемося з вами.
Цей захід завершено. Але у нас завжди є цікаві пропизиції співпраці для Big Data-інженерів.
Тож якщо ви хотіли б поспілкуватися стосовно ролей в EPAM, заповніть форму і ми зв'яжемося з вами.
Big Data-інженерів рівня Middle і вище:
Перевагою буде:
Data & Analytics практика надає end-to end сервіси, включно з Data & Analytics консультуванням, Data Platform Engineering, Data Science, Machine learning та Enterprise Analytics для міжнародних компаній у різних вертикалях.
Intelligent Process Automation Competence охоплює розробку та впровадження бізнес-процесів, управління бізнес-кейсами та аналітику, автоматизацію когнітивних / робототехнічних систем тощо.
В ЕРАМ існує можливість співпрацювати з компанією на крутих проєктах незалежно від вашої локації.
Тому, якщо вас зацікавила пропозиція і ви живете в місті, де немає офісу EPAM, ми пропонуємо вам приєднатися віддалено.
Наш клієнт - один із найбільших у світі розробник і виробник високоякісного насіння, лідер із виробництва засобів захисту рослин. Компанія працює з великою кількістю даних про генотипи і фенотипи рослин, розшифровуючи геном кожного покоління до базових амінокислот, використовує машинне навчання для покращення селекції.
Аналіз та аналітика даних є невід'ємною частиною бізнесу клієнта і потребують значних ресурсних затрат. Клієнту необхідна суттєва оптимізація на рівні зберігання і процесингу даних. Додаткової уваги потребує балансування пікових навантажень на систему.
Мета проєкту - зменшити вартість роботи з аналітикою та перенести у AWS хмару.
Проєктні активності:
Технологічний стек:
Клієнт - Британська кур’єрська компанія зі штаб-квартирою у Лондоні і річним доходом понад $10 млрд, яка забезпечує доставлення вантажів та документів в межах як Британії, так і всього світу. Компанія налічує понад 150 тис. працівників.
EPAM забезпечує розробку та імплементацію багатьох проєктів клієнта:
Основним технологічним стеком є Google Cloud (Apache Airflow або Google Cloud Composer, Google DataFlow, Pub/Sub або Kafka, Google DataProc, BigQuery).
Мови програмування: Python або Java.
Процес розробки програмного забезпечення базується на SAFe та Agile / Scrum методології з двотижневими ітераціями.
Наш клієнт - одна з найбільших і найбільш шанованих фармацевтичних компаній у світі, яка використовує науково обґрунтовані інновації для досягнення кращих результатів для пацієнтів і прагне лідирувати у зростаючих сферах охорони здоров'я.
Мета проєкту: впровадження Sandoz Data Hub на платформі клієнта. Необхідно розробити повний конвеєр даних від введення даних до зони посадки, через інтеграцію/уніфікацію даних та удосконалення слоїв; розробити систему управління бізнес-правилами і основні можливості додатку (механізм управління даними і сервіс із обслуговування, сервіс аудиту та моніторингу, інформаційний портал).
Технології: Big Data - ETL, Spark, DataBricks, Redshift, S3, Python, SQL, AWS
Наш клієнт - канадський провайдер послуг у сфері майнового страхування та страхування від нещасних випадків. Офіси компанії по всій Канаді. Це одна з провідних і найбільш довірених страхових компаній у цій країні, яка вже майже 150 років на ринку.
Задачі проєкту:
Технології:
Наш клієнт — відомий CRM бренд, компанія з обслуговування клієнтів, яка надає свої сервіси і рішення клієнтам у 160 країнах.
Проєкт #1: ми працюємо над продуктом, який забезпечить аналітику для бізнесу, що буде оцінювати й поліпшувати весь клієнтський досвід. Команда працюватиме саме над створенням нових наборів даних у межах цього продукту. Основні процеси наступні:
Для реалізації витягування даних продукт потребує колекцій, доступних через API сервісу збору даних.
За допомогою документів із вимогами, які описують кінцевий результат в Postgres / Redshift і логіку перетворень, команда розробників реалізовує перехід на Scala з використанням Spark і EMR
Набір даних повинен бути визначений у продукті. Це означає, що майже всі сервіси мають бути інформовані про новий набір даних, а також регулярно оновлюватися. Це включає створення набору даних у коді Rails API, позначаючи правила доступу (який тип облікового запису має доступ до набору даних) і feature flag, що використовується для доступу до нього.
Проєкт #1:
Щойно дані стають доступними в Postgres, команда розробників може створювати набір даних за допомогою внутрішнього з'єднувача до Postgres.
На цьому етапі ми маємо набір даних Postgres на одному виробничому обліковому записі, який необхідно використовувати як шаблон для набору даних.
Після першої програми EAP / Beta набір даних розгортається для клієнтів. Оскільки це може мати величезний вплив на ETL, розгортання виконується поступово з декількома перевірками (перевірка цілісності даних, моніторинг, функціональні тести). Багато з цих перевірок проводяться вручну.
Проєкт #2: ми збираємо команду, яка буде працювати над R&D напрямом для Data Hub. Команда інфраструктури клієнта вже надає інфраструктуру для прийому даних в Apache Hudi. Обсяг роботи ефективно споживає дані з Apache Hudi і інтегрує їх в нашу наявну інфраструктуру, спочатку – як підтвердження концепції (POC) з декількома рішеннями за "методом спроб". Ми очікуємо від досвідчених інженерів із загальними знаннями AWS уміння створювати POC рішення і оцінювати їх у співпраці з командою архітектури клієнта та PMа.
Наш клієнт — американська компанія, лідер у галузі престижної краси, одна із найбільших світових компаній з виготовлення декоративної косметики і парфумерії і різноманітним асортиментом понад 25 брендів, що продаються у 150 країнах.
Про проєкт — команда створює платформу даних про клієнтів в Azure:
Технологічний стек:
Будь ласка, надайте всю необхідну інформацію. Резюме допоможе нам якомога швидше повернутися до вас із відповіддю.
Всі реєстрації розглядаються індивідуально. Ви отримаєте відповідь протягом трьох робочих днів.
Дуже зручно і безпечно, а також - економить ваш час!