Job description
🌴 Forma pracy : fulltime, 100% zdalnie👈 ⏰ Start: pierwsza połowa stycznia 👈
Cześć! 👋
Dla naszego klienta z USA poszukujemy doświadczonego specjalisty Data Scientist. Klient z branży fintech buduje w środowisku Databricks platformę Merchant Payment Intelligence opartą na AI. Celem projektu jest transformacja sposobu, w jaki merchantci i PSP optymalizują wskaźniki akceptacji płatności. Obecnie średni wskaźnik akceptacji wynosi ok. 74%, a celem jest osiągnięcie 90%+.
Twoim zadaniem będzie transformacja sposobu procesowania płatności poprzez zastąpienie statycznych reguł adaptacyjnymi modelami ML, które uczą się na podstawie wyników transakcji w czasie rzeczywistym. Praca odbywa się w sporej skali - platforma procesuje ok. 1 miliarda transakcji miesięcznie (325GB danych streamingowych dziennie -> 150 GB PAY.ON + 175 GB UMP), co daje okazję do pracy z rzeczywistym Big Data i zaawansowanymi technikami ML.
Jakie rozwiązania będziesz tworzyć?
1. Dynamic Routing-> API działające w czasie rzeczywistym, przewidujące optymalne procesowanie płatności dla każdej transakcji (data/godzina, IP, kwota, typ karty, status 3DS)
2. AI ChatBot->silnik analityczny odpowiadający na pytania merchantów
- Smart Monitoring-> szczegółowa detekcja anomalii w zróżnicowanych wzorcach ruchu merchantów (spadki wskaźników autoryzacji, skoki 3DS, ataki botów, niedostępność metod płatności) przy minimalnej liczbie fałszywych alarmów
4. Wybór Metody Płatności-> optymalizacja widgetu płatności, rekomendującego metodę o najwyższej konwersji (Visa / PayPal / Klarna / portfele cyfrowe) na podstawie kontekstu konsumenta (region, IP, wartość zamówienia, historia)
Zakres obowiązków:
📍 Projektowanie pipeline’ów feature engineeringu dla danych transakcyjnych (wskaźniki autoryzacji, prędkość transakcji, wzorce geograficzne i czasowe, atrybuty kart i issuerów)
📍 Projektowanie, trenowanie i wdrażanie modeli ML (klasyfikacja, rekomendacje, szeregi czasowe) w środowisku produkcyjnym
📍 Feature Engineering: Budowa potoków cech (feature pipelines) dla danych transakcyjnych (auth rates, velocity, issuer attributes).
📍 Real-time Scoring: Implementacja inferencji w czasie rzeczywistym z wykorzystaniem Databricks Model Serving.
📍 MLOps: Ustanowienie workflow dla cyklu życia modeli (tracking eksperymentów w MLflow, wersjonowanie, testy A/B, monitorowanie dryfu).
📍 Skalowanie rozwiązań: Praca na ogromnych zbiorach danych (325GB/day) przy użyciu PySpark i architektury Lakehouse.
Wymagania: ⚡️ 6-7 lat w obszarach Data Science/ Machine Learning
⚡️ Doświadczenie w budowaniu i wdrażaniu produkcyjnych modeli ML
⚡️ Bardzo dobra znajomość Python/ PySpark (przetwarzanie dużych wolumenów danych)
⚡️ Praktyczna umiejętność projektowania architektur do real-time inference i streaming ML
⚡️ Doświadczenie w wykorzystywaniu API do scoringu w czasie rzeczywistym
⚡️ Doświadczenie w zaawansowanym feature engineeringu dla systemów o wysokiej przepustowości
⚡️ Znajomość algorytmów: Gradient Boosting, Random Forests, Deep Learning (DNN/RNN)
⚡️ Umiejętność podejmowania inicjatywy i samodzielność
⚡️ Angielski na poziomie umożliwiającym swobodną komunikację w zespol
Mile widziane:
⚡️ Wiedza o flow autoryzacyjnym, fraudach i logice routingu płatności
⚡️ Doświadczenie z NLP / LLM (pod kątem budowy chatbotów analitycznych)
⚡️ Znajomość Reinforcement Learningu lub algorytmów Multi-armed Bandit
⚡️ Doświadczenie z Graph Neural Networks (GNN) lub Vector Embeddings
⚡️ Znajomość SQL
⚡️ Znajomość platformy Databricks
Jak działamy i co oferujemy? 🎯 Stawiamy na otwartą komunikację zarówno w procesie rekrutacji jak i po zatrudnieniu - zależy nam na klarowności informacji dotyczących procesu i zatrudnienia
🎯 Do rekrutacji podchodzimy po ludzku, dlatego upraszczamy nasze procesy rekrutacyjne, żeby były możliwie jak najprostsze i przyjazne kandydatowi
🎯 Pracujemy w imię zasady ‘remote first’, więc praca zdalna to u nas norma, a wyjazdy służbowe ograniczamy do minimum
🎯 Oferujemy prywatną opiekę medyczną (Medicover) oraz kartę Multisport dla kontraktorów
Jak aplikować? 👈 Prześlij nam zgłoszenie za pomocą formularza!







