EasyDo este o companie românească de servicii software și tehnologie, fondată în 2018 ca Spinoff al jucătorului local Top IT&C Services.
Echipa este condusă de parteneri seniori și experți. Construim următoarea generație de aplicații PaaS folosind microservicii, IoT, API, machine learning, AR, VR.
Proiectele noastre îmbunătățesc adoptarea și automatizarea digitală, oferind servicii și soluții conectate care permit îmbunătățirea afacerii și a mediului.
Practicile noastre de afaceri se concentrează pe:
- Fabrica de software și soluții inovatoare de afaceri
- Soluții și servicii de securitate cibernetică
- Unifying Solutions: Interoperability API Management, Integration Solutions B2Bi, Managed File Transfer
Obiectivul nostru principal este să furnizăm produse de calitate și sprijin clienților și partenerilor noștri, conducând noi înșine și practicile de afaceri cu integritate, inovand cu tehnologia informației de ultimă oră, îmbunătățind calitatea vieții prin tehnologie și responsabilitate socială. De asemenea, ne străduim să fim un loc minunat pentru a lucra și a crește, asigurând bunăstarea și dezvoltarea angajaților noștri.
Valorile noastre fundamentale sunt respectul, corectitudinea, etica, deschiderea și munca în echipă.
Context:
Candidatul ideal este un constructor de pipeline de date cu experiență și un expert de date, căruia îi place să optimizeze sistemele de date și să le construiască de la zero. Inginerul de date va sprijini echipa noastră globală în inițiativele de date și va asigura coerența și aderarea la standardele și liniile directoare ale platformelor.
Trebuie să fie auto-direcționat și să accepte nevoile de date ale mai multor echipe, sisteme și produse. Candidatul potrivit va fi entuziasmat de perspectiva optimizării sau chiar reproiectării arhitecturii noastre de date pentru a sprijini următoarea noastră generație de produse și inițiative de date.
Activități principale:
- Transformați datele cu logica de afaceri în funcție de cerințele funcționale
- Optimizați codul PySpark pentru Databricks
- Proiectați conducte și integrați codul în cadrul de orchestrare
- Dezvoltați biblioteci reutilizabile pentru reutilizarea modelelor de transformare comune
- Colaborați cu părțile interesate pentru a ajuta cu problemele tehnice legate de date și pentru a sprijini nevoile lor de infrastructură de date.
- Creați instrumente de date pentru membrii echipei de analiză și de date care să îi ajute în construirea și optimizarea soluțiilor noastre analitice
- Identificați, proiectați și implementați îmbunătățiri ale proceselor interne: automatizarea proceselor manuale, optimizarea livrării datelor, sugerați îmbunătățiri ale infrastructurii pentru o scalabilitate mai mare etc.
Abilitati tehnice:
- Pyspark foarte dorit
- cu Furnizorii de servicii cloud; Azure foarte dorit
- cu codificare în medii de calcul distribuite. Databricks foarte dorit
- experiență cu platformele de date pentru Analytics și Raportare
- efectuarea de analize a cauzei principale asupra datelor și proceselor interne și externe
De ce ar trebui să ni te alături:
Avem un mediu de lucru excelent și rapid
Facem parte dintr-o companie puternică
Avem un pachet de beneficii atractiv