Pro naše zákazníky zpracováváme miliardy dat webových logů, bankovních nebo nákupních transakcí, senzorických či signálních dat. Tyto obrovské objemy ukládáme, integrujeme, profilujeme, čistíme, zpracováváme a analyzujeme trendy, aby co nejlépe přispěly k rozvoji byznysu našich zákazníků. 

Náš tým tvoří na třicet datových inženýrů a datových vědců, kteří mají za sebou více jak desítku postavených on premise Big Data platforem a více než 50 aplikačních a analytických Big Data projektů.

Zaujala Tě pozice? Čti dál! :)

Praha
IČO, HPP
Dle dohody
Nástup dle dohody

Co budeš mít na starosti:

  • Práci s nejmodernějšími technologiemi - např. Spark, Impala, Kafka, Cassandra a další NoSql databáze, Airflow, frameworky pro machine learning a AI, nejnovější knihovny ve Scale a Pythonu.
  • Komunikovat se zákazníkem o tom, co doopravdy potřebuje.
  • Navrhovat řešení na míru.
  • Pomáhat klientovi skladovat a využívat data o jeho zákaznících.
  • Pracovat s databázemi a dalšími technologiemi pro zacházení s daty.
  • Z dostupných technologií vybírat ty nejvhodnější pro výsledné řešení.
  • Zavádět vše do praxe, analyzovat, kódovat, vyvíjet, tvořit dokumentaci.
  • Analýzu a design řešení pro Big Data aplikace.
  • Jedeme hodně DevOps, takže budeš mít šanci si svůj kód i nasadit a starat se o něj. Agile už je dneska samozřejmost.
  • Pokud některé z technologií výše neznáš, nic se neděje. Mnohé existují teprve pár let a určitě dostaneš šanci se je naučit. Máme vlastní Hadoop cluster „na hraní“ a zároveň si můžeš vše vyzkoušet i v Data Science Workbench od Cloudery, což je v Evropě poměrně vzácnost.

Budeme si rozumět, pokud:

  • Máš dobrou znalost oblasti Big Data.
  • Zároveň se dobře vyznáš alespoň ve dvou z následujících oblastí:
    • Programování v Pythonu, Scale nebo Javě. Případně jakýkoliv jiný jazyk a snaha přejít na Python nebo Scalu.
    • Hadoop a jeho ekosystém (distribuce Cloudera, MAPR nebo Hortonworks).
    • Zkušenost s prací na OS Linux (alespoň základní příkazy).
    • Data Science, Machine Learning, AI.
    • Umíš s SQL.
  • Ideálně víš, jaký je rozdíl mezi Impala a Hive, víš, co je Spark, Kafka a/nebo Flume.
  • Jsi komunikativní a umíš anglicky alespoň na úrovni čtení dokumentace a Stack Overflow.
  • Máš chuť si hrát s novými technologiemi, protože Big Data svět se neustále mění.

Výhodu budeš mít, pokud:

  • Umíš programovat ve frameworku Spark.
  • Máš praktické zkušenosti z Big Data projektů nebo Data Science.
  • Znáš další technologie z big data ekosystému (HBase, Airflow, apod...).
  • Umíš skriptovat v Bashi.
  • Znáš DWH technologie.
  • Znáš hlavní návrhové vzory a umíš psát Unit testy.
  • Máš povědomí o DevOps (kontejnerizace – Docker a Kubernetes, automatické deployment procesy).

Co Ti můžeme nabídnout:

  • Dlouhodobou spolupráci formou HPP nebo IČO.
  • Flexibilní pracovní dobu a dobré vztahy v týmu.
  • Příležitost pracovat nejen s různými technologiemi, ale i v různých oborech.
  • Vyvíjíme projekty pro klienty na míru, ale pracujeme také na našich vlastních řešeních, které pak implementujeme.
  • Naším cílem není dodávat „jen" kvalitní IT řešení, ale být našim zákazníkům partnerem v inovacích a přinášet jim nové pohledy do jejich businessu. To představuje celou řadu výzev a překvapení, takže se rozhodně nenudíme.
  • Důraz klademe na spolupráci, odpovědnost a vzájemnou pomoc.
  • Pořádáme společné grilovačky, hraní deskových her a Mtg, celofiremní i teamové výjezdy.

Zaujali jsme Tě? Udělej první krok!

Pošli nám svůj životopis a připoj pár řádků o sobě. Spojíme se spolu a domluvíme se na dalším postupu.