Atividades:
Desenho e implantação de Projetos de Big Data; Liderar processo de instalação e tunning de clusters com hadoop.
Requisitos:
Sólidos conhecimentos em plataforma Hadoop, incluindo Spark, Mapreduce, Hive e HBASE.
Sólidos conhecimentos em sistemas operacionais Unix/Linux;
Sólidos conhecimentos em dimensionamento de hardware, arquiteturas de rede, TCP/IP, DNS, Firewalls;
Sólidos conhecimentos em linguagens Shell e SQL;
Sólidos conhecimentos em Java, Python, ou Scala (mais de uma é desejável);
Sólidos conhecimentos em Modelagem de dados, Data Warehousing e bancos de dados MPP (Greenplum, Teradata, Netezza);
Sólidos conhecimentos conceituais de NoSQL e práticos em alguma solução (Hbase, Cassandra, Riak, Redis, MongoDB, etc).
BENEFÍCIOS:
Vale Transporte
Vale Refeição
SALÁRIO: A Combinar
VAGAS: 1
Cidade: São Paulo - SP