职位描述
该职位还未进行加V认证,请仔细了解后再进行投递!
岗位职责:
1、负责产品计算中心方案设计实施及hadoop/spark集群线上故障处理、性能调优;
2、负责基于hadoop/spark生态系统的产品研发;
3、负责基于搜索引擎(elasticsearch)的产品研发;
4、负责基于redis,kafka集群调优及产品研发;
5、参与海量数据处理和高性能分布式计算的架构设计,负责数据处理流程的设计和代码开发,撰写相关文档;
6、研究大数据、ai领域最新进展,并应用到业务中。
职位要求:
1、大学本科或以上学历,计算机相关专业,spark/hadoop全栈优先,精通任意一栈者也可;
2、拥有实际apache hadoop/spark相关系统的调优、运维、开发经验;
3、使用hadoop及hadoop生态圈中的常用组件,如spark、hive、zookeeper、sqoop、flume、kafka、storm、redis、spark、yarn、impala、hbase、presto、solr 等全部或者部分组件,最好精通其中1-2个;
4、熟练掌握java 、scala或者python语言,熟悉并行计算或者分布式计算,理解mapreduce、hdfs原理、spark rdd/dataframe原理。
1、负责产品计算中心方案设计实施及hadoop/spark集群线上故障处理、性能调优;
2、负责基于hadoop/spark生态系统的产品研发;
3、负责基于搜索引擎(elasticsearch)的产品研发;
4、负责基于redis,kafka集群调优及产品研发;
5、参与海量数据处理和高性能分布式计算的架构设计,负责数据处理流程的设计和代码开发,撰写相关文档;
6、研究大数据、ai领域最新进展,并应用到业务中。
职位要求:
1、大学本科或以上学历,计算机相关专业,spark/hadoop全栈优先,精通任意一栈者也可;
2、拥有实际apache hadoop/spark相关系统的调优、运维、开发经验;
3、使用hadoop及hadoop生态圈中的常用组件,如spark、hive、zookeeper、sqoop、flume、kafka、storm、redis、spark、yarn、impala、hbase、presto、solr 等全部或者部分组件,最好精通其中1-2个;
4、熟练掌握java 、scala或者python语言,熟悉并行计算或者分布式计算,理解mapreduce、hdfs原理、spark rdd/dataframe原理。
工作地点
地址:广州从化区
求职提示:用人单位发布虚假招聘信息,或以任何名义向求职者收取财物(如体检费、置装费、押金、服装费、培训费、身份证、毕业证等),均涉嫌违法,请求职者务必提高警惕。
职位发布者
HR
广东凯通科技股份有限公司
- 行业未知
- 公司规模未知
- 私营·民营企业
- 固话:020-62323168