V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
cgllynn
V2EX  ›  酷工作

[南京]招大数据分析和大数据开发啦~~

  •  
  •   cgllynn · 2017-11-22 10:29:49 +08:00 · 2188 次点击
    这是一个创建于 2340 天前的主题,其中的信息可能已经有所发展或是发生改变。
    坐标南京
    现招大数据分析和大数据开发

    薪资都在 8k~15k 之间 (对于特别优秀的人才薪资方面可以具体再详谈~)

    大数据分析工程师:
    岗位职责:
    1、掌握常见分类、聚类、回归、协同过滤等相关算法。
    2、负责大数据处理模块和数据挖掘平台的设计和开发;
    3、负责基于 Spark 技术的海量数据的处理、分析、挖掘工作;
    4、基于 Spark 框架的数据挖掘平台的设计,开发,维护;
    5、熟练掌握 Spark MLlib 根据需求使用 MLlib 进行数据分析、挖掘等工作。
     
    岗位要求:
    1、 有 java 开发基础,熟悉 Spark 相关技术,至少有 2 年的 Spark 开发经验;
    2、 熟悉 Scala 语言,对 Scala 原理、底层技术有深入研究者优先;
    3、 有 Python 语言基础者优先;
    4、了解掌握 TensorFlow 者优先;
    5、有优良的 Trouble Shooting 能力;
    6、有过海量数据系统开发经验者优先;
    7、有过数据挖掘开发经验者优先。

    大数据开发工程师:
    岗位描述
    1、参与平台的整体数据架构设计,完成从业务模型到数据模型的设计工作 ;
    2、对数据挖掘及业务开发团队提供技术支持,协助方案规划;
    3、负责技术攻关和创新技术引用,开发具有数据分析、数据挖掘能力的创新型产品;
    4、负责公司的大数据平台的研发工作(包扩日志采集,离线计算,数据仓库存储和处理等);
    5、维持线上服务高效稳定,支撑业务和数据量的快速扩张。
     
     岗位要求
    1、扎实的 Java, Scala 语言基础,对 JVM 运行机制有深入了解,有 python 和 scala 实际使用经验更佳;
    2、熟悉 Hadoop, Spark 并有丰富的开发经验,了解大数据组件的使用限制和应用场景,包括但不仅限于: hdfs, yarn, hbase, hive, flume, kafka, zookeeper, mpala, kylin, kudu, ElasticSearch, Storm, MongoDB 等。;
    3、熟悉 mysql, ElasticSearch, Redis 等关系型或 NoSQL 数据库,了解应用场景和使用限制。有实际调优经验者更佳。
    4、熟悉 linux 常用命令,有实际 CDH 或 HDP 或 apache 版本的 hadoop 部署经验者优先;
    5、熟悉并行计算或者分布式计算,熟练掌握 SQL, Streaming, MLLIB 编程;
    6、英文文档阅读无障碍,熟练掌握常用设计模式,熟练使用 maven git ;
    7、有深入研究过 Hadoop,Spark 源码者优先;
    8、深入理解 MapReduce 工作原理,HDFS 分布式文件系统架构;熟练掌握 Hadoop/Hive/HBASE 的运维和调优方法; 
    9、掌握或使用过 Storm、Spark、flume、kafka 等工具; 
    10、2 年以上大数据相关工作经验,最好参与并成功部署过 1 个日均 TB 级的集群项目。
    cgllynn
        1
    cgllynn  
    OP
       2017-11-22 14:52:57 +08:00
    大数据的小伙伴们 有兴趣可以联系我了解一下呀~
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   4056 人在线   最高记录 6543   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 26ms · UTC 05:20 · PVG 13:20 · LAX 22:20 · JFK 01:20
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.