硕士及以上学历,计算机相关专业,有3年以上大数据行业研发经验
对Hadoop中核心组件(HDFS、MapReduce)有深入研究或实践工作应用经验
熟悉Spark、Spark SQL、Spark Streaming、Zookeeper、YARN等大数据相关技术和组件
熟练掌握 Hive 及相关ETL工具(包括但不限于:DataX、Flume、Sqoop、Kettle),构建数仓,实现维度建模等操作
有大数据离线/实时实际项目开发经验
能熟练使用一种或多种其他语言编程,如:Java/Python
良好沟通技巧、学习能力,具有良好的职业操守