1.计算机相关专业,本科及以上学历,3年以上大数据开发工作经验,学习能力突出;对分布式数据计算或数据分析的原理、架构及使用调优有一定经验者优先;
2.熟悉hadoop生态系统内常见项目的使用(hdfs、hive、hbase、spark、zookeeper、yarn等),具有spark 开发经验,有实际大数据项目经验优先;
3.熟练掌握Oracle、MySql等主流数据库;
4.熟悉Hadoop/Spark/Flink/Hive等任一项主流开源技术,具备类似技术的引擎研发或者运维经验;;
5.熟悉Linux/Unix系统环境下的操作;熟悉Tomcat等应用服务器的配置和优化;
6.具有良好的沟通能力、组织能力及团队协作精神,有较强的分析和解决问题的能力。