职责
1.负责数据ETL开发,优化ETL流程设计;
2.负责数据质量问题的分析、跟进、解决,进行数据质量监测、校验和提升;
3.负责ETL开发实施文档的编写;
4.负责梳理公司数据仓库/数据集市数据清单、数据映射关系,优化现有数据仓库模型;
5.完善和梳理数据指标体系,完成和维护数据字典的工作;
6.参与数据标准的制定、数据标准管理和数据安全管理工作;
7.参与公司大数据平台的建设,包括Sugar报表或神策接口配置,用户画像标签体系的开发等
任职要求:
1.有shell或Python脚本开发经验;
2.有传统数据库SQL Server和MySQL,有存储过程编写能力;
3.熟悉Hadoop生态相关技术并有相关实践经验,包括但不限于Sqoop、Hive、HBase、Kylin等开发经验;
4.有kettle、azkaban或oozie工作流调度经验;
5.熟悉Hive SQL或Flink SQL的开发;
6.有数据仓库模型设计,有使用kafka+Flink Streaming实时数据处理经验优先;
7.有Sugar、神策或Tableau使用经验,有用户画像或客户召回标签工作经验优先;
8.对数据挖掘和机器学习有所了解,包括常用的机器学习算法和数据建模过程的优先