-
求职意向 举报
-
- 应聘职位:IT质量管理/测试/配置管理、IT管理/项目协调、IT运维/技术支持
- 期望薪资: 10000-14999元
- 期望地区: 贵阳
- 期望行业: IT服务(系统/数据/维护)
自我介绍-
四年的工作经验,有电信行业业务经验(联通),电影院线同步行业,广告行业、金融借贷行业经验;掌握grafana, elasticsearch 相关技术;熟练掌握hadoop集群的部署、开发;熟悉hadoop生态系统组件与工作原理及系统开发,熟练掌握mapreduce开发框架,性能调优,熟悉HDFS的原理、特性和常用配置;精通HIVE开发、调优;熟练掌握hadoop,oracle工作环境,熟练掌握zookeeper、hbase、hive、mapreduce、ETL、外部数据入库接口;熟练掌握mysql、oracle(安装配置、数据库性能调优、负载均衡、SQL调优、数据备份、数据迁移等);熟练掌握linux;熟练编写shell脚本,python;熟练掌握Excel,tableua、power-bi、Smartbi、Linux环境和常用命令使用经验。 英语: 读写能力一般 听说能力一般 hadoop:熟练 数据库,oracle,mysql:精通 elasticsearch:熟练 grafana:熟练 Linux:精通 shell:熟练 性格像男孩子,性格比较稳,属于慢热型,说话心直口快(关系近的人),行为处事像男孩子,有冲劲,逻辑性强,与人相处和善。 在技术中喜欢专牛角尖,遇到问题不管通过什么渠道,尽自己最大努力弄懂。 平常没事喜欢在论坛上,看相关行业的技术论坛,看相关行业的书。 喜欢运动,喜欢打篮球,乒乓球。
工作经验:- 2018.03 - 至今 北京快惠卡技术有限公司
- IT服务(系统/数据/维护)
- 数据分析师 | 10001-15000元/月
- 工作描述:
1、根据需求提供数据支持,通过SQL分析每日各渠道注册人数、申请人数、授信人数、授信额度、借款人数、借款金额 2、通过SQL分析各渠道每周、每月回收率、逾期率、风险率、坏账率 3、通过SQL分析各渠道按时间的运营情况,比如笔均借款、逾期发生期数及金额、非代偿期数及金额、注册申请转化率、申请审核转化率、审批通过率、借款率等KPI 4、通过SQL分析每月催收员的回收率、信审人员绩效 5、通过SQL、Excel、tableua每周做分析报告,供领导、部门从数据中发现关键问题并提出优化方案 2016.10 - 2018.03 全球播科技有限公司 (1年6个月) 全栈工程师 互联网/电子商务 1.根据需求,编译python脚本,输出所需数据,发送邮件给各部门领导 2.根据需求,协助各部门提供各种指标的数据分析及数据支撑 3.搭建elasticsearch集群,配置,维护elasticsearch,把数据库的数据全量或增量导入elasticsearch, 4.把elasticsearch的数据在grafana上进行实时展示,随时进行grafana的访问,搭建,配置,维护grafana 2015.10 - 2016.10 北京东方国信科技股份有限公司 (1年1个月) 软件工程师 互联网/电子商务 1.开发oracle存储过程,游标,触发器,视图,各种函数运用熟练 2.hive脚本开发,HQL开发日、月数据跑数脚本等,hive同步oracle数据脚本,编写入库出库脚本等 3.hive数据仓库,进行大数据加工,用hive的hql语句和shell脚本结合起来做数据的加工,语句调优和参数调优,语句的执行计划时,mapreduce在执行原理基础上进行参数和语句调优 4.稽核数据,ETL数据采集,外部数据入库接口操作 2014.09 - 2015.10 北京易汇众盟网络技术有限公司 (1年2个月) 数据分析 | 8001-10000元/月 广告/会展/公关 1.根据需求用Excel 透视表,输出日报表,周报表,月报表,各种报表的迭代 2.从系统导出数据,输出数据报表,输出报告,根据各类数据结果,并根据业务需求,提供建设性意见,完善优化BI系统 3.通过对日报表数据监控,追踪与分析,从数据中发现关键问题并提出优化方案 4.从系统中,获取销售、产品、业务等各类数据,理解内容、产品、用户和场景,通过数据分析洞察业务关联,利用数据可视化软件powerBI、tableau等工具输出数据报告,提出产品和业务建议
项目经验-
项目名称2015.12 - 2016.02 同步和首发电影top100(全球播科学有限公司) 责任描述项目职责:编写sql输出首发和同步电影top100各项所需指标,用python编译成脚本以json格式输出结果,协助Java程序员把整个过程进行封装,贴在公司内部网站上,进行实时访问 项目名称2015.11 - 至今 grafana, elasticsearch ,kibana搭建,配置及维护(全球播科学有限公司) 责任描述分别在三台服务器上搭建elasticsearch集群,把数据库截至当前时间点的数据以JSON格式迁移至elasticsearch上,之后每隔10分钟增量导入数据库数据,在elasticsearch的主节点上搭建并配置grafana,根据需求,在grafana上实时展示各项指标数据,和趋势变化图,在elasticsearch主节点上搭建并配置kibana,在kibana上进行各个指标同时段数据对比趋势图,并实现图形可视化等。 项目名称2015.07 - 2015.10 联通oracle迁移hadoop(北京东方国信科技股份有限公司) 责任描述1,使用plsqlDev 根据指标或是码表开发存储过程,测试,跑数,为BI提供分析数据,每张表根据每个业务指标指定账期在报表上对比老库进行数据稽核,并再进行修改; 2,使用SecureCRT根据指标或是码表开发hive脚本,测试,跑数,与oracle老库根据账期进行数据稽核; 3,ETL数据采集,日(月)接口调用主流程——>接口文件FTP文件列表侦测——>接口文件FTP文件采集——>接口文件稽核效验——>接口文件数据加载入hive库——>接口文件对应ODS触发流程——>oracle同步到hive上的日(月)数据(带分区)——>oracle同步到hive上的日(月)数据(不带分区); 4,外部数据入库接口,接口层(SRC层)从FTP服务器上拿接口文件,进行侦测,采集,稽核,加载这个过程,加载后到ODS层进行数据沉淀,数据到本地后用批处理的方式入库,不同业务的数据,采集方式不同(包括FTP采集,dblink采集); 5.根据需求在hive中建表,导数,管理hive中表。 项目名称2015.02 - 2015.07 联通经分改造(北京东方国信科技股份有限公司) 责任描述1,使用plsqlDev 根据指标或是码表开发存储过程,测试,跑数,根据账期指标在BI系统上对比老库进行数据稽核,在进行修改; 2,使用SecureCRT根据指标或是码表开发hive脚本,测试,跑数,与oracle老库根据账期进行数据稽核; 项目名称2014.10 - 2015.01 Web日志KIP指标分析(北京东方国信科技股份有限公司) 责任描述参与Web日志KPI指标(PU,UV,IP数,time,brower)实现的mapreduce的程序编写 项目描述根据收集到Web日志的有效数据,上传到hadoop hdfs中;用Maven构建hadoop项目,用mapreduce程序分析PV、UV、IP数、平均访问时长、来源、参照页等,编写脚本每天执行一次,保留一个月,生成一个统计系统,根据业务,使部分数据可视化;将分析的结果用sqoop导入到mysql库中,供甲方公司各个部门参考。
学历教育- 贵州师范学院
- 电子信息科学与技术
- 教育经历:
2011.09 - 2015.07 贵州师范学院 电子信息科学与技术 本科 在校学习情况 2013.09 曾获 省区级 省级三等奖 2013年参加全国大学生电子设计竞赛
获得证书培训经历 -
-
- 相似的简历



关注微信
消息提醒
在线客服