-
求职意向 举报
-
- 应聘职位:机器学习工程师 深度学习工程师 算法工程师 机器视觉工程师 图像算法工程师 高级算法工程师
- 期望薪资: 面议
- 期望地区: 杭州 上海
- 期望行业: 计算机软件
自我介绍-
1.熟悉目标检测、跟踪、识别、定位、分类、图像分割算法 2.熟悉人体姿态估计、动作识别算法 3.擅长人脸检测、人脸特征点定位、人脸特征提取比对算法 4.掌握OpenCV等视频图像处理工具 5.掌握常用目标检测网络yolov3/SSD/Retinanet/Faster R-CNN/Mask R-CNN 6.熟练掌握pytorch、tensorflow 7.熟悉CNN、DNN、RNN、LSTM等算法及其原理
工作经验:- 浙江单创品牌管理有限公司
- 算法技术专家
- 工作描述:
2020-01至今——公司:浙江单创品牌管理有限公司(500-1000人) 行业:计算机软件 性质:民营公司 部门: 算法研发部门 职位: 算法技术专家 工作描述:项目名称:品牌商家门店客流量检测智能营销监测系统 项目描述:为满足各个合作品牌企业线下门店日常经营需求,需要对各大门店不同时段的客流流量进行人流量检测统计,根据人流量统计情况为门店提供供货量依据 责任描述: 1.基于pytorch环境,使用yolov3网络进行行人目标判定检测并统计,卡尔曼滤波实现多目标跟踪算法 2.卡尔曼滤波跟踪器参数调整,设定距离阈值等方式解决人流量密集场景下检测器遗漏目标的情况 3.卡尔曼滤波算法轨迹预判,并更新kalman追踪器参数及特征集,进行路人消失、新路人出现的判断 4.使用opencv框架将检测到的路人图片框与跟踪路径在视频流中实现可视化,并展示实时人流计数 2018-02至2019-12——公司:杭州睿拓智能科技有限公司(50-150人) 行业:计算机软件 性质:民营公司 部门: 研发部门 职位: 人工智能算法高级工程师 工作描述:项目名称:交通道路监管目标检测跟踪实时监控系统 项目描述:区级交通监管部门为提高和规范交通秩序与违规行为排查,对部分路段实施统一监控,通过视觉目标定位与轨迹跟踪来判定行人与车辆行为,判定违规记录并上报 责任描述: 1.目标检测算法框架开发与设计,采用one-stage算法,使用yolov3框架进行目标检测,Kalman滤波算法进行目标跟踪 2.开发FPN特征金字塔网络模块,利用FPN进行多尺度图片的检测,生成行人与车辆的多维度边框预测 3.通过大量图片数据集训练yolov3的检测类别并生成检测分类预训练模型 4.设定目标置信度阈值过滤掉无效边界框;NMS非极大值抑制法过滤多余边界框以降低检测次数提升检测效率;采用二分类逻辑回归实现目标分类,选取大于阈值的类别 5.结合卡尔曼滤波算法对已检测到的目标进行轨迹预判,预测检测到的目标在每一个当前帧的位置,并迭代更新追踪器进行预测结果修正 6.结合opencv框架将行人车辆检测与追踪结果实现实时可视化 项目名称:大安全平台人脸识别监控系统 项目描述:食品安全人脸识别系统,主要针对县区级餐饮店工作间提供人脸识别监控,对非餐厅人员以及无健康证工作人员提供报警服务,保障后厨食品安全问题 责任描述: 1.使用opencv按一定帧数读取监控视频流,处理图像信息 2.基于深度学习框架pytorch,开发MTCNN人脸检测器网络模型,用于视频图像中的人脸检测、人脸面部关键特征点的检测和提取,并结合opencv绘制人脸目标框 3.训练人脸检测和人脸关键点检测的大量人脸图像数据生成预训练模型,提供给人脸检测器网络模型使用 4.开发FaceNet人脸比对网络模型,对所有员工照片进行批量抽样,从人脸检测器网络模型中提取人脸图像信息,生成每个人脸的特征向量 5.将在线检测到的人脸特征向量与库中人脸向量的欧式距离进行比对,设定距离阈值,判断是否为人脸图片库中的工作人员,如不是触发报警接口 项目名称:保险智能营销平台 项目描述:保险智能营销平台主要为用户提供购买下一年度车险提供报价、用户画像、以及用户对公司的购买险种忠诚度提供模型依据,推测出用户的购险意向 责任描述: 1.构建机器学习算法模型,根据上一年度理赔比、出险次数、理赔金额等特征维度进行分析,进行数据预处理,构建特征工程 2.因用户群体不明确,采用无监督学习分析出用户所属群体 3.采用决策树、随机森林等算法预测用户上一年的购险满意度级别和下一年的购险意向度级别 4.支持整个技术团队,优化和完善算法,提供合理化建议 2015-08至2018-01——公司:南京苏宁软件技术有限公司(1000-5000人) 行业:计算机软件 性质:民营公司 部门: 大数据开发部门 职位: 大数据高级开发工程师 工作描述:项目名称:订单平台标准四级地址服务 项目描述:为了减少客户投诉率,提升订单地址妥投率,维护本地四级地址库,接收OMS系统发送过来的订单数据,解析出四级订单地址并返回OMS系统以进行发送派单 责任描述: 1.开发SpringBoot大数据处理接口,作为订单四级地址发送和消费接口,用于批量接收json订单数据并发送到kafka集群的topic,并且实时监听大数据集群返回的topic中的数据并将解析出的四级订单地址写入OMS订单系统 2.开发SparkStreaming在线实时流处理业务,批量消费kafka的四级订单地址数据,将订单数据中的详细地址信息使用NLP自然语言处理做关键词切分,将切分出的地址关键词与现有Hbase库中的关键词库做对比以维护现有词库,如现有词库中未找到匹配的地址关键词,则先后使用切分出的地址关键词和原订单的详细地址分别调用高德和菜鸟的地址服务API以返回四级地址,如返回四级地址信息一致,则地址关键词生效并存入Hbase库,并将解析出的四级地址数据回写kafka的生产者topic,用SpringBoot接口去监听返回的数据 3. 开发地址关键词NLP分词模块部分,使用python中的开源自然语言处理包如FoolNLTK、HanLP等进行地址关键词切分,并对切分出来的多个关键词做词性标注和NER命名实体识别,再结合多个关键词拼接组合的方式,确保高效准确提取出有效地址关键词信息 4.对于部分地址分词结果非理想化的数据,采用人工干预的方式,提供正确的地址分词结果,将数据使用感知机分词模型进行在线自主学习,将学习后的数据覆盖到感知机模型当中,以便类似地址解析时能够正确切分出关键词 项目名称:PIS价格信息服务系统 项目描述:价格中心系统作为企业级商品的价格管理应用,统一管理了适用于多渠道融合的所有主营商品的定价过程 责任描述: 1.Spark开发商品主数据、供应链、C店价格库大表拆分任务,使用SparkSQL批量抽取MySQL的数据到DataFrame并加载到缓存中,然后合并成一个总DataFrame,将数据按照商品编码后三位进行key和value的拆分,并根据分表数量对rdd重新进行分区,并在每一个分区上创建一个数据库链接去拼接SQL,然后将数据写入分库对应的表中 2.商品底价全量计算,考虑到性能和代码复杂度,将业务迁移到Spark,采用SparkSQL去实现原有的多层嵌套复杂性的业务,数据落地HDFS,创建hive外部表与HDFS关联,在hive中处理数据 3.Spark性能调优与数据倾斜问题处理 2011-06至2015-07——公司:博彦科技股份有限公司(500-1000人) 行业:计算机软件 性质:民营公司 部门: 大数据开发部 职位: 大数据开发工程师 工作描述:项目名称:江苏电信DO感知系统 责任描述: 1.用户基站Kpi数据指标计算并生成csv文件,采用多线程的方式将kpi计算出的指标数据导入数据库,供电信业务系统使用 2.Spark开发江苏电信高铁模块用户指标识别算法,整套业务计算采用SparkSQL去实现,配置数据与业务数据采用加载DataFrame的方式,最后将计算出的所有指标数据写入HDFS 3.Spark开发江苏电信质差小区智能判障模块,开发模式于与高铁用户识别模块基本类似 项目名称:SCOPA江苏警务大数据平台 项目描述:SCOPA智能研判大数据警务平台,采用分布式部署,底层基于MDP框架平台,整合Hadoop生态圈组件,团伙挖掘计算采用Spark内存计算框架 责任描述: 1.汇聚时空点信息,从oracle中提取相关的人、时间、空间信息进行汇聚,编写团伙挖掘算法 2.从oracle中提取源表数据信息导入CONA平台的mysql库中,并将数据同步到数据仓库Hive 3.java编写的团伙挖掘算法转scala方案研究,从hive中抽取实体人数据,通过scala脚本在Spark上运行最终计算出隐性团伙关系 项目名称:用户级异常行为监控 项目描述:随着移动用户规模和业务量不断增长,从投诉主体“用户”层面进行分析,通过对用户使用和消费行为的分析建立用户级数据模型,对游戏用户进行分类,不同类型用户适时采取差异化风险管理,切实保护用户利益,实现用户维度的投诉管理,有效降低投诉。 项目架构:业务底层采用SpringMVC+Mybatis分层实现,前端逻辑采用jquery+ajax技术来实现。业务流程上采用spark集群分布式部署实现,模型的自定义算法和Kmeans聚类算法在此架构基础上实现。 责任描述: 1.前端页面模块数据展示功能实现,用户管理、模型授权、指标定义管理、算法定义管理、模型实例配置管理等功能的开发,使用SpringMVC+Mybatis框架实现 2.自定义算法模型的样本指标SQL编写,通过输入参数的SQL去执行模型对应的job,SQL在Hive中运行后将符合所有定义指标条件的样本筛选出来,输出到模型运行结果 项目名称:Kafka异步通用消息框架 项目描述:Kafka是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者规模的网站中的所有动作流数据,用户通过zookeeper集群,使用broker集群服务器进行用户的上下线、produder消息发送和consumer消息消费的处理,消息使用topic进行处理,消息分布到设置的每个partition上。 责任描述: Broker管理、Topic管理、Topic授权、用户管理、kafka消息日志查询、系统运行参数配置等功能开发
项目经验学历教育- 南京信息工程大学
- 计算机科学与技术
- 教育经历:
2014-03至2016-07——南京信息工程大学 计算机科学与技术 本科 2008-09至2011-06——江苏省省级机关管理干部学院 市场营销 大专
获得证书培训经历 -
-
- 相似的简历



关注微信
消息提醒
在线客服