实现网
爬虫工程师 远程兼职
Python
SQL
scrapy、appium、sele

岗位职责: 1、负责各类数据的爬取、接口调用接入,清洗、转换、融合入库以及数据处理性能调优等工作; 2、根据业务、产品和项目相关需求,负责数据验证、数据管理、数据服务接口、数据分析等功能的开发维护工作; 3、根据产品和项目需求,负责Python Web开发维护工作; 4、负责多平台信息爬取和页面内容的提取分析,负责破解各类反爬机制; 5、负责网页的数据抓取和爬取链路优化(包括逆向分析、脱壳、加密参数破解、抓取攻防等),提升抓取能力; 6、研究爬虫策略和防屏蔽规则,解决封账号、封IP、验证码、页面跳转等难点,提升网页抓取的效率和质量; 岗位要求: 1、计算机、数学或统计等相关专业本科及以上学历,3年以上相关工作经验; 2、熟悉linux平台,熟练掌握Python、SQL、ETL数据处理开发工作;熟悉掌握至少一种开源爬虫框架(scrapy、appium、selenium等); 3、能够熟练使用Redis、MySQL、Mongo、ES等数据库工具进行数据处理开发和维护工作; 4、熟练掌握数据处理性能调优,数据清洗、转换、整合等数据管理和维护工作; 5、熟练掌握爬虫采集技术及架构设计,精通瑞数解析的优先考虑; 6、精通动态网页抓取、浏览器模拟抓取、APP抓取等技术,熟悉使用fiddler或其他抓包工具;具有js逆向,app逆向实际解决经验。熟悉js hook原理,熟悉各种反爬风控常见手段; 7、具备大数据处理开发(Hadoop/Hive,Storm/Spark等)相关工作经验者优先考虑; 8、具备良好的编程习惯和逻辑思维能力;有个人相关作品或个人技术站的优先考虑 9、具备创业心态,善于学习,热爱技术开发,善于团队协作,能积极主动地参与公司产品研发等相关工作。

Small b168edf9b9e0fc89449b39299063af53
昵称登录后显示 大约 2 年前发布

预估 30000 元

已有4人投递
会docker部署的AI架构师 远程兼职
docker
深度学习

任职要求: 1、硕士研究生以上学历,计算机等相关专业; 2、具备五年以上大数据和AI开发架构规划经验,在计算机及视觉和图像、自然语言处理等,有实际项目开发管理经验; 3、能确认和评估AI系统需求,给出开发规范,搭建系统实现的核心构架,并澄清技术细节、扫清主要技术难点; 3、熟悉传统机器学习算法、深度学习前沿算法,掌握Pytorch/Tensorflow/MxNet等开源深度学习框架; 工作职责: 1、负责AI中台的技术规划及架构,为公司需求,设计基础框架的架构策略 2、深入了解、分析和整合公司的AI能力,为开发团队指导技术线路,给出合适的解决方案; 3、参与AI平台通用能力建设和相关组件的技术选型,推进数据分类,训练服务,模型管理,推理服务,资源调度等功能的产品化 4、负责组织架构化数据,非结构化数据的采集和数据分类; 实现网运营专员代发,说明: 1. 远程兼职即可,客户同步也开放有全职岗位 2.会docker部署是硬性要求 3.客户公司还在招另一个岗位,会diffusion model 的 AI工程师 客户公司简介: Collov是一家总部位于硅谷的,立足于室内设计与销售融入人工智能的一家新兴科技企业,已连续完成两轮千万美金融资。公司创始人是斯坦福大学应用物理博士,曾主攻AI在加速器物理当中的应用,发表过数十篇SCI顶级期刊论文。

Small 14f7cfc0c005f566b146e660b0f92e41
昵称登录后显示 大约 2 年前发布

预估 50000 元

已有1人投递

我是技术人才
我在寻找远程工作

技术人才入驻

我是创业者
我在寻找技术人才

发布用人需求