天津(Tianjin), Tianjin, China
23 hours ago
数据开发工程师
General Information Req # WD00084525 Career area: Information Technology Country/Region: China State: Tianjin City: 天津(Tianjin) Date: Wednesday, June 25, 2025 Working time: Full-time Additional Locations:  * China - Tianjin - 天津(Tianjin) Why Work at Lenovo We are Lenovo. We do what we say. We own what we do. We WOW our customers. 
Lenovo is a US$57 billion revenue global technology powerhouse, ranked #248 in the Fortune Global 500, and serving millions of customers every day in 180 markets. Focused on a bold vision to deliver Smarter Technology for All, Lenovo has built on its success as the world’s largest PC company with a full-stack portfolio of AI-enabled, AI-ready, and AI-optimized devices (PCs, workstations, smartphones, tablets), infrastructure (server, storage, edge, high performance computing and software defined infrastructure), software, solutions, and services. Lenovo’s continued investment in world-changing innovation is building a more equitable, trustworthy, and smarter future for everyone, everywhere. Lenovo is listed on the Hong Kong stock exchange under Lenovo Group Limited (HKSE: 992) (ADR: LNVGY). 
This transformation together with Lenovo’s world-changing innovation is building a more inclusive, trustworthy, and smarter future for everyone, everywhere. To find out more visit www.lenovo.com, and read about the latest news via our StoryHub. Description and Requirements

岗位职责:

数据工程:设计和构建数据管道,确保数据从多个源(如数据库、API 和文件系统)提取、转换和加载到Databricks平台。开发和维护ETL(提取、转换、加载)流程,以支持数据的清洗和预处理。数据建模:设计和实施数据模型,以支持数据分析和业务需求,确保数据结构合理、性能优化。性能优化:监控和优化数据处理和查询性能,包括对Spark作业的调优,确保高效使用计算资源。数据分析与可视化:使用Databricks的Notebook功能进行数据分析,生成可视化报告,帮助业务团队理解数据背后的故事。数据质量管理:进行数据质量检查,确保数据的准确性、完整性和一致性,及时发现和解决数据问题。协作与文档:与数据科学家、业务分析师以及其他相关人员密切合作,理解业务需求并提供数据支持。编写和维护技术文档,包括数据管道、模型和API的使用说明。技术支持:为团队成员提供技术支持,解答关于Databricks平台和数据开发的相关问题。持续集成与部署:实施持续集成和持续部署(CI/CD)流程,保证数据开发工作的自动化和高效性。学习与创新:关注数据开发领域的新技术和最佳实践,持续提升自身技能,并将新技术应用到实际工作中。运维监控:监控运行中的数据管道和作业,及时响应和处理异常情况,确保系统的稳定性和可靠性。

岗位要求:

教育背景:计算机科学、数据科学、信息技术、数学、统计学或相关领域。工作经验:3年以上数据开发、数据工程或相关领域的工作经验,必须具备使用Databricks、ADF和Apache Spark的经验。编程技能:熟练掌握Python、Scala或Java等编程语言,能够编写高效的代码用于数据处理和分析。了解SQL,能进行复杂的数据库查询和操作。大数据技术:具备大数据处理和分析的经验,熟悉Apache Spark、Hadoop等大数据技术及相关生态系统。数据建模与ETL:了解数据建模的原理和实践,具有ETL流程设计与实现经验。云计算知识:熟悉云计算平台(如AWS、Azure、Google Cloud等)及其相关服务,尤其是与Databricks集成的服务。数据质量和治理:具备数据质量管理和数据治理的基本知识,能够实施有效的数据管理流程。工具与技术:使用过数据可视化工具(如Tableau、Power BI)和数据分析工具(如Jupyter Notebook、RStudio)者优先。 Additional Locations:  * China - Tianjin - 天津(Tianjin) * China * China - Tianjin * China - Tianjin - 天津(Tianjin)
Por favor confirme su dirección de correo electrónico: Send Email