在 Wave,我们致力于帮助小型企业取得成功,从而让我们的社区蓬勃发展。我们的工作环境充满创造力和活力,无论你选择在哪里工作、以何种方式发挥最佳表现,我们都会为你提供所需的工具和支持。在这里,成功意味着敢于尝试、快速学习,并坦诚分享你的知识。
作为一名向数据工程经理汇报的数据工程师,你将构建工具和基础设施,以支持数据产品团队、洞察与创新团队以及更广泛的组织需求。
我们正在寻找一位充满好奇心、积极主动的人,乐于解决复杂问题,并能同时管理多个领域和利益相关方。你需要具备扎实的技术能力,与数据与人工智能团队的各个层级合作,并与工程团队协作,开发数据解决方案、扩展数据基础设施,推动 Wave 向数据驱动型组织转型。
该职位非常适合拥有复杂产品环境工作经验的人。优秀的沟通能力至关重要,以便在不同数据成熟度水平的技术与非技术受众之间架起沟通桥梁。
你将通过以下方式产生影响:
– 你是建设者:设计、创建并部署现代数据平台组件,包括使用 Debezium 和 Kafka 的 CDC 数据摄取、以 Hudi 为核心的数据湖,以及多种批处理、增量和流式管道。
– 你在现代化的同时确保连续性:维护和改进 Amazon Redshift 数据仓库及现有 Python ELT 管道,同时带领团队向基于 Databricks 和 dbt 的分析环境转型。
– 你在创新与运营卓越之间取得平衡:构建可扩展、可靠且具成本效益的数据系统,同时提升新旧平台的可观测性、性能与稳定性。
– 你通过协作推动成果:与跨职能团队合作,构建支持分析、机器学习和生成式 AI 用例的数据基础设施与管道,确保数据准确并按时交付。
– 你能在不确定环境中承担责任:在紧迫的时间和不断变化的需求下,独立识别并实施管道与工作流程的改进。
– 你保持平台稳定:处理 PagerDuty 警报、排查问题,并主动提升监控和告警能力,以减少故障并维持高可用性。
– 你善于沟通:提供技术指导,清晰解释复杂概念,并通过倾听建立信任、解决问题。
– 你关注用户:评估现有系统、提升数据可访问性,并构建实用解决方案,帮助内部团队生成洞察、改善客户体验。
你将因具备以下能力而在这里表现出色:
– 数据工程专长:3 年以上构建管道并使用现代、安全的数据技术栈的经验,包括用于支持 AI/ML 的 CDC 流式摄取(如 Debezium)。
– AWS 云经验:至少 3 年使用 AWS 基础设施,例如 Kafka(MSK)、Spark/AWS Glue,以及使用 Terraform 进行 IaC 管理。
– 扎实的 SQL 与数据建模能力:深刻理解 OLTP 与 OLAP 系统的数据建模和 SQL。
– Databricks 经验:有生产环境中使用 Databricks 的经历者优先。
– 强大的编码能力:能够使用 Python、SQL 和 dbt 编写与审查可维护、高质量代码,并能在需要时使用第三方框架。
– 数据湖开发经验:具有使用 Apache Hudi 和 Parquet、Avro、JSON、CSV 等格式构建基于 S3 的数据湖的经验。
– CI/CD 经验:能够使用 CI/CD 最佳实践开发与部署数据管道。
加分项:
– 了解数据治理,包括数据质量、数据血缘、隐私,以及使用数据目录工具的经验。
– 熟悉 Stitch、Segment CDP 等工具,可整合多样化的数据来源。
– 使用 Athena、Redshift 或 SageMaker Feature Store 等分析和 ML 工具的经验。
薪资范围:每年 101,000 至 113,000 美元。最终薪酬取决于经验、专长和岗位匹配度。大多数新员工的薪酬位于区间中段,最高薪资保留给技能突出并能立即产生影响的候选人。
我们还提供:
– 奖金计划
– 雇主支付的福利
– 健康与保健灵活账户
– 专业发展账户
– 健康日
– 假期休整
– Wave Days(额外夏季假期)
– Get A-Wave 项目(每年可在世界任何地方远程工作最多 90 天)
欢迎访问我们的网站,进一步了解在 Wave 工作的体验。
我们重视多元视角,你的独特经历将使我们的组织更加强大。我们欢迎来自各种背景的候选人,并期待与您讨论如何在此获得成功。
Wave 致力于打造包容且无障碍的招聘流程。如需协助,请发送邮件至 careers@waveapps.com,我们将与你合作,满足你的需求。
请注意,面试过程中可能会使用 AI 辅助转录,以便面试官能更加专注交流。
此职位为当前开放岗位。
To apply for this job, please visit jobs.lever.co

