使用 Snowflake 和/或 Databricks 技术栈、Spark 或 Informatica ETL(复用场景)构建和运营可扩展的批处理和流处理管道,以交付可用于分析的数据集
为一致且高性能的分析访问,设计、实施和优化基于 Iceberg 的表、分区和元数据结构
为参考数据和应用程序数据域(包括证券数据和 IBOR 持仓/交易)实施处理、存储和交付,将源数据馈送(RKS, PORTIA, Aladdin, CRD Cloud)集成到精选的分析数据集中
与领域专家合作,定义数据语义(账户、产品、持仓、交易、基准等)、数据管理期望和消费契约(数据交换接口和消费 API)
实施自动化的数据验证、数据质量规则、对账检查和血缘捕获,以确保可信的分析结果
构建和发布精选的语义层数据模型(服务模型、集市),并通过受治理的 BI 端点和/或消费 API 公开它们,确保一致的指标和业务定义
定义和管理用于消费的数据产品接口(模式、SLA、文档、版本控制和向后兼容性),以支持稳定的 API 和 BI 集成
与平台工程团队合作,通过 CI/CD 标准化部署、生产化作业,并采用平台护栏和可观测性模式
与架构师和应用团队协作,定义数据策略,并提供与分析工作负载一致的逻辑/物理数据模型
通过适当的数据库分区、归档和清理模式来优化管道和查询性能
参与待命/重大事件管理,在需要时执行数据回填,并支持所负责数据产品的生产稳定性