I. Mô tả công việc:
- Tham gia thiết kế kiến trúc quản trị dữ liệu trong Ngân hàng
- Thiết kế và xây dựng các tiến trình ETL/ELT, Data Pipeline, triển khai các công cụ tự động hoá nhằm thu thập, chuẩn hóa, xử lý, làm sạch dữ liệu, sẵn sàng cho phân tích và trực quan hoá dữ liệu
- Tham gia thiết kế, triển khai và tối ưu hóa các giải pháp quản trị và tích hợp dữ liệu trên nền tảng đám mây (ví dụ: AWS, Azure, GCP) hoặc on-prem để thu thập, lưu trữ, xử lý và phân tích dữ liệu
- Nghiên cứu, đánh giá, triển khai các công nghệ mới trong lĩnh vực quản trị, tích hợp và xử lý dữ liệu, nhằm nâng cao hiệu suất, an ninh thông tin khả năng mở rộng của hệ thống.
- Phối hợp với Data Scientist, Data Analyst để hiểu yêu cầu về dữ liệu từ các đơn vị nghiệp vụ, xác định mức độ ưu tiên và cung cấp các giải pháp phù hợp với mục tiêu kinh doanh
- Hỗ trợ các đơn vị nghiệp vụ truy cập và sử dụng dữ liệu, cung cấp hướng dẫn và đào tạo về các công nghệ và công cụ liên quan.
- Tham gia các dự án công nghệ theo phân công.
- Tham gia xử lý rủi ro công nghệ theo phân công.
- Bằng cấp: Đại học chuyên ngành Công nghệ thông tin/Toán tin/Khoa học máy tính/Điện tử viễn thông hoặc các lĩnh vực liên quan
- Chứng chỉ đào tạo của các giải pháp/công cụ liên quan đến ETL/BI/Data platforms/Data streaming/Điện toán đám mây.
- Kinh nghiệm: tối thiểu 7 năm kinh nghiệm trong lĩnh vực công nghệ phần mềm, phân tích dữ liệu, khoa học dữ liệu
- Có kinh nghiệm thiết kế và triển khai các tiến trình ETL/ELT, hiểu biết sâu về ít nhất 1 nền tảng ETL platforms (ví dụ Oracle ODI, SAP BODS, Apache Airflow, Informatica, IBM,…).
- Thành thạo một trong các ngôn ngữ lập trình Python, Java hoặc Scala, với kiến thức vững về SQL và hệ thống cơ sở dữ liệu ( PostgreSQL, MySQL, Oracle).
- Hiểu biết và có kinh nghiệm triển khai Data warehouse/Data Lake, hiểu biết về giải pháp của các hãng: Oracle, SAP, Teradata, IBM, …
- Có kinh nghiệm thực tế triển khai một trong các giải pháp lakehouse/data platforms (ví dụ: Cloudera, DataBricks, Hortonwork…).
- Có kinh nghiệm tích hợp dữ liệu, phát triển ETL, data pipeline bằng các công cụ trên nền tảng Cloud (GCP, EWS hoặc Azure)
- Hiểu biết về kiến trúc dữ liệu (ví dụ: OLAP, Data Warehousing, Data Lake, and/or Data Mesh)
- Hiểu biết, có kinh nghiệm thiết kế và xây dựng các giải pháp xử lý dữ liệu theo luồng (ví dụ thực hiện với các công cụ Apache Storm, Kafka, Spark Streaming...).
- Có kinh nghiệm về triển khai giải pháp quản trị chất lượng dữ liệu, bao gồm cả những môi trường phân tán.
- Có kinh nghiệm phát triển công cụ BI phục vụ yêu cầu nghiệp vụ là điểm cộng.
- Hiểu biết về kiến trúc object storage.
- Có kinh nghiệm tư vấn kỹ thuật, đào tạo, dẫn dắt thay đổi
- Lập kế hoạch và quản lý thời gian hiệu quả
- Kỹ năng giải quyết vấn đề tốt
- Giao tiếp tốt bằng tiếng Anh
- Mức lương cạnh tranh, phản ánh trực tiếp kỹ năng và kinh nghiệm của ứng viên (chi tiết sẽ được thảo luận trong buổi phỏng vấn)
- 13 ngày nghỉ phép linh hoạt, bao gồm ngày sinh nhật và các dịp quan trọng khác
- Bảo hiểm đầy đủ theo luật lao động, cùng với chương trình bảo hiểm sức khỏe, phúc lợi bổ sung đặc biệt dành cho nhân viên
- Lãi suất vay ưu đãi - Quyền lợi đặc biệt dành cho nhân viên ngân hàng
- Gia nhập các dự án chuyển đổi quy mô lớn, cộng tác cùng các chuyên gia hàng đầu để áp dụng công nghệ mới nhất trong ngành ngân hàng
- Lộ trình phát triển sự nghiệp rõ ràng, được tạo điều kiện cho cả sự phát triển kỹ thuật và quản lý
- Hỗ trợ đào tạo và chứng chỉ trong lĩnh vực IT, ngân hàng/tài chính
- Mô hình làm việc linh hoạt, trẻ trung, khuyến khích đổi mới và sáng tạo
- Văn phòng được trang bị hiện đại, kèm theo các thiết bị tiên tiến nhất dành cho nhân viên
- Tổ chức thường xuyên các hoạt động ngoại khóa (team building, hội thảo, và các sự kiện văn nghệ), tạo điều kiện cho nhân viên gắn kết và phát triển