STRADVISION은 We Empower Everything to Perceive Intelligently 라는 미션을 가지고, AI기반의 카메라 인식기술로 모두의 더 나은 삶을 만들어가고 있습니다. 우리가 만든 소프트웨어가 모든 것을 빈틈없이 정확하게 인식하여, 세상의 올바른 의미를 전달할 수 있도록 현재 전 세계 8개 오피스, 300여명 규모 동료들과 Vision Perception AI 기술을 만들어가고 있습니다.
더 나은 세상을 만들기 위한 VISION AI 기술, STRADVISION의 의미 있는 도전을 함께 만들어갈 동료를 찾습니다.
STRADVISION의 Data Pipeline Team(이하 DPT)은 유능한 팀원들과 함께 데이터 효율(DE: data efficiency)/데이터 품질(DQ: data quality) 개선 Pipeline(이하 SVflow) 서비스를 구축할 Data Pipeline Backend Engineer을 모집하고 있습니다. DPT는 STRADVISION 내부에서 데이터 효율성과 품질을 개선하는 서비스 개발 및 운영을 담당하는 부서입니다.
DPT의 Data Pipeline Backend Engineer는 팀 멤버들과 협력하여 SVflow 서비스에서 데이터 변환, ML(Machine Learning) 모델의 배포, DE/DQ Pipeline 개발을 효율적이고 신뢰성 있게 수행하는 역할을 맡습니다. 이 역할의 목표는 ML 모델 학습에 필요한 데이터 품질을 지속적으로 높이고, 데이터 가공 비용을 최소화할 수 있도록 지원하는 것입니다. 이를 위해 최신 MLOps 기술의 능동적인 습득과 MLOps 구현 및 적용 경험이 필요합니다. 또한, 관련 부서와의 원활한 협력을 위해 뛰어난 커뮤니케이션 및 문서화 능력이 요구되며 ML 데이터에 대한 전반적인 이해와, 비용 효율화에 대한 강한 의지가 요구됩니다. Data Pipeline Backend Engineer는 다음과 같은 미션을 수행합니다.
자동화: 데이터 품질을 높이고, 비용 효율화를 위한 전체 DE/DQ Pipeline을 자동화하고 최적화 합니다.
지속적인 데이터 품질 관리 구현: 높은 품질의 학습 데이터가 신속하게 프로덕션 환경에 반영될 수 있도록 지속적인 데이터 품질 관리를 설계하고 구축합니다.
운영 효율성 극대화: 운영 과정에서 발생하는 비용을 최소화하고, 시스템의 안정성과 확장성을 보장합니다.
[Key Responsibilities]
Data Pipeline Backend Engineer는 Data Pipeline 서비스 기술 리더로서 복잡한 문제를 해결하고 팀의 방향을 설정하는 중요한 역할을 수행합니다. 주요 책임 사항은 다음과 같습니다
Data의 변환: SVflow에 필요한 훈련 및 평가 데이터를 생성하기 위해 데이터 ETL(Extract, Transform, Load) 과정을 구현하고 유지 보수합니다.
아키텍처 설계 및 구현: SVflow파이프라인의 전체적인 아키텍처를 설계하고, 각 구성 요소가 효율적으로 연계되도록 구현합니다.
학습 데이터 품질 개선: SVflow 서비스를 통해 학습 데이터의 품질 개선에 필요한 파이프라인을 지속적으로 최적화합니다.
데이터 엔지니어링 협업: 데이터 엔지니어와 협력하여 데이터 파이프라인을 최적화하고, 데이터 준비 과정에서 발생할 수 있는 병목을 제거하여 데이터 파이프라인과 연계를 강화함으로써 시스템의 일관성과 효율성을 높입니다.
기술적 리더십 및 멘토링: 주니어 팀원들에게 기술적인 가이드를 제공하고 그들의 성장을 도모하며, 기술 전략을 수립하고 팀 내 기술 표준을 설정하여 이를 구현합니다.
[Basic Qualifications]
총 5년 이상의 관련 경력: 최소 1년 이상의 MLOps 경력 포함 백엔드 엔지니어링 경력.
Programming Language: C++을 포함하여 Python, Java, JavaScript 등 최소 2개 이상의 프로그래밍 언어에 대한 실무 경험.
MLOps 또는 Data Pipeline 구성 경험: 엔드 투 엔드(End-to-end) Full Stack Data Pipeline 구성 경험.
Kubernetes(k8s) 및 MLOps 관련 플랫폼 경험: k8s, MLFlow, KubeFlow 등 MLOps 관련 플랫폼에 대한 다양한 경험과 깊은 이해
전문적인 Backend Engineering 기술: 데이터베이스 설계, API 개발, 마이크로서비스 아키텍처에 대한 깊은 이해.
ML 및 SW 개발 프로세스 이해: ML 모델 개발 및 소프트웨어 개발 프로세스에 대한 명확한 이해와 경험.
커뮤니케이션 및 문서화 능력: 복잡한 기술적 내용을 명확하게 전달할 수 있는 탁월한 커뮤니케이션 및 문서화 능력.
SRE 경험: SLA 설계, 모니터링, 장애대응 프로세스 구축 등 SRE(Site Reliability Engineering) 경험 보유.
Cloud 인프라 경험: AWS, GCP, Azure와 같은 주요 클라우드 플랫폼에서의 인프라 관리 및 운영 경험.
[Preferred Qualifications]
MLOps tools and platforms: MLFlow, KubeFlow, or other MLOps platforms for model deployment, monitoring, and management 경험하신 분
Relational SQL and NoSQL databases, including Postgres and Cassandra 경험하신 분
Data pipeline and workflow management tools: Airflow 등을 경험하신 분
STRADVISION은 We Empower Everything to Perceive Intelligently 라는 미션을 가지고, AI기반의 카메라 인식기술로 모두의 더 나은 삶을 만들어가고 있습니다. 우리가 만든 소프트웨어가 모든 것을 빈틈없이 정확하게 인식하여, 세상의 올바른 의미를 전달할 수 있도록 현재 전 세계 8개 오피스, 300여명 규모 동료들과 Vision Perception AI 기술을 만들어가고 있습니다.
더 나은 세상을 만들기 위한 VISION AI 기술, STRADVISION의 의미 있는 도전을 함께 만들어갈 동료를 찾습니다.
STRADVISION의 Data Pipeline Team(이하 DPT)은 유능한 팀원들과 함께 데이터 효율(DE: data efficiency)/데이터 품질(DQ: data quality) 개선 Pipeline(이하 SVflow) 서비스를 구축할 Data Pipeline Backend Engineer을 모집하고 있습니다. DPT는 STRADVISION 내부에서 데이터 효율성과 품질을 개선하는 서비스 개발 및 운영을 담당하는 부서입니다.
DPT의 Data Pipeline Backend Engineer는 팀 멤버들과 협력하여 SVflow 서비스에서 데이터 변환, ML(Machine Learning) 모델의 배포, DE/DQ Pipeline 개발을 효율적이고 신뢰성 있게 수행하는 역할을 맡습니다. 이 역할의 목표는 ML 모델 학습에 필요한 데이터 품질을 지속적으로 높이고, 데이터 가공 비용을 최소화할 수 있도록 지원하는 것입니다. 이를 위해 최신 MLOps 기술의 능동적인 습득과 MLOps 구현 및 적용 경험이 필요합니다. 또한, 관련 부서와의 원활한 협력을 위해 뛰어난 커뮤니케이션 및 문서화 능력이 요구되며 ML 데이터에 대한 전반적인 이해와, 비용 효율화에 대한 강한 의지가 요구됩니다. Data Pipeline Backend Engineer는 다음과 같은 미션을 수행합니다.
자동화: 데이터 품질을 높이고, 비용 효율화를 위한 전체 DE/DQ Pipeline을 자동화하고 최적화 합니다.
지속적인 데이터 품질 관리 구현: 높은 품질의 학습 데이터가 신속하게 프로덕션 환경에 반영될 수 있도록 지속적인 데이터 품질 관리를 설계하고 구축합니다.
운영 효율성 극대화: 운영 과정에서 발생하는 비용을 최소화하고, 시스템의 안정성과 확장성을 보장합니다.
[Key Responsibilities]
Data Pipeline Backend Engineer는 Data Pipeline 서비스 기술 리더로서 복잡한 문제를 해결하고 팀의 방향을 설정하는 중요한 역할을 수행합니다. 주요 책임 사항은 다음과 같습니다
Data의 변환: SVflow에 필요한 훈련 및 평가 데이터를 생성하기 위해 데이터 ETL(Extract, Transform, Load) 과정을 구현하고 유지 보수합니다.
아키텍처 설계 및 구현: SVflow파이프라인의 전체적인 아키텍처를 설계하고, 각 구성 요소가 효율적으로 연계되도록 구현합니다.
학습 데이터 품질 개선: SVflow 서비스를 통해 학습 데이터의 품질 개선에 필요한 파이프라인을 지속적으로 최적화합니다.
데이터 엔지니어링 협업: 데이터 엔지니어와 협력하여 데이터 파이프라인을 최적화하고, 데이터 준비 과정에서 발생할 수 있는 병목을 제거하여 데이터 파이프라인과 연계를 강화함으로써 시스템의 일관성과 효율성을 높입니다.
기술적 리더십 및 멘토링: 주니어 팀원들에게 기술적인 가이드를 제공하고 그들의 성장을 도모하며, 기술 전략을 수립하고 팀 내 기술 표준을 설정하여 이를 구현합니다.
[Basic Qualifications]
총 5년 이상의 관련 경력: 최소 1년 이상의 MLOps 경력 포함 백엔드 엔지니어링 경력.
Programming Language: C++을 포함하여 Python, Java, JavaScript 등 최소 2개 이상의 프로그래밍 언어에 대한 실무 경험.
MLOps 또는 Data Pipeline 구성 경험: 엔드 투 엔드(End-to-end) Full Stack Data Pipeline 구성 경험.
Kubernetes(k8s) 및 MLOps 관련 플랫폼 경험: k8s, MLFlow, KubeFlow 등 MLOps 관련 플랫폼에 대한 다양한 경험과 깊은 이해
전문적인 Backend Engineering 기술: 데이터베이스 설계, API 개발, 마이크로서비스 아키텍처에 대한 깊은 이해.
ML 및 SW 개발 프로세스 이해: ML 모델 개발 및 소프트웨어 개발 프로세스에 대한 명확한 이해와 경험.
커뮤니케이션 및 문서화 능력: 복잡한 기술적 내용을 명확하게 전달할 수 있는 탁월한 커뮤니케이션 및 문서화 능력.
SRE 경험: SLA 설계, 모니터링, 장애대응 프로세스 구축 등 SRE(Site Reliability Engineering) 경험 보유.
Cloud 인프라 경험: AWS, GCP, Azure와 같은 주요 클라우드 플랫폼에서의 인프라 관리 및 운영 경험.
[Preferred Qualifications]
MLOps tools and platforms: MLFlow, KubeFlow, or other MLOps platforms for model deployment, monitoring, and management 경험하신 분
Relational SQL and NoSQL databases, including Postgres and Cassandra 경험하신 분
Data pipeline and workflow management tools: Airflow 등을 경험하신 분