주소가 복사되었습니다.
원하는 곳에 붙여넣기(Ctrl+V)해 주세요.
입사지원은 PC를 이용해주세요.
본 조직은 AI 모델과 Computing System에 대한 종합적인 이해를 바탕으로 네이버의 AI 서비스의 비용 최적화를 목표로 합니다. 이 과정에서 AI 모델을 있는 그대로 두지 않고, 경량화하거나 압축하는 AI 알고리즘을 적극 적용합니다. 더불어 다양한 경량화 알고리즘 들을 적용하고 경량화 LLM을 평가함으로써 기존 경량화 기술들이 가진 한계나 문제점을 파악하고 새로운 알고리즘을 연구 및 개발하는 것을 목표로 합니다.
1. 경량화된 LLM 가속 커널 연구
- KV Cache Quantization을 위한 고성능 가속 커널 설계 및 최적화
- FP8 Quantization 및 Custom Kernel 개발 연구
- Mixed Precision Input(W4A16)을 위한 Gemm 커널 효율화
2. LLM 경량화 알고리즘 연구
- Splitwise 접근법을 고려한 Prefill 및 Generation 단계별 모델 경량화 전략 개발
- Multi-Modality (Image, Audio 등) 입력 상황에 맞는 LLM 모델 분석 및 경량화 기술 연구
(Multi-Modality 기반 KV Cache 효율적 압축 방안)
- Speculative Decoding 효율화를 위한 Draft Model Compression 기법 연구 및 Acceptance Ratio 향상 방안 개발
- 국내/외 4년제 대학(학사) 재학생 또는 기 졸업자
- 인턴십 기간(약 3개월) 동안 Full-Time 근무가 가능하신 분
- 딥러닝에 대한 이해도가 깊으신 분
- LLM 및 Transformer 모델에 대한 기초 지식이 있으신 분
- LLM 및 AI 모델 경량화 연구 경험이 있으신 분
- 경량화 알고리즘에 대한 이해도가 높으신 분
- 열린 마음으로 소통하고 최신 ArXiv 논문 Discussion을 즐기시는 분
- deep learning framework에 대한 기초 숙련도가 있으신 분(Pytorch, huggingface 등)
- CUDA, Triton 커널 개발 경험이 있으신 분(LLM 가속 커널 연구)
- 압축 알고리즘 연구 및 개발 경험이 있으신 분(Quantization / Pruning 등)
- Large-scale DNN 연구 최적화 경험이 있으신 분
- 경량화 관련 논문 Publish 실적이 있으신 분
서류전형 > 필기전형(코딩테스트) > 면접전형 > 인턴십
※ 전형절차는 일정 및 상황에 따라 변동될 수 있으며, 전형별 결과에 따라 절차가 추가될 수 있습니다.
※ 면접 안내는 추후 면접 대상자에게 개별 안내 드릴 예정입니다.
서류 접수 기간: 2024년 12월 24일(화요일) ~ 2025년 1월 6일(월요일) 오후 6시
경기도 성남시 분당구 불정로 6 (그린팩토리)
※ 근무지는 회사 내부 사정에 따라 변경될 수 있습니다.
2025년 2월 중 ~ 2025년 5월 중 (약 3개월 근무 가능자)
주 5일 (10:00~19:00)
※ 인턴십 상세 근무 기간은 추후 최종 대상자에게 개별 안내 드릴 예정입니다.
- 본 인턴십은 채용전제형이 아닌 체험형 인턴십으로, 인턴십 기간이 끝나면 계약 종료됩니다.
- 입사지원서 작성 전 지원자격을 확인해 주시기 바라며, 지원서에 기재된 내용 중 허위사실이 있는 경우에는 합격이 취소될 수 있습니다.
- 본 공고는 인재 선발 완료 시 조기 마감될 수 있으며, 필요시 모집 기간이 연장될 수 있습니다.
- 제출된 지원서는 로그인 후 [My page- 지원 현황]에서 확인 가능하며, 공고 마감 전까지 홈페이지에서 수정 및 지원 철회가 가능합니다.
- 국가유공자 및 장애인 등 취업보호 대상자는 관계법령에 따라 우대합니다.
- 국가유공자의 가산점 부여를 받기 위해서는 본인이 '취업지원 대상자 증명서'를 회사에 제출해야 합니다.
- 제출해 주신 지원서의 검토 결과 발표는 지원서에 등록하신 이메일로 개별 안내드립니다.
- 문의사항은 NAVER Cloud 채용 홈페이지 지원 문의로 접수해 주시기 바랍니다.