FuriosaAI

Algorithm - Research Engineer Internship (LLM Inference)

Seoul, South Korea (On-site)

View other positions

About the job

  • FuriosaAI는 하드웨어부터 알고리즘까지 수직방향으로 통합된 AI 솔루션을 개발하고 있습니다.
  • FuriosaAI 알고리즘 팀은 Furiosa NPU(Neural Processing Unit)로 에너지 효율을 극대화하면서 Latency를 최적화한 LLM 서비스를 제공하기 위해 관련 연구를 진행합니다.
  • 알고리즘팀에서는 10명이 넘는 팀원들로 구성되어있으며, 연구 결과물이 실제 제품으로 세상에 나올 수 있도록 SW-Platform팀과 긴밀한 협업을 진행하고 있습니다.
  • 근무기간은 3개월이며, 상호 협의 하에 연장될 수 있습니다.

Responsibilities

  • LLM inference에 필요한 요소들에 대한 지식 (Transformer / MoE architecture, Distributed Inference, LLM Serving System 등)을 습득하고, 이를 바탕으로 다음과 같은 업무를 진행합니다.
    • Lower / Mixed Precision으로 LLM & Multi-Modal 모델들에 대하여 Parameter Efficient Fine-tuning 코드 작성 및 Evaluation

    • Low Cost LLM inference 시스템에 대한 분석 및 연구

Minimum Qualifications

  • Python에 능숙하신 분

  • PyTorch, Tensorflow 등 주요 DL framework 경험이 있으신 분

  • CS에 대한 기초적인 지식이 있으신 분 (특히, Network, Multiprocessing/Threading)

Preferred Qualifications

  • 다양한 Parameter Efficient Fine-tuning (PEFT) 방식을 사용한 연구 및 개발 경험이 있으신 분

  • NLP (Natural Language Processing) 관련 연구 및 개발 경험이 있으신 분

  • LLM fine-tuning, inference 등에 관한 개발 혹은 연구 경험이 있으신 분

  • 다양한 딥러닝 알고리즘과 어플리케이션에 지적 호기심이 많으신 분

Contact

  • minsup.lee@furiosa.ai