Skip to main content
internbanner

maum.ai Brain팀 체험형 인턴에 지원하세요!

마음에이아이 브레인 팀에서 겨울방학 기간(약 2개월)동안 함께하실 체험형 인턴을 채용합니다. 최소 2달 안에 성과가 날 수 있고, 현업과 밀접하게 맞닿아있는 프로젝트를 진행할 수 있도록 구성하여 4가지의 Track을 선정했으며, 지원자는 4가지의 Track중 관심 있는 주제 하나를 선택해서 수행합니다.

회사에서 주어지는 풍부한 자원을 활용하여 프로젝트를 진행하고, 최종 결과물을 발표하게 됩니다. 또한, 프로젝트 진행 중에는 Brain팀의 다양한 멤버들과 함께 협업하며, 실무 경험을 쌓을 수 있습니다. 😎


저희 사내에서 Embodied Agent를 연구/개발하는 WoRV팀도 인턴을 뽑고 있으며 아래 링크에서 확인하실 수 있습니다.


Track 1: Re:제로부터 시작하는 ON-DEVICE AI

연구 방향

ChatGPT, Copilot… 요즘 AI 없이는 살기 힘든 시대죠? MaumAI의 ML Engineer 팀은 이런 LLM을 더 빠르고, 더 효율적으로 서빙하는 방법을 연구하는 사람들이 모인 팀입니다. 그 중에서도 on-device AI는 가장 뜨거운 주제! 우리는 최신 스마트폰과 edge device에서 LLM을 서빙하는 최적의 방법을 찾고, 더 적은 자원으로 더 큰 성능을 끌어내는 기술을 연구하고 있어요. ☝️ 이 글도 사실 ChatGPT의 도움을 받았지만, 이걸 진짜 세상에서 실현하는 건 바로 당신의 손에 달려 있습니다!

이런 일을 함께 할 거예요
  • 최신 LLM 서빙 기법 및 PyTorch 모델의 작동 원리를 파헤치기 ⛏️
  • NPU를 활용해 PyTorch 모델 실행하기🔥
  • 성능 최적화를 위한 최신 기술 습득 및 현장 적용하기⚡
이런 분을 찾고 있어요
  • 🐍 C/C++, Python 등 범용 프로그래밍 언어로 원하는 기능을 구현할 수 있으신 분
  • 📖 ML 시스템 관련 논문을 읽고 이해할 수 있을 정도의 영어 실력과 CS 기초 지식을 가지신 분
  • 💡 처음이어도 괜찮아요. 배움에 대한 열정과 도전 정신이 더 중요합니다!

Track 2: Data Feast for LLMs: Gathering, Prepping, and Fine-Tuning the Perfect Meal

고품질 데이터 수집부터 파이프라인 구축, 미세 조정을 통해 실사용 가능한 LLM을 개발합니다.

주요업무
  • LLM 학습을 위한 대규모 데이터 수집 및 전처리 🌍
  • 고품질 Insturction data 제작을 위한 파이프라인 설계 및 구현 ⚙️
  • Fine-tuning을 통한 모델 성능 최적화 및 검증 🔍
연구방향

최근 대규모 언어 모델(LLM)은 다양한 자연어 처리(NLP) 과제에서 혁신적인 성과를 보이고 있습니다. 그러나 이러한 모델을 실제 환경에서 효과적으로 활용하기 위한 정제된 고품질 데이터와 체계적인 학습 데이터는 항상 부족합니다. 따라서 저희는 아래와 같은 방식으로 LLM을 개발하고자 합니다.

  • 고품질 데이터 수집: 웹 크롤링, 데이터 증강, 전처리 등 다양한 방법론을 활용하여 학습에 적합한 데이터를 준비합니다.
  • Insturction 데이터 제작: 사용자 중심의 Insturction 데이터를 설계하고, 이를 효율적으로 생성 및 관리할 수 있는 파이프라인을 구축합니다.
  • Fine-tuning: 수집된 데이터를 활용하여 모델을 학습하고, 실사용 사례에 적합한 성능을 발휘하도록 최적화합니다.

이 과정에서 데이터의 다양성, 품질, 모델의 일반화 성능을 동시에 고려하며, 최적의 성능을 도출할 수 있는 방법을 탐구합니다.

What You Will Do:
  • LLM 학습에 필요한 대규모 데이터 수집 및 필터링
  • Instruction 데이터 생성 및 데이터 전처리 자동화를 위한 파이프라인 설계
  • Fine-tuning 및 모델 성능 평가
필요한 역량
  • Large Language Model에 대한 관심 및 프로젝트 경험 (필수)
  • AI 관련 기술 논문을 읽고 내용을 충분히 이해하는데 무리가 없는 수준의 영어 능력
  • PyTorch 등 ML/DL framework 활용 및 모델 구현에 자유로울 수 있는 수준의 개발 능력
우대 요건
  • Kaggle, Dacon과 같은 AI/ML 관련 대회 수상 경험
  • ML/DL 알고리즘을 깊이 이해할 수 있는 수준의 수학적 능력 및 모델링 능력
  • ML/DL 연구 논문 Implementation 또는 관련 Repository의 Contribution 경험
Reference

데이터 수집 및 필터링: https://arxiv.org/abs/2406.17557
고품질 Insturction 데이터 생성: https://arxiv.org/abs/2408.04614


Track 3: Automatic Speech Recognition in the Wild

Real-world에서의 ASR 성능 개선을 목표로 합니다.

주요업무
  • ASR 모델 학습을 위한 데이터 수집 및 전처리
  • ASR 파이프라인 코드 최적화 💻⚡
  • ASR 실험 설계 및 구현
연구방향

현재 음성 인식 기술은 통제된 연구 환경에서는 우수한 성능을 보이지만, 실제 환경(Real-world)에서는 다양한 억양, 배경 소음, 음향 조건 등으로 인해 성능이 크게 저하되는 한계를 가지고 있습니다. 이러한 챌린지를 해결하기 위해 ASR 모델의 실제 환경 적응력을 검증하고, 장거리(Farfield) 환경에서의 모델 고도화 및 상용화 가능성을 탐구하고자 합니다.

What You Will Do:
  • Real-world ASR에 적합한 데이터 수집 및 전처리
  • 효율적인 학습을 위한 실험 설계
  • 모델 학습 및 성능 평가
필요 역량 🛠️
  • 파이썬(Python) 및 파이토치(PyTorch)를 능숙하게 다룰 수 있는 분 🐍
  • 주도적으로 문제를 해결하고 적극적으로 참여하는 자세를 가진 분 💪
우대 요건 ⭐
  • 신호처리에 대한 기본 지식 또는 경험이 있는 분 🎛️
  • 실제 환경 데이터를 다뤄본 경험이 있는 분 🌍
  • 음성 데이터 전처리 및 Augmentation 경험이 있는 분 🎙️
Reference

Wav2Letter++: https://arxiv.org/abs/1812.07625
Conformer: https://arxiv.org/abs/2005.08100
Whisper: https://arxiv.org/abs/2212.04356

Track 4: Audio LLM for Seamless Interaction with Users

Audio LLM은 다양한 오디오를 다루기 위해 학습된 Large Language Model 기반 응용 기술을 의미합니다. 이러한 모델은 텍스트 뿐만 아니라 오디오 데이터를 이해하고 처리할 수 있는 능력을 갖추어, 실제 환경에서 발생하는 복잡한 오디오 문제를 해결하는 것을 목표로 합니다.

주요 업무
  • Audio LLM 동향 파악 🎧
  • Audio LLM 성능 향상을 위한 실험 설계 및 구현 🎶
  • Baseline 모델 학습 및 개선
연구 방향

현재 Large Language Models(LLMs)는 텍스트 처리에 있어 매우 뛰어난 능력을 보이고 있으나, 오디오 분야에서는 여전히 한계가 존재합니다. 예를 들어, 사람 음성의 다양한 억양, 주변 잡음, 다양한 음향 환경 등은 모델이 처리하기 어렵습니다. 이러한 문제를 극복하기 위해서는 LLM의 언어 처리 능력을 오디오 이해 능력과 결합하고, 실제 오디오 데이터를 통한 학습으로 모델을 정교화하는 연구가 필요합니다. Real-world 의 다양한 오디오 데이터에 대해 유연하고 효과적으로 대응할 수 있는 End-to-End Audio LLM 시스템을 연구하고자 합니다.

What You Will Do
  • Audio LLM 관련 최신 기술 동향 파악
  • Audio LLM 학습을 위한 방법론 설계 및 구현
  • 모델 학습 및 성능 평가
필요 역량 🛠️
  • 파이썬(Python) 및 파이토치(PyTorch)를 능숙하게 다룰 수 있는 분 🐍
  • 주도적으로 문제를 해결하고 적극적으로 참여하는 자세를 가진 분 💪
우대 요건 ⭐
  • 신호처리에 대한 기본 지식 또는 경험이 있는 분 🎛️
  • Hugging Face 및 언어 모델 사용 및 학습 경험이 있는 분 🤗
Reference

AudioChatLlama: Towards General-Purpose Speech Abilities for LLMs
SpiritLM: https://arxiv.org/abs/2402.05755
Moshi: moshi.chat


제출 서류

  • 이력서 (필수)
  • 포트폴리오 URL (선택사항)

전형 절차

  • 서류 접수 기간: 12월 9일 ~ 12월 17일 (23:59까지)
  • 기술진 면접(화상): 12월 19일 ~ 12월 23일 예정 (19, 20, 23 3일중 택1, 1시간 화상 면접)
  • 최종 합격자 발표: 12월 26일 예정
  • 전형 절차: 서류 전형 → 기술진 면접(화상) → 최종 합격자 발표

인턴 기간: 겨울방학 약 2개월 (12월 30일~3월 초, 약 2개월, 지원자의 학사일정에 따라 달라질 수 있음)

전형절차는 변동될 수 있으며, 기술진 면접 결과에 따라 임원진 면접 절차가 추가될 수 있습니다.
서류 합/불 여부 및 기술진 면접 시간 조율은 모든 지원자에게 12월 18일경 발송될 예정입니다.

지원 기타

  • 해당 전형은 방학 기간 체험형 인턴으로 진행되며, 복학 여부, 평과 결과에 따라 계약 연장을 검토할 수 있습니다.
  • 문의 사항이 있을 경우, brain-hr@maum.ai 로 문의주시면 최대한 빠르게 답변드릴 수 있도록 하겠습니다.


근무 환경 및 복지


algo-session

근무 형태

Brain팀은 시차출퇴근제를 진행하고 있습니다. 코어타임은 10시 30분부터 17시까지로, 오전 8시 ~ 오전 10시 30분 사이에 각자가 정한 시간에 출근합니다. 이후 8시간 근무 후 퇴근하시면 됩니다.

업무 중 보여주시는 퍼포먼스에 따라서 주 1회 재택근무도 실시할 예정입니다. 😉


근무 환경

Brain팀 구성원에게는 입사 시 GPU 탑재 데스크탑부터 MacBook까지 원하는 기기를 지원해드리며, 모니터 및 모니터암을 기본으로 제공하여 Brain팀 구성원분들의 목 건강도 책임집니다! 💪

gpu

Brain팀에는 연구용으로만 On-premise로 V100 10대, A100 30대, H100 96대 이상을 운용하고 있고, 인원당 On-premise GPU를 최소 2대 이상 사용하실 수 있게끔 연구 및 개발환경을 구축하고 있습니다. (2024년 12월 기준)

home

maum.ai는 전 직원 점심 식사 식대를 제공합니다.(1일 16000원) 판교 사옥 근처의 많은 식당을 자유롭게 이용할 수 있습니다!

또한 사옥 내에도 로봇 바리스타가 비치되어 있어 자유롭게 음료 음용이 가능합니다. 🍹


사무실 위치

maum.ai Brain팀에서 함께 하시게 될 경우, 판교 본사 오피스 및 연구소에서 근무하시게 됩니다.

maum.ai 판교 본사 오피스는 판교IT센터 4층에 위치하고 있습니다.


오시는 길

판교역 2번 출구 '판교역동편' 정류장에서 55, 310 등 시내버스 탑승 후 '기업성장센터' 정류장에서 하차하시면 됩니다. 버스로 15분 가량 소요됩니다.