[채용/모집] HLILab(박진영 교수, https://hli.skku.edu) 연구 프로젝트 학부 인턴 모집
- 소프트웨어융합대학
- 조회수788
- 2025-12-08
HLILab(박진영 교수, https://hli.skku.edu)에서 아래와 같이 연구 프로젝트와 관련하여 학부 인턴을 모집합니다. 많은 관심 참여 바랍니다.
- 연구참여기간
- 2026. 1. 1. 시작
- 중간 평가 이후 연장 가능
- 지원방법
- 이력서 및 자기소개서(본인 소개, 관심 연구 프로젝트 및 이유) 1부씩 작성하신 후 jy.bak@skku.edu 로 이메일 보내주세요
- 지원기간: ~ 2025년 12월 14일 23시 59분까지
- 처우 및 기타
- 성균관대학교 재학생인 경우 인건비 지급 (월 30만원, 중간 평가 후 인상 가능)
- 휴학생, 졸업생, 타대 재학생 경우 법적으로 인건비 지급이 어렵습니다.
- 대신, 인턴 이후 HLILab 연구실에 재학생으로 오실 경우 보전 가능합니다.
- 성균관대학교 재학생인 경우 인건비 지급 (월 30만원, 중간 평가 후 인상 가능)
2025년 겨울방학 HLILab 연구 프로젝트
Superalignment
- 연구 개요
We investigate superalignment for large language models (LLMs), focusing on how models can generalize from human-supervised easy tasks to more complex tasks (i.e., beyond the level of human intelligence) while maintaining value alignment. Our method is based on diverse scalable oversight methods such as Easy-to-Hard Generalization (E2HG), which combines outcome and process reward modeling (ORPM) to train models capable of robust reasoning under limited supervision. In this work, 1) we evaluate reasoning performance, 2) track value drift during fine-tuning and detect potential misalignment, 3) explore methods to mitigate value drift. - 관련 논문
- Research on Superalignment Should Advance Now with Parallel Optimization of Competence and Conformity
- Easy-to-Hard Generalization: Scalable Alignment Beyond Human Supervision
- 연구 개요
다편향성 평가 벤치마크 구축 및 LLM 편향성 평가 모델 개발
- 연구 개요
거대언어모델 (LLM) 의 편향 연구는 그동안 성별, 인종 등 단일 속성을 중심으로 편향성의 평가가 이루어져 왔기 때문에, 실제 사용자 처럼 여러 사회적 특징이 혼재된 상황에서 1) 편향의 평가와 2) 편향의 원인 분석이 충분히 이루어지지 못하는 한계가 존재했습니다. 본 연구에서는 사회적 프로필 (예, 직업 + 나이 + 종교, 등) 을 바탕으로, 여러 속성이 복합적으로 포함된 1) 다편향성 (multi-bias) 평가 벤치마크를 구축하고, 이를 활용하여 2) LLM의 편향성을 보다 정교하게 평가하는 것을 목표로 합니다. 이 연구를 통해 LLM의 외재적, 내재적 편향을 다각도로 분석하고, 편향성을 초래하는 원인을 분석함으로서 이후 공정성의 향상에 대한 연구에 필요한 기반을 제시하고자 합니다.
- 관련 논문
- Bai, Xuechunzi, et al. "Measuring implicit bias in explicitly unbiased large language models." arXiv preprint arXiv:2402.04105 (2024).
- Tan, Bryan Chen Zhengyu, and Roy Ka-Wei Lee. "Unmasking Implicit Bias: Evaluating Persona-Prompted LLM Responses in Power-Disparate Social Scenarios." arXiv preprint arXiv:2503.01532 (2025).
보이스피싱
- 연구 개요
기존 보이스피싱 탐지 연구는 알려진 보이스피싱(In-domain) 유형에 집중하여 높은 정확도를 달성했습니다. 그러나 이러한 연구는 사전에 정의되지 않은 신종 보이스피싱(Out-of-domain)에 대응하지 못하는 한계가 있습니다. 예를 들어, 기존 유형의 보이스피싱 사례(예: 대출 유도, 지인 사칭 등)는 잘 탐지할 수 있지만, 새로운 형태의 보이스피싱(예: 가상자산 투자 권유, 메신저 기반 피싱 등)에는 취약합니다. 본 과제는 이러한 한계를 극복하고 신종 보이스피싱 탐지 성능을 향상시키는 모델을 개발하는 것을 목표로 합니다. 아울러 개발된 sLLM을 실제 환경에서 활용할 수 있도록, 모델을 탑재한 안드로이드 애플리케이션을 구현하여 실사용 기반의 탐지·응답 기능까지 통합하는 것을 추가 목표로 합니다.
- 관련 논문
- Towards Reliable and Practical Phishing Detection
- Korean voice phishing detection applying NER with key tags and sentence-level N-Gram
- Enhancing Voice Phishing Detection Using Multilingual Back-Translation and SMOTE: An Empirical Study
- Personalized Response System for Different Voice Phishing Types: Utilizing a Retrieval-Augmented Generation Model
Cultural Value Alignment의 필요성
- 연구 개요
대규모 언어모델(LLM)이 다양한 문화의 사용자를 더 잘 이해하고 포용하도록 하기 위해서는, 문화마다 서로 다른 지식·언어 표현·가치관 등을 반영하는 능력이 중요합니다. 특히 가치관(value)은 사람들의 판단과 선호를 형성하는 핵심 요소로 문화권마다 뚜렷한 차이를 보이며, 이러한 차이를 모델이 반영하도록 만드는 것이 바로 cultural value alignment입니다. 현재 많은 cultural value alignment 연구는 “LLM을 각 문화 속 사람들과 동일한 가치관을 갖도록 해야 한다”는 전제를 두고 있습니다. 그러나, 정말로 가치관을 똑같게 맞추는 것이 사용자의 만족도를 향상시키는지는 충분히 검증된 적이 없습니다.
본 연구 프로젝트는 이러한 문제의식에서 출발하여, 여러 문화권을 대상으로 LLM의 가치관과 사용자 경험 사이의 관계를 탐색하고 이러한 alignment가 실제로 필요한지, 어떤 효과가 있는지 등을 살펴보고자 합니다. 향후 연구는 1) 다양한 문화권을 아우르는 모델 구성 및 평가 체계 설계, 2) 여러 국가를 대상으로 한 human study 기획 및 수행 방안 논의, 3) 실험 결과를 기반으로 한 모델과 사용자 상호작용 분석 등을 포함하여 논의될 예정입니다. 문화 연구, 심리학, 사회과학 등 관련 분야의 배경을 갖고 계신 분이라면 연구에 많은 도움을 주실 수 있습니다.
- 관련 논문
- The PRISM alignment dataset: What participatory, representative and individualised human feedback reveals about the subjective and multicultural alignment of large language models. (Kirk et al., NeurIPS 2024)
- Break the Checkbox: Challenging Closed-Style Evaluations of Cultural Alignment in LLMs (Kabir et al., EMNLP 2025)
- Value Compass Benchmarks: A Comprehensive, Generative and Self-Evolving Platform for LLMs’ Value Evaluation (Yao et al., ACL 2025)
발전기금





