profile image

JONG HYUN LEE

AI 연구자

연락처

서울, 대한민국

rivolt2022@gmail.com

01066001566

머신러닝 및 관련 연구에 관심이 있습니다.

AI 연구와 개발을 통해 현재에 머무르지 않고 더 나은 미래로 나아가고자 합니다. 지속적인 학습과 실험을 바탕으로, 사람들의 삶에 실질적인 변화를 주는 AI 솔루션을 만들고 기여하는 것을 목표로 합니다.

학력

컴퓨터공학 학사

인공지능 석사 (재학 중) · 연세대학교

단독 개발한 AI 프로젝트

모두의 AI

AI 교육 플랫폼.

  • 기초 수학·딥러닝을 단계별로 학습. 개념, 연습 문제, 즉시 AI 피드백.
  • 기초 수학 Ch.00~12: 함수·지수·로그, 극한·연속·미분·연쇄법칙, 편미분·그라디언트, 적분, 확률변수·분포·평균·분산·정규분포.
  • 딥러닝 Ch.00~13: 벡터 내적, 행렬 곱셈·선형 계층, 활성화·인공 뉴런, 배치·가중치·은닉층·깊은 신경망, 소프트맥스, 기울기·역전파.
  • Chrome 확장 프로그램 제공.
AI 학습딥러닝Chrome 확장

여행작가

AI 기반 여행 계획 Chrome 확장 프로그램

  • 단독 기획·개발 (Primer Hackathon Finalist)
  • LangChain 기반 맞춤 일정 생성
  • YouTube API 연동 영상 기반 여행 정보
  • 사용자 중심 AI 여행 플래너
LangChainYouTube API

프롬프트지니

ChatGPT 한국어 번역·AI Chrome 확장 프로그램

  • 혼자 완성 및 개발.
  • 2일 단독 개발, 30만+ 다운로드.
  • 응답 3배 개선, 키보드 전용 모드, 번역·요약으로 ChatGPT 활용성 강화.
ReactZustandChrome 확장GitHub Actions

BizInsight AI — AI 기반 비즈니스 인사이트 도우미

복잡한 데이터를 쉽게! AI가 추천하는 ML 지표로 데이터 분석 안내.

  • KT 믿:음 2.0 Mini 활용 한국어 특화 분석·맞춤형 ML 지표 추천.
  • B2B/B2G 데이터 분석 담당자·의사결정자용 사용자 친화적 플랫폼.
비즈니스 데이터 분석ML 지표 추천KT 믿음

진행 중인 연구

RaCLE: Rationality-Checked LLM Agents for Interpretable AutoML

진행중 (CPAL 2026 제출 검토 후 미제출)

LLM이 제안한 AutoML 파이프라인 설명이 실제 성능과 맞는지 반사실적 개입(claim 부정)으로 검증하는 RCS를 정의하고, Thompson Sampling 보상에 반영해 파시모니한·해석 가능한 파이프라인으로 수렴시킨다. 6개 벤치마크에서 특징 22–91% 감소·경쟁력 있는 정확도·Test RCS 0.013–0.036 검증.

RCS(P)=1EPCEPmax(0,Q(P)Q(P¬C))\text{RCS}(P) = \frac{1}{|E_P|} \sum_{C \in E_P} \max\big(0,\, Q(P) - Q(P_{\neg C})\big)
R(P)=Q(P)+λRCS(P)R(P) = Q(P) + \lambda \cdot \text{RCS}(P)
AutoMLInterpretabilityLLM AgentsRationale Consistency ScoreRCSParsimonyThompson SamplingCPAL 2026
리뷰 준비중

완료된 연구

약하게 페어링된 환경에서의 멀티모달 연상 메모리:정보이론 기반 분석 프레임워크와 효율적 학습 전략연구

정보 이론적 관점에서의 BMA-Memory 모델 분석 및 개선

정보이론멀티모달 학습연상 메모리약하게 페어링된 데이터

모델 경량화의 이론적 통찰: Low-Rank Adaptation의 표현력과 수학적 기초 (수학적 분석)

LoRA(Low-Rank Adaptation) 논문에 대한 수학적 분석 연구. 사전 훈련된 모델을 타겟 모델과 일치시키기 위한 최소 LoRA adapter 순위(rank)를 수학적으로 분석하고, 모델 아키텍처(깊이, 너비)가 최소 순위에 미치는 영향을 이론적으로 규명. 선형 모델·FNN·트랜스포머까지 확장하여 LoRA 표현력과 근사 오차를 정량화하며, Eckart-Young-Mirsky 정리를 행렬 곱 경우로 일반화. 특이값 기반 적응적 rank 할당 방법론 제안 (Y. Zeng, K. Lee).

LoRALow-Rank AdaptationModel CompressionParameter-Efficient Fine-tuningMathematical AnalysisTheoretical AnalysisEckart-Young-Mirsky TheoremNeural Network TheoryTransformer ArchitectureSingular Value Decomposition

Interpretable Automated Machine Learning via Large Language Model Reasoning: Combining Transparency with Performance

한국인공지능학회 2025 추계학술대회 (단독저자 제출)

논문 리뷰

----------------------- REVIEW 1 --------------------- SUBMISSION: 56 TITLE: Interpretable Automated Machine Learning via Large Language Model Reasoning: Combining Transparency with Performance AUTHORS: Jonghyun Lee ----------- Overall evaluation ----------- SCORE: 2 (accept) ----- TEXT: This paper proposes an LLM-driven AutoML system that enhances transparency while maintaining strong performance. The authors outline three key components of their LLM-based AutoML framework, which together enable human-level reasoning and competitive results. Overall, the work is well-motivated and offers valuable insights to the research community. ----------------------- REVIEW 2 --------------------- SUBMISSION: 56 TITLE: Interpretable Automated Machine Learning via Large Language Model Reasoning: Combining Transparency with Performance AUTHORS: Jonghyun Lee ----------- Overall evaluation ----------- SCORE: 2 (accept) ----- TEXT: The idea of using LLM models for feature selection, model selection, and interpreting prediction results is impressive. The direction of research is promising, and it has the potential to shed light on LLMs as reasoning tools for machine learning's areas of optimal selection and interpretability. This paper is valuable for presentation at the JKAIA2025 conference. However, the content is limited due to the primitive experiments and settings. DNN and various machine learning tasks can be candidates for this approach. If you can find a way to combine this approach and DPO, it can strengthen the paper. Anyway, this paper can serve as a good starting point for further study of LLMs' usage in machine learning. ----------------------- REVIEW 3 --------------------- SUBMISSION: 56 TITLE: Interpretable Automated Machine Learning via Large Language Model Reasoning: Combining Transparency with Performance AUTHORS: Jonghyun Lee ----------- Overall evaluation ----------- SCORE: 0 (borderline paper) ----- TEXT: The work's core idea—using an LLM to synthesize standard statistical signals with lightweight, human-readable reasoning—has practical appeal, especially for education and for teams wary of black-box AutoML, and the multi-seed reporting is a welcome step toward more honest evaluation. However, technical depth and empirical rigor feel modest: the algorithmic choices are limited (RF, SVM/LogReg, K-means), ablations disentangling the LLM's value from simple score aggregation are missing, and unsupervised performance lags a tuned baseline by about 10.6% on Iris; moreover, cross-dataset gains are mixed and the scope is confined to small tabular benchmarks. The paper is clearly written and the interpretability angle is genuine, but stronger baselines (e.g., Auto-sklearn/TPOT with reporting parity), richer ablations, and broader domains would sharpen its contribution.

LLM 기반 AutoML: (1) 특성 분석·선택 (2) 모델 선택·실행 (3) 결과 분석·통찰 생성. 통계 지표 MI, RF 중요도, Pearson ρ를 LLM에 제공하고, 통계와 LLM 통찰을 결합한 특성 선택으로 투명성과 성능을 동시에 확보. 50–90% 차원 축소, 95.33%±3.58% 분류 정확도.

S=arg maxSF  [αXiSstats(Xi)+βLLM-Insight(S,task)]S^* = \operatorname{arg\,max}_{S \subseteq F} \; \left[ \alpha \sum_{X_i \in S} \mathrm{stats}(X_i) + \beta \cdot \text{LLM-Insight}(S,\mathrm{task}) \right]
AutoMLInterpretabilityLarge Language ModelsFeature SelectionExplainable AILLM ReasoningZero Human InterventionDimensionality ReductionModel SelectionAutomated Result Analysis

수상 및 성과

K리그-서울시립대 공개 AI 경진대회 (Track1 알고리즘 부문)

3등 / 937 (은상)

서울시립대학교 (2025)

K리그 축구 경기 데이터 시계열 예측·유클리드 거리 기반 알고리즘 경진. 937팀 중 3등, 은상 수상.

알고리즘스포츠시계열유클리드 거리

2025 금융 AI Challenge : 금융 AI 모델 경쟁

22등 / 283

금융보안원 (2025)

금융 AI 모델 경쟁. 상위 8% 성과.

알고리즘금융생성형 AIFSKU

2025 전력사용량 예측 AI 경진대회

87등 / 934

DACON (2025)

전력 사용량 시계열 예측. 상위 10% 성과.

알고리즘정형시계열에너지SMAPE

토스 NEXT ML CHALLENGE : 광고 클릭 예측(CTR) 모델 개발

103등 / 709

토스 (2025)

광고 클릭 예측(CTR) 분류 모델 개발. 상위 15% 성과.

알고리즘정형CTR머신러닝분류

Boost up AI 2025 : 신약 개발 경진대회

198등 / 763

DACON (2025)

신약 개발 AI 경진대회. 분자 구조·정형 데이터 회귀.

알고리즘분자구조정형회귀바이오NRMSEPCC

수강과목

2025-1학기
딥러닝개론과응용인공지능전공세미나I강화학습과제어기계학습과정보이론
2025-2학기
자연어처리개론인공지능전공세미나II모델경량화