OAK

1차원 신호 분석 신뢰성 향상을 위한 인공지능 기반 전처리 및 데이터 증강 기법 연구

Metadata Downloads
Type
Thesis
Abstract
1차원 신호는 다양한 분야에서 물질 조성, 반응 상태, 이상 여부 등을 판별하는 핵심 정보원으로 활용된다. 그러나 실제 계측 환경에서는 낮은 신호대잡음비(Signal-to-Noise Ratio)와 제한된 계측 조건으로 인해 신호가 심하게 오염되거나 계측 조건 전 구간을 포괄하는 고품질 학습 데이터셋을 확보하기 어려운 경우가 많다. 특히 피크의 위치, 높이, 폭과 같은 형태학적 특징이 정량 분석의 중심 지표임에도 불구하고 기존 잡음 제거 및 데이터 증강 기법은 피크 구조를 충분히 보존하지 못하거나 조건 변화 및 성분 간 상호작용에 따라 비선형적으로 변화하는 파형 특성을 적절히 반영하지 못해 딥러닝 기반 분석 모델의 신뢰도와 일반화 성능을 제약하는 한계를 드러낸다. 이러한 한계를 해결하기 위해 본 논문에서는 피크 기반 1차원 신호의 신호 품질 향상과 데이터 부족 완화를 동시에 달성하기 위한 두 가지 방법론을 제안한다. 첫째, 피크 구조를 명시적으로 고려하는 피크 인지형(peak-aware) 적응적 잡음 제거 기법을 제안한다. 잡음이 포함된 1차원 신호에서 피크를 자동 검출한 뒤 피크 간 거리와 기준 신호와의 유클리드 거리(Euclidean Distance, ED)를 기반으로 구간별 최적 Savitzky–Golay(SG) 필터 윈도우 길이를 회귀 모델 형태로 학습함으로써 신호 전체에 하나의 고정 윈도우를 적용하는 기존 방식의 한계를 극복하였다. 라만 분광 신호를 대상으로 한 실험 결과 제안 기법은 고정 윈도우 SG 대비 ED를 약 28% 감소시키고 Fréchet Inception Distance(FID)를 약 48% 개선하여 피크 형상 보존과 잡음 억제 성능을 동시에 향상시키는 것으로 나타났다. 둘째, 극히 제한된 수의 실측 혼합 신호만으로도 비선형 혼합 상호작용을 반영한 고품질 1차원 혼합 신호를 생성하기 위한 비선형 혼합 신호 생성 프레임워크를 제안한다. 제안 프레임워크의 핵심은 혼합 비율 조건 벡터를 입력으로 받는 조건부 변분 오토인코더(Conditional Variational Autoencoder)를 기반으로 서로 다른 혼합 비율에서 계측된 소수의 실측 혼합 신호를 앵커로 활용하여 목표 혼합 비율 주변에서 동적 보간을 수행함으로써 순수 성분 신호의 단순 선형 결합만으로는 포착하기 어려운 비선형 혼합 궤적을 학습하게 하는 데 있다. 또한 피크 위치와 강도 차이를 직접 규제하는 피크 손실(peak loss)을 도입하여 평균 제곱 오차(Mean Squared Error, MSE) 기반 손실만으로는 포착되기 어려운 좁은 피크 영역의 국소 오류를 효과적으로 억제하였다. 이성분 라만 혼합계를 대상으로 한 실험에서 제안 프레임워크는 단순 선형 결합 방식 대비 MSE를 약 69.2% 감소시키고 FID를 약 84.6% 개선하였으며 피어슨 상관계수(Pearson Correlation Coefficient) 약 0.999를 달성하여 실제 계측 신호와 거의 구별이 어려운 수준의 신호 생성 성능을 보였다. 종합적으로, 본 논문에서 제안하는 피크 인지형 적응적 잡음 제거와 비선형 혼합 신호 생성 프레임워크는 피크 구조를 중심으로 한 도메인 지식을 모델 설계에 직접 통합함으로써 신호 품질 저하와 데이터 부족이라는 두 문제를 동시에 완화하는 통합적 해법을 제공한다.
Author(s)
이주형
Advisor
이웅희
Department
AI응용학과
Issued Date
2026
Publisher
한성대학교 대학원
Keyword
생성형 인공지능, 신호 처리, 화학 신호 분석, 데이터 증강, 잡음 제거
URI
https://dspace.hansung.ac.kr/handle/2024.oak/10634
Appears in Collections:
AI응용학과 > 2. Thesis
Authorize & License
  • Authorize공개
Files in This Item:

Items in Repository are protected by copyright, with all rights reserved, unless otherwise indicated.