딥러닝
기술노트
🧠 딥러닝 (Deep Learning)
딥러닝은 머신러닝의 한 분야로, 인간의 뇌 신경망을 모방한 인공신경망(Artificial Neural Network, ANN)을 여러 겹으로 깊게(Deep) 쌓아, 데이터 속에 숨겨진 복잡한 패턴을 학습하고 처리하는 기술입니다.
특히 이미지, 음성, 텍스트와 같은 대규모의 비정형 데이터 처리에서 기존의 머신러닝 기법들을 뛰어넘는 획기적인 성능을 보여주며, 현대 AI 기술의 핵심으로 자리 잡았습니다.
🤔 왜 'Deep'하게 쌓는가?
신경망의 층(Layer)을 깊게 쌓으면, 각 층은 이전 층에서 학습한 단순한 특징들을 조합하여 점점 더 복잡하고 추상적인 특징을 학습할 수 있습니다.
예를 들어, 이미지 인식에서 첫 번째 층은 단순한 엣지(edge)나 색상을 학습하고, 중간 층은 눈, 코, 입과 같은 형태를, 마지막 층은 이러한 특징들을 조합하여 사람의 얼굴 전체를 인식하게 됩니다. 이처럼 깊은 구조를 통해 데이터에 대한 높은 수준의 이해가 가능해집니다.
대표적인 딥러닝 모델
- CNN (Convolutional Neural Network) : 합성곱 신경망. 이미지의 공간적인 특징을 학습하는 데 특화되어 있어, 이미지 인식, 객체 탐지 등 컴퓨터 비전 분야에서 널리 사용됩니다.
- RNN (Recurrent Neural Network) : 순환 신경망. 순서가 있는 데이터(시계열 데이터, 텍스트)를 처리하는 데 강점을 가집니다. 이전 단계의 출력이 다음 단계의 입력으로 사용되는 순환 구조를 가집니다. (자연어 처리, 음성 인식 등)
- 트랜스포머 (Transformer) : RNN의 장기 의존성 문제를 해결하고, 병렬 처리를 통해 학습 속도를 크게 향상시킨 모델입니다. 현재 자연어 처리(NLP) 분야에서 가장 지배적인 아키텍처로, GPT와 같은 거대 언어 모델(LLM)의 기반이 됩니다.
💡 기술사 핵심 Point
- 딥러닝의 성공은 알고리즘의 발전, 빅데이터의 가용성, GPU 등 하드웨어의 발전이라는 세 가지 요소가 맞물린 결과입니다.
- 딥러닝 모델은 학습 과정에서 기울기 소실/폭주(Vanishing/Exploding Gradient) 문제나 과적합(Overfitting)과 같은 기술적인 어려움이 있으며, 이를 해결하기 위한 다양한 기법(ReLU 활성화 함수, 배치 정규화, 드롭아웃 등)이 중요합니다.
- 딥러닝 모델이 어떻게 그런 결정을 내렸는지 설명하기 어려운 블랙박스(Black Box) 문제가 있으며, 이를 해결하기 위한 'XAI(설명가능 인공지능)' 연구가 활발히 진행되고 있습니다.
- 전이 학습(Transfer Learning)은 대규모 데이터로 미리 학습된 모델(Pre-trained Model)을 가져와, 우리가 가진 소규모의 데이터에 맞게 미세 조정(Fine-tuning)하여 사용하는 방식으로, 딥러닝 모델 개발의 효율성을 크게 높여줍니다.