데이터의 곡면을 펴다: 신경망과 기하학적 구조
Mathematical Structure Vol. 30
데이터의 곡면을 펴다:
신경망과 기하학적 구조
"인공지능은 고차원 우주 속에 엉켜있는 데이터의 매듭을 푸는 기하학자입니다."
00. 몬이 샘의 사유: 100만 차원의 점들이 그리는 지도
"선생님, 인공지능이 사진을 보고 개인지 고양인지 맞추는 게 신기해요. 도대체 픽셀 숫자를 가지고 어떻게 그런 판단을 하나요?"
복잡한 데이터를 보며 머리 아파하는 학생에게 저는 구겨진 종이 뭉치를 보여주었습니다.
"얘들아, 사진 한 장은 수백만 개의 점으로 이루어진 고차원의 위치 정보란다. 하지만 그 점들이 아무렇게나 찍혀 있는 게 아니야. '개' 사진들은 그 넓은 공간 속에서도 아주 얇고 구불구불한 특정한 '곡면' 위에 모여 있지. 10년 동안 수학을 가르치며 깨달은 건, 인공지능이란 결국 이 구겨진 종이(데이터 곡면)를 부드럽게 펴서 칼로 깔끔하게 자를 수 있게 만드는 기하학적 예술이라는 사실이야. 오늘은 딥러닝이 어떻게 공간을 주무르는지 그 신비로운 구조를 알아보자."
01. 매니폴드 가설: 무질서한 데이터 속 숨겨진 저차원의 곡면
현대 기계 학습의 가장 중요한 전제는 매니폴드 가설(Manifold Hypothesis)입니다. 고차원 공간에 존재하는 실제 데이터는 사실 매우 낮은 차원의 부분 공간인 '매니폴드' 근처에 집중되어 있다는 이론입니다.
구조적 핵심: 예를 들어, $28 \times 28$ 픽셀의 숫자 이미지는 784차원 공간의 점이지만, 우리가 '숫자'라고 인식할 수 있는 점들은 그 공간의 대부분을 비워두고 아주 좁은 곡면 위에만 존재합니다. 신경망은 바로 이 매니폴드의 '좌표'를 찾아내는 지도 제작자와 같습니다.
02. 레이어의 마법: 공간을 비틀고 늘리는 선형 및 비선형 변환
딥러닝의 각 층(Layer)은 데이터를 다음 공간으로 보낼 때 두 가지 수학적 변환을 가합니다. 선형 변환(가중치 곱)과 비선형 변환(활성화 함수)입니다.
- 선형 변환 (Linear): 공간을 회전시키고, 늘리고, 찌그러뜨립니다. 하지만 평평한 것을 구부리지는 못합니다.
- 비선형 변환 (ReLU, Sigmoid): 드디어 공간을 '접고 구부리는' 역할을 합니다. 이 단계가 있어야만 복잡하게 얽힌 데이터 곡면을 분리할 수 있습니다.
$f(x) = \sigma(Wx + b)$
(기하학적 왜곡을 만드는 신경망의 기본 연산 단위)
03. 위상적 분류: 얽힌 실타래를 푸는 딥러닝의 기하학
신경망의 학습 과정은 기하학적으로 보면 위상적 변환(Homeomorphism)의 연속입니다. 딥러닝은 겹겹이 쌓인 레이어를 통해 원본 공간에서는 도저히 직선으로 나눌 수 없던 데이터들을, 마지막 출력층에 도달했을 때는 평면 하나로 슥 자를 수 있을 만큼 '매끈하게 펴진 공간'으로 변형합니다.
우리가 딥러닝 모델을 '깊게(Deep)' 쌓는 이유는, 레이어가 많아질수록 공간을 더 정교하게 접고 펼 수 있는 기하학적 자유도가 높아지기 때문입니다. 이것이 바로 얕은 신경망이 해결하지 못하는 복잡한 문제를 딥러닝이 해결하는 구조적 비결입니다.
04. 결론: 기하학적 직관이 만드는 AI의 미래
인공지능은 단순한 숫자 계산기가 아니라, 보이지 않는 고차원 공간을 주무르는 가장 현대적인 기하학 도구입니다. 데이터 속에 숨겨진 매니폴드를 찾아내고 그 곡면을 평탄화하는 신경망의 구조를 이해할 때, 우리는 비로소 블랙박스라 불리는 AI의 지능에 수학적 실체를 부여할 수 있습니다. 오늘 정리한 신경망의 기하학적 질서가 여러분의 탐구 보고서에 '매니폴드 가설을 통한 차원 축소의 원리와 딥러닝 아키텍처의 위상적 해석'이라는 압도적인 전문성을 더해주길 바랍니다. 10년 차 몬이 샘은 여러분이 수학이라는 정교한 나침반으로 인공지능의 거대한 우주를 항해하는 지혜로운 리더가 되길 응원합니다!