수치해석과 순수수학의 차이점
연구 대상과 지향점
수치해석과 순수수학은 수학을 바탕으로 한다는 점에서 공통분모를 가지지만, 궁극적으로 지향하는 바와 접근 방식에 있어 상당한 차이를 드러낸다. 순수수학이 논리적 일관성과 추상적 구조를 탐구하는 데 주력한다면, 수치해석은 현실에서 마주하는 복잡한 문제에 대해 실제로 계산 가능한 해를 찾는 데 집중한다. 예를 들어 방정식의 해가 존재하고 유일함을 밝히는 것에 만족하지 않고, 어떻게 하면 유효한 알고리즘으로 근사값을 구하며 오차를 최소화할 수 있을지 고민하는 것이 수치해석의 핵심이다.
순수수학은 미분가능성, 완비성, 위상공간 등과 같은 가장 근본적이고 추상적인 개념들을 정교하게 다루어 나간다. 이를 통해 여러 분야의 이론적 토대를 공고히 하는 것이 주된 관심사이며, 해의 존재 여부를 철저히 증명하고 논리적으로 완벽한 구조를 갖추는 것을 중시한다. 반면 수치해석에서는 결국 컴퓨터가 다룰 수 있는 형태로 계산 과정을 체계화하고, 실제 연산에서 발생할 수 있는 수치오차를 어떻게 처리할지, 구현에 필요한 시간과 메모리가 어느 정도인지 등을 중요하게 여긴다. 이는 곧 순수수학의 추상적 정당성과 수치해석의 실용적 효율성 사이에 놓여 있는 근본적인 차이점을 보여준다.
오차의 해석과 제어
수치해석에서 가장 중요한 부분 중 하나는 오차를 해석하고 통제하는 방식이다. 컴퓨터가 수행하는 부동소수점 연산으로 인해 나타나는 반올림 오차, 잘못된 초기값 추정으로부터 누적되는 불안정성, 그리고 반복 알고리즘에서 원하는 수렴 정밀도에 도달하기 위한 횟수 분석 등이 모두 오차 해석과 관련된다. 예를 들어 어떤 수치적 방법이 선형시스템 $\mathbf{A}\mathbf{x} = \mathbf{b}$를 푸는 과정에서 갖는 절대오차와 상대오차를 추정하려면, 행렬 $\mathbf{A}$의 조건수 $\kappa(\mathbf{A})$ 같은 개념을 도입해 알고리즘이 얼마나 민감한지 분석해야 한다.
순수수학의 맥락에서는 해가 존재하고 그 해를 표현하는 폐곡선적 해석을 찾거나, 다양체 위에서 정의된 함수들이 만족해야 하는 미분방정식 해의 연속성 등을 엄밀히 보장하는 데 초점을 맞춘다. 하지만 수치해석에서는 해가 실제로 구해질 때 오차가 어떻게 축적되는지를 세밀히 점검하며, 특정 알고리즘이 유한 회의 연산으로 충분히 정확한 값을 산출할 수 있도록 방법론적 근거와 계산 과정을 철저히 수립한다. 이를 위해 오차 경계(오차가 어느 정도 이내로 유지되는가)나 수렴 속도(반복 횟수에 대한 오차의 감소율)를 꼼꼼히 분석하는 작업이 필수적이다.
알고리즘적 사고방식
순수수학에서는 명제와 정리의 형태로 논증 과정을 전개하며, 이 과정을 통해 결과를 증명함으로써 논리적 완결성을 추구한다. 그 과정에서 구현 가능성이나 계산 복잡도는 크게 중요하지 않을 때가 많다. 그러나 수치해석에서는 문제 해결에 필요한 알고리즘 설계가 중추적 역할을 한다. 함수 근사나 적분 근사를 예로 들면, 함수의 연속성이나 미분가능성 같은 이론적 조건들을 확인하는 데서 그치지 않고, 구간 분할 방식이나 다항식 보간, 테일러 전개 등을 어떻게 구현할지를 고려한다. 또 이 알고리즘을 반복적으로 수행했을 때 결과 오차가 원하는 범위 내로 빠르게 수렴하는지, 혹은 중간에 수치적 진동(진동 현상)이나 과도한 계산 시간이 소요되지 않는지 등을 다룬다.
예를 들어 1차원 적분 문제에서 순수수학적 관점이라면, 적분 가능성 및 합리적 접근 방법이 존재함을 보여 주는 것으로 논의를 마무리할 수 있다. 그러나 수치해석적 관점에서는 여러 근사법(직사각형 공식, 사다리꼴 공식, 심프슨 공식 등)을 실제 코드로 구현했을 때, 얼마만큼의 세분할이 필요한지, 그 연산량은 어떻게 되는지, 반올림 오차와 절단 오차가 어떤 식으로 누적되는지를 분석해야 한다. 이렇듯 알고리즘에 대한 구체적 분석이 수치해석의 본질적 특징 중 하나다.
안정성과 이론의 접목
수치해석에서 안정성은 알고리즘이 외부 교란, 반올림 오차, 입력 데이터의 미세한 변화 등에 민감하지 않고, 일관된 결과를 산출할 수 있는가를 가리킨다. 어떠한 방법론이 이론적으로는 타당해 보이지만, 컴퓨터에서 실제로 수행했을 때 심각한 불안정성이 발생해 오차가 폭발적으로 커진다면 실용성은 거의 없는 것으로 간주된다. 이렇게 ‘적절한 안정성’을 만족하는지 따져보는 것은 순수수학의 결과와는 또 다른 층위에서 매우 중요하다.
순수수학의 입장에서는 문제 해의 존재와 성질이 우선 탐구 대상이 된다. 특정 함수공간에서 해가 유일하게 존재한다는 사실이 증명되면, 그 자체로 이미 중요한 수학적 성과가 된다. 그런데 수치해석에서는 실제 연산 과정에서 불안정한 방법을 쓰면 유도된 해가 의미 없게 되거나, 연산 시간이 기하급수적으로 늘어날 수 있다. 따라서 순수수학에서 마련된 이론적 기반 위에, 안정성 분석과 알고리즘 복잡도 분석을 더하여 효율적이면서도 정확한 계산을 달성하는 방법을 설계하는 것이 목표다.
복잡도와 계산 자원
수치해석에서는 알고리즘을 실행하기 위해 필요로 하는 계산 자원, 예컨대 연산 횟수와 메모리 사용량을 추정하는 일이 매우 중요하다. 이로써 특정 문제를 풀 때 어떤 방법이 더 효율적인지 객관적으로 비교할 수 있다. 대표적으로 $n \times n$ 크기의 행렬 $\mathbf{A}$에 대해 고전적인 가우스 소거법을 적용하면, 일반적으로 $O(n^3)$ 정도의 연산이 필요하다는 사실이 알려져 있다. 순수수학의 관점에서는 행렬 역행렬 $\mathbf{A}^{-1}$가 존재하는지, 그 존재 조건이 무엇인지 등이 주된 연구 주제가 될 수 있으나, 수치해석에서는 이를 실제로 계산하려면 어느 정도 연산량이 필요한지를 더욱 우선하여 논의한다.
또한 순수수학에서 다루는 추상적인 문제들은 직접적인 계산이 불가능하거나 극도로 방대한 경우가 흔하지만, 수치해석에서는 그런 문제들에 대해 근사 해를 구하기 위해 점근적 해석, 확률적 방법, 혹은 다른 최적화 기법을 통해 ‘실제로 구할 수 있는 수준의’ 해답을 모색한다. 이때 계산 비용이 지나치게 커지거나, 연산 수행 과정에서 수치적 불안정이 크게 발생하면, 아무리 이론적으로 타당해 보여도 실질적인 가치가 떨어진다고 볼 수 있다.
근사 이론과 수렴 속도
수치해석에서 근사를 다루는 주요 이유는 대체로 닫힌 형태(closed-form)의 해를 얻기 어려운 복잡한 문제를 실제로 풀어내기 위함이다. 예를 들어 적분 방정식이나 편미분방정식 문제에서 테일러 급수 전개, 다항식 보간, 퓨리에 급수, 혹은 웨이블릿 기법 등 여러 접근 방법으로 함수를 근사하려 한다. 이때 근사의 정확도와 수렴 속도를 측정하는 이론이 발달되어 있는데, 이는 문제의 특성, 사용된 전개 방식, 그리고 구간 분할의 크기 같은 요인들에 의해 좌우된다.
순수수학의 전개에서는 테일러 급수나 퓨리에 급수 등의 존재성과 독특한 성질(연속성, 미분가능성, 직교성 등)에 대해 정밀하게 분석하고, 해당 급수가 수렴할 때의 조건과 형태를 밝힌다. 그러나 여기서 그치는 것이 아니라, 수치해석 쪽에서는 실제로 몇 개 항을 쓰는 것이 최선인지, 특정 구간에서 함수가 급격하게 변화할 때 오차가 어떻게 커지는지, 추가로 분할이나 항을 늘리면 얼마만큼 수렴이 빨라지는지 등을 정량적으로 추정한다.
테일러 급수 전개를 예로 들면, 어떤 함수 $f(x)$의 $n$차 테일러 다항식으로 근사했을 때 오차 항은 다음과 같은 꼴로 표현된다.
여기에서 $\xi$는 $x$와 $a$ 사이에 존재하는 값이다. 순수수학에서는 이 식을 통해 테일러 급수의 정밀한 수렴 조건과 이론적 오차 한계를 논한다. 그러나 수치해석 측면에서는 실제로 계산할 때 $f^{(n+1)}(\xi)$를 정확히 알기 어렵고, 컴퓨터 연산 과정에서 반올림 오차가 함께 발생하므로, 단지 위 식의 이론적 형태만으로는 충분하지 않다. 결국 오차 추정 공식을 어떻게 운용할지, 필요한 근사 차수 $n$을 어떻게 결정할지, 오차가 원하는 정도 이하가 되려면 얼마만큼의 반복 계산을 감수해야 하는지를 종합적으로 계산해 내는 것이 핵심이다.
정리와 추론 방식의 차이
순수수학에서는 명제와 정리를 통해 가정이 성립할 때 결론이 성립함을 ‘증명’이라는 방식으로 확립한다. 이러한 증명 방식은 단계마다 형식논리 체계를 엄격히 준수함으로써 오류가 없이 완벽한 구조를 갖추고 있음을 보증한다. 예를 들어 실해석학이나 대수학의 정리들은 통상적으로 lemma, theorem, corollary 등으로 나뉘어, 결론을 도출하기 위한 여러 중간단계를 체계적으로 축적해 나간다.
수치해석에서도 여러 가지 정리나 보조정리를 활용하지만, 이는 대부분 알고리즘적 목적을 달성하기 위해 존재한다. 예컨대 어떤 반복법이 특정 초기값 근방에서 수렴한다는 사실을 증명한다면, 이는 실제 계산 프로그램이 잘 작동하기 위한 이론적 근거가 된다. 여기서 더 나아가 매 반복 단계가 $\alpha$만큼씩 오차를 줄인다는 식으로 정량적 수렴률 분석까지 수행된다. 따라서 논증의 과정이 단지 참-거짓 여부에 멈추지 않고, 효율성과 안정성, 오차 경계 등의 구체적인 척도를 포함하게 된다.
사례: 비선형 방정식 해법
비선형 방정식 $f(x) = 0$의 해를 구하는 과제를 통해 수치해석과 순수수학의 차이를 더 잘 이해할 수 있다. 순수수학에서는 $f(x)$가 주어진 구간에서 해를 몇 개나 가지는지, 각 해가 어떤 성질을 가지는지, 그리고 그 해가 나타나는 구조가 어떠한지 등을 분석하는 과정이 중요하다. 반면 수치해석에서는 뉴턴법(Newton-Raphson method), 이분법(bisection method), 또는 불린 방법(secant method) 등 다양한 알고리즘을 실제로 적용하여 근사 해를 구해 본다.
예를 들어 뉴턴법은 다음과 같이 정의된다.
순수수학적으로는 $f'(x_k)$가 0이 되지 않는 근방에서 뉴턴법이 수렴한다는 전형적 정리를 보여 주지만, 수치해석에서는 이 알고리즘을 코딩하여 실행했을 때, 만일 $f'(x_k) \approx 0$이면 분모가 0에 가까워져 급격한 발산이 일어날 수 있다는 사실을 더 중요하게 여긴다. 또한 초기값 $x_0$을 어떻게 잡느냐에 따라 수렴 속도가 달라지거나, 심지어 전혀 수렴하지 않는 경우도 생기므로, 이때 적절한 초기값 선택 전략을 수립하고, 수렴 여부를 실시간으로 진단하는 보조장치를 설계하는 문제도 다룬다.
편미분방정식(PDE)과 수치 모델링
편미분방정식 문제를 다루는 과정에서도 순수수학과 수치해석은 서로 다른 방향으로 발달해 왔다. 순수수학에서는 편미분방정식 해의 존재성과 유일성, 그리고 안정성 조건을 이론적으로 입증하는 데 주안점을 둔다. 예를 들어 타원형 방정식의 해가 특정 소볼레프 공간에서 존재하고, 경계값 조건에 따라 유일성이 어떻게 확보되는지 등을 엄밀하게 밝혀내는 것이 순수수학의 전형적인 연구방식이다.
반면 수치해석에서는 편미분방정식의 해를 실제로 ‘계산’하기 위한 방법을 개발하는 데 집중한다. 유한차분법(Finite Difference Method), 유한요소법(Finite Element Method), 유한체적법(Finite Volume Method) 등으로 PDE를 이산화(discretization)하여, 컴퓨터가 풀 수 있는 대규모 선형 혹은 비선형 시스템 형태로 재구성한다. 예를 들어 고전적인 포아송( Poisson ) 방정식
에 대한 디스크리티제이션 과정을 살펴보면, 연속적인 도함수 대신 격자(grid) 위에서 유한 차분 근사를 사용해 풀어낸다. 이때 순수수학적 관점에서는 미분연산의 정의역 확장성, 유도 체계, 경계 조건의 호환성 등을 체계적으로 증명하는 데 관심을 둔다. 하지만 수치해석 관점에서는 격자 점들의 개수를 늘릴 때 해의 오차가 어떤 비율로 줄어드는지(수렴률), 메모리 사용량이나 연산 시간은 얼마나 증가하는지(계산 복잡도), 격자의 형태나 크기에 따라 해가 ‘의미 있게’ 잘 근사되는지를 중점적으로 본다.
실제로 편미분방정식은 해가 존재하더라도 닫힌 형태의 해를 구하기 어려운 경우가 많아, 컴퓨터를 통한 근사 계산은 필수적이다. 또한 해가 급격히 변화하는 지역(특이점, 충격파, 경계층 등)을 제대로 포착하기 위해서는 비균일 격자를 도입하거나, 적응형(Adaptive) 기법을 통해 계산 영역을 능동적으로 재구성하기도 한다. 이런 과정에서 순수수학에서 제공하는 해 존재 이론과 안정성, 에너지 감소 원리 같은 개념은 수치적 알고리즘이 올바른 해로 수렴한다는 사실의 근거가 되며, 동시에 수치해석적 기법은 순수수학에서 제시된 해 이론을 현실 문제에 적용하는 창구 역할을 한다.
대규모 문제와 희소 행렬 처리
수치해석에서는 물리적 문제나 공학적 문제를 대규모 시스템으로 바꾸어 표현하는 일이 잦다. PDE를 이산화한 뒤 얻게 되는 선형시스템이나 비선형시스템은 수십만, 수백만 이상의 자유도를 가질 수 있으며, 이렇게 대규모화된 문제를 풀기 위해서는 희소(sparse) 행렬 구조를 효율적으로 다루는 알고리즘이 필요하다. 예컨대 대부분의 물리계 모델에서 인접한 격자점만 연관성을 가지므로 행렬의 비대각 원소가 매우 적은 형태를 띠게 된다.
순수수학에서는 대규모 희소 행렬이라는 개념을 그 자체로 깊이 연구하기보다는, 행렬이 갖는 고유한 이론적 성질(고윳값 분포, 정규성, 스펙트럼 반지름 등)에 집중할 때가 많다. 그러나 수치해석 측면에서는 이를 이용해 실제 연산에서 얼마나 빠른 해법을 구성할 수 있는지가 관건이 된다. 예를 들어 희소 행렬 구조를 유지한 채로 빠른 직교분해를 수행할 수 있는 기법이나(예: 희소 LU 분해, 다중 그리드법, 적응형 분할 알고리즘 등), 사전(conditioning)이 나쁜 행렬에 대해서는 사전조건화(preconditioning)를 어떻게 설계해야 하는지 등이 중요한 연구 주제다.
또한 크고 복잡한 행렬 연산은 병렬 컴퓨팅(Parallel Computing), GPU 가속, 대규모 클러스터 등 고성능 컴퓨팅(HPC) 환경을 활용해야 할 경우가 많다. 이처럼 수치해석은 빠르게 성장하는 계산 자원과 알고리즘을 결합하여 문제 해결 효율을 제고하는 실천적 학문으로서의 특성이 매우 두드러진다.
연산 정밀도와 래운딩(r) 분석
컴퓨터로 수치 연산을 수행할 때, 부동소수점 표기법이나 내부 레지스터 구조 때문에 불가피하게 반올림 오차가 발생한다. 순수수학적으로는 실수를 완벽하게 조작할 수 있다고 가정하지만, 실제 계산 환경에서는 $10^{-16}$ 수준 이하의 오차라 하더라도 누적 효과로 인해 결과 값이 심각하게 왜곡될 수 있다.
특히 반복 연산을 많이 거치는 알고리즘(예: 반복법, 적분 근사 반복, 신호처리 필터 등)의 경우, 반올림 오차가 점차 축적되어 오차가 커지는 누적 효과가 크게 나타난다. 수치해석에서는 이 현상을 분석하기 위해 머신 이플실론(machine epsilon), 유효숫자(significant figures) 같은 개념을 정립하여, 알고리즘이 반올림 오차에 얼마나 민감한지를 평가한다. 반면 순수수학에서는 실수 연산이 무제한 정밀도로 이뤄진다고 보며, 오차가 전혀 없는 상태에서 이론을 전개하므로, 반올림 오류 자체가 연구의 핵심 대상이 되지는 않는다.
하지만 수치해석은 “오차를 어떻게 제어할 것인가”라는 현실적인 문제를 초점에 둔다. 해석학적으로 정당화된 알고리즘이라 하더라도, 실제 연산 과정에서 발생하는 미세한 오차가 증폭된다면 그 해는 실질적인 의미를 잃게 된다. 따라서 알고리즘의 안정성과 연산 정밀도, 하드웨어 아키텍처, 그리고 효율적인 데이터 표현 방식 등을 통합적으로 고려해야 한다. 이러한 관점에서, 순수수학이 제시하는 이론적 정합성 위에 수치적 알고리즘이 놓이게 되며, 그 과정에서 실질적으로 구현 가능한 형태로 문제 해결 전략이 구체화된다.
기호적(synthetic) 접근과 수치적(analytic) 접근
순수수학에서 수많은 구조와 정리는 기호적(synthetic) 추론 방식을 통해 전개된다. 예를 들어 함수해석학이나 대수기하학 등에서는 정의와 공리 체계를 엄밀히 세우고, 이를 기초로 정리(Theorem)와 보조정리(Lemma), 따름정리(Corollary)를 차례대로 쌓아 올려 거대한 논증 구조를 형성한다. 이론 내의 상호 참조가 복잡하게 얽혀 있어도, 만약 증명 과정에서 논리적 비약이 없음을 보장할 수 있다면, 그 추론 체계는 완벽하다는 평가를 받는다.
수치해석은 동일한 문제를 보더라도 전개방식에 차이가 있다. 예컨대 어떤 편미분방정식 문제의 해 존재성을 순수수학에서 증명했다고 해도, 실제로 그 해를 '숫자로' 계산해야 하는 수치해석 입장에서는 기호적 증명만으로는 충분하지 않다. 반복법이나 분할법, 보간법 등의 ‘절차적 알고리즘’을 통해 그 해를 근사해야 하며, 알고리즘 설계의 단계마다 발생 가능한 수치적 불안정, 래운딩 오차, 초기값 민감도 등을 점검해야 한다. 이렇듯 기호적 접근이 문제의 존재성과 유일성을 "종이 위에서" 확립했다면, 수치적 접근은 현실의 컴퓨터 상에서 "실제로" 해답을 구하는 관점으로 초점을 이동시킨다.
수치 선형대수학과 추상 선형대수학
선형대수학은 순수수학에서 매우 중요한 위치를 차지한다. 벡터공간, 선형변환, 고윳값 분해, 스펙트럼 이론 등은 대부분 정리-증명 방식으로 이루어지며, 이 과정에서 구체적인 수치 계산량이나 알고리즘적 구현은 크게 고려되지 않는다. 오직 주어진 지도(선형변환)가 벡터공간에서 어떤 불변량을 가지는지, 그에 따른 구조가 어떠한지 등을 논리적으로 완비되게 설명하는 것이 관건이다.
한편 수치해석의 핵심 분과 중 하나가 수치 선형대수학이다. 행렬 $\mathbf{A}$가 주어졌을 때, $\mathbf{A}\mathbf{x} = \mathbf{b}$ 형태의 선형시스템을 어떻게 빠르고 정확하게 풀 것인가, $\mathbf{A}$의 고윳값(eigenvalue)을 어떻게 효과적으로 근사할 것인가가 대표적 주제들이다. 대규모 문제에서 $\mathbf{A}$가 희소(sparse)할 때, 이를 효율적으로 저장하고 연산하는 기법, 혹은 역행렬을 구하지 않고도 시스템을 직접 푸는 분해(예: LU 분해, QR 분해, 혹은 SVD)가 개발된다. 이러한 과정에서 순수수학의 정리나 위상적 견해가 큰 의미를 갖긴 하지만, 실제로 컴퓨터 메모리에 행렬을 어떻게 배치하여 중복 계산을 줄일지, 희소 행렬의 비대각 원소들을 어떻게 색인화하여 캐시 적중률(cache hit)을 높일지 등은 전형적인 수치해석적·공학적 관심사다.
예를 들어 순수 선형대수학에서는 ‘어떤 선형사상에 고윳값이 존재하는가?’라는 문제를 다룰 때, 정리와 증명을 통해 $n \times n$ 행렬의 고윳값이 복소수 영역에서 반드시 $n$개 존재함을 확립한다(물론 중복도 포함). 그러나 수치해석에서는 실제로 그 고윳값을 구하는 알고리즘인 멱승법(power method), QR 알고리즘, Arnoldi 반복법 등을 구현하고, 이 알고리즘들이 실제 어떤 속도로 수렴하는지, 수렴하지 않을 수 있는 상황은 어떤 것인지 등을 분석한다. 이때 머신 이플실론이나 반올림 오차로 인해, 순수 이론에서 예측한 것과는 다소 다른 에러분석이 요구될 수 있다.
미분방정식에서의 지배적 관점
수학에서 미분방정식은 단일 변수의 상미분방정식부터 여러 변수로 확장된 편미분방정식까지 폭넓게 연구된다. 순수수학 관점에서는 해의 존재, 유일성, 정칙성(regularity), 해석적 성질(analyticity) 등이 핵심적이다. 예컨대 해가 특정 공간(소볼레프 공간, 바나흐 공간 등)에 속한다는 사실, 혹은 해가 어디서 무한히 미분가능하다는 성질을 증명함으로써 이론적 완전성을 추구한다. 그러나 수치해석에서는 실제 초기조건 문제를 풀거나, 경계값 문제를 풀 때 적절한 알고리즘이 얼마나 빠르고 정확하게 수렴하는지 확인하는 일이 훨씬 중요하다. 상미분방정식을 예로 들면, 순수수학은 피카르(Picard) 적분 방정식을 통해 해의 존재성과 유일성을 밝히고, 적절한 조건에서 해가 연속적으로 변화한다는 점 등을 증명한다. 반면 수치해석에서는 오일러(Euler) 방법, 룬게-쿠타(Runge-Kutta) 계열 방법, 다단계(multi-step) 방법 등을 이용해 실제 계산 절차를 마련하고, 이 알고리즘들이 어떤 단계 크기(step size)에서 오차를 최소화하는지, 불안정하지 않은지 등을 세부적으로 살핀다.
특히 강건안정성(robust stability) 관점에서, 순수수학은 이론적 미분방정식 해가 특정 매개변수나 초기값 변화에 대해 연속적으로 변하는 성질(지속성)을 보장하는 반면, 수치해석은 작은 오차가 매 반복마다 배가될 위험이 있는지, 혹은 근방의 해로 순식간에 이탈하지 않는지를 시뮬레이션하고 반올림오차 누적을 점검한다. 현실적인 대규모 시스템(예: 기후 모델링, 천체 역학, 유체역학 시뮬레이션 등)에서는 이 같은 수치적 안정성이 실제 결과 신뢰도를 좌우하기 때문에, 순수수학의 결과만으로는 부족한 면이 생긴다.
기계학습과 최적화 문제
현대의 기계학습(머신러닝) 기법, 특히 딥러닝(Deep Learning)은 방대한 차원의 매개변수를 갖는 비선형 최적화 문제로 볼 수 있다. 순수수학적 접근이라면, 이를 함수해석학적 관점에서 $(\mathbf{x}, y)$ 관계를 매핑(mapping)하는 어떤 함수공간 상의 추상 연산으로서 해석할 것이다. 하지만 실제로 기계학습을 운용하기 위해서는 경사하강법(Gradient Descent)이나 변형된 최적화 알고리즘(모멘텀, Adam, RMSProp 등)을 수행해야 하며, 데이터셋이 매우 큰 경우에도 효율적으로 계산할 수 있는 배치처리, 병렬처리 기법 등이 필수적으로 적용된다.
이런 측면은 곧 수치해석의 역할이 기계학습 분야에서도 매우 중요함을 시사한다. 예컨대 초대규모 합성곱신경망(convolutional neural networks)에서 연쇄법칙을 기반으로 하는 역전파(Backpropagation)가 안정적으로 작동하도록 가중치 초기화나 정규화 방법을 정교하게 설계해야 하고, 학습 과정에서 발생하는 오차 누적이나 미분값 폭주(Gradient Explosion)·소실(Gradient Vanishing) 문제 등을 어떻게 해결할지가 주된 관심사가 된다. 순수수학은 뉴런 간의 연결 구조나 고차원 공간 위에서의 함수 근사 가능성에 이론적 뒷받침을 제공하지만, 정작 실무에서는 ‘어떻게 오차를 줄여 빠르게 수렴시킬 것인가’, ‘학습률(learning rate)을 어떻게 조정해 발산을 막을 것인가’ 등에 관한 전형적인 수치해석·최적화 문제가 핵심이 된다.
상호 보완적 관계
수치해석과 순수수학은 상호 긴장을 형성하기도 하고, 상호 보완적인 관계를 이루기도 한다. 순수수학이 추상화와 논리적 완결성을 바탕으로 문제의 이론적 성질, 존재성, 구조를 명확히 밝히는 반면, 수치해석은 이를 실제 계산으로 이어가면서 얻어지는 오차, 복잡도, 안정성 문제에 집중한다. 특히 공학, 물리, 화학, 생물학 등 응용 분야에서 등장하는 복합 문제를 풀기 위해서는 순수수학적 토대 위에 수치 알고리즘을 얹어, 실제 컴퓨터가 다룰 수 있는 형태로 변환하는 절차가 필수적이다.
여러 분야가 융합되면서, 수치해석에서 다루는 기법도 점차 고도화되고 있다. 예컨대 유한요소법에서 메쉬(mesh)를 자동으로 생성하고 보정하는 알고리즘, 편미분방정식을 풀 때 다중 그리드(multigrid) 구조를 도입해 계산 시간을 획기적으로 줄이는 기법, 복잡한 최적화 문제에서 확률적 방법(몬테카를로 시뮬레이션, 마르코프체인 몬테카를로 등)을 적극적으로 사용하는 방법 등이 두드러진 예다. 이 모든 방법의 근저에는 순수수학의 이론적 정합성과 수치해석의 구현 기술이 함께 녹아 있다.
기호적 계산(Symbolic Computation)과 수치적 계산(Numerical Computation)
수학적 문제를 다룰 때, 기호적 계산은 변수나 식을 완전히 상징적으로 다루어 미분·적분·대수적 조작 등을 정확하게 수행하는 분야를 의미한다. 컴퓨터 대수 시스템(Computer Algebra System, CAS)을 이용하면 특정 다항식을 인수분해하거나, 정수 계수의 다항식에 대한 최대공약수(GCD)를 구하는 등의 작업을 기호적으로 처리할 수 있다. 순수수학에서도 이와 같은 기호적 기법은 대수학, 정수론, 조합론 등에서 중요하게 다루어진다.
그러나 일단 변수나 식이 더 이상 '폐쇄된 형태'로 다루어지지 않고, 특정 실수값이나 복소수값에 대한 근사 연산을 해야 하는 상황이 되면, 이는 수치해석의 영역으로 자연스럽게 넘어간다. 특히 매우 높은 차원이나 복잡한 방정식에서 기호적 접근이 난항을 겪을 때, 실제 계산 가능성을 우선하는 수치적 방법이 훨씬 유리해지는 경우가 많다. 예를 들어 고차 다항식의 근을 찾으려 할 때, 5차 이상 다항식에 대한 일반해가 존재하지 않는다는 갈루아 이론의 결론이 순수수학적으로는 중요하나, 근을 특정 정확도 이하로 계산하기 위해서는 뉴턴법이나 기타 근사 방정식 해법을 적용하여 실제 숫자로 수렴시키는 접근이 요구된다.
또한 기호적 계산의 결과로 얻어지는 표현식이 지나치게 커져(표현식 폭발, expression swell 현상), 사실상 사람이 직접 해석하기 어려운 형태가 될 때가 많은데, 이 역시 수치해석적 간소화를 통해 특정 구간에서 근사해를 얻거나, 설계된 알고리즘으로 도출된 결과 값을 간결하게 확인하는 편이 훨씬 실용적이다. 이런 맥락에서, 기호적 계산과 수치적 계산은 이론과 실용이라는 서로 다른 측면을 대변하면서도, 서로를 보완할 수 있는 관계에 놓여 있다.
확률론, 통계학, 그리고 수치 시뮬레이션
순수수학의 확률론은 측도론적 틀에서 무작위 변수를 정의하고, 사건 공간, 확률 측도, 기대값 등의 개념을 엄밀하게 정립한다. 이를 통해 복잡한 무작위 현상을 추상적 수학 구조로 설명해 내는 것이 주요 목표다. 예컨대 특정 확률변수열이 어떤 법칙 아래에서 거의 확실하게 수렴한다는 사실(법칙 수렴), 거듭제곱적 편차나 중심극한정리 등을 정교하게 다루는 것은 순수 확률론의 전통적 연구 영역이다.
그러나 컴퓨터 시뮬레이션으로 확률적 현상을 재현하려고 할 때에는 몬테카를로(Monte Carlo) 기법, 무작위 표본 추출, 의사난수 발생기 등 수치해석적인 장치가 필연적으로 동원된다. 가령 특정 확률분포를 모사하기 위해서는 이산화된 난수열을 생성해야 하는데, 이때 난수 발생 알고리즘의 품질이나 분산, 평균 제어 등이 실제 시뮬레이션 결과에 큰 영향을 미친다. 순수수학적으로는 "표본 공간의 존재와 시그마 대수"가 문제 해결의 핵심이지만, 수치해석에서는 "컴퓨터가 생성한 유사난수가 과연 통계적으로 충분히 괜찮은가"가 핵심 주제가 된다.
통계학에서도 이론 통계학은 모수 추정과 가설 검정에 대한 정리와 증명을 중시한다. 그러나 실제로는 데이터가 방대해지면서, 점근적 성질(asymptotic property)에만 의존하기보다는, 수치 시뮬레이션을 통해 표본 분포를 직접 구현하거나, 부트스트랩(bootstrap) 기법처럼 재표본화를 수행하며 추정의 불확실도를 평가한다. 따라서 순수수학적 측면의 확률론·통계학이 정립한 개념적 토대를 바탕으로, 수치해석적 시뮬레이션 기술이 실제 문제에 대한 해답을 제공하는 식의 상호 보완적 패턴이 반복해서 나타난다.
대규모 HPC(고성능 컴퓨팅)와 확장성
수치해석과 순수수학의 차이를 더욱 극명하게 보여 주는 사례 중 하나가 고성능 컴퓨팅(High-Performance Computing, HPC)이다. 순수수학에서는 문제의 크기나 차원이 커져도 논증 구조만 탄탄하다면 큰 문제로 보지 않지만, 수치해석에서 문제 규모의 증가는 연산량과 메모리 사용량 폭증을 의미한다. PDE를 고차원 영역에 대해 수치적으로 풀거나, 비선형 최적화 문제에서 수백만 개 이상의 변수를 다뤄야 하는 상황에서는, 단순히 알고리즘의 안정성과 정확도를 논하는 데 그치지 않고, 병렬 처리, 분산 메모리 구조, GPU 가속, 로드 밸런싱(load balancing) 기법 같은 전산학적 이슈까지 고려해야 한다.
HPC 환경에서 규모가 커질수록, 문제의 구조적 특성(희소성, 대각우세, 양의 정부호 여부 등)을 최대한 활용해야 계산 시간을 줄일 수 있다. 예컨대 지구 규모 기후 모델링이나 대형 복합재료 시뮬레이션처럼 PDE 해석이 핵심인 문제에서는, 전산유체역학(CFD) 코드가 대규모 격자 해석을 수행하는 과정에서 효율적인 메시 분할과 계층적 다중그리드 기법을 구사해야 한다. 이러한 계산 과정은 순수수학적 이론만으로는 결코 해결되지 않는다. 결국 수치해석적 알고리즘 개발, HPC 소프트웨어 최적화, 하드웨어 지향 병렬화 전략 등이 복합적으로 작동해야, 거대한 규모의 실제 문제를 수렴 가능한 시간 내에 풀어낼 수 있다.
다양한 학문 분야와의 융합
수치해석과 순수수학은 물리학·화학·생물학·경제학·데이터과학 등 여러 분야에 걸쳐 적용되지만, 그 역할과 지향점이 각기 다르다. 양자역학에서 등장하는 파동방정식 해석, 분자역학에서의 복잡한 에너지 최소화 문제, 경제학에서의 일반균형 이론을 해결하기 위한 거시적 모형 시뮬레이션, 생물학에서의 뉴런 모델링 등은 모두 PDE 혹은 확률모델로 정식화될 수 있다. 이때 순수수학은 문제 정식화와 핵심 구조 파악, 해 존재성 규명 같은 토대를 제공한다. 그러나 실제로 데이터를 동반한 모델을 시뮬레이션하거나, 방대한 매개변수를 학습하며 최적값을 찾아가는 과정은 대부분 수치해석적 알고리즘을 통해 이뤄진다.
또한 최근에는 위상수학(토포로지)와 통계적 방법이 결합한 토폴로지컬 데이터 분석(TDA), 혹은 확률적·통계적 물리학 기법이 적용된 네트워크 과학, 머신러닝과 PDE 해석이 융합된 물리기반 머신러닝(Physics-informed machine learning, PINNs) 등 다양한 학제 간 융합이 활발하다. 이처럼 학문 간 경계가 점점 흐려지면서, 순수수학적 접근과 수치해석적 접근 모두가 필요해지는 양상이 자주 목격된다. 시스템 전체에 대한 이론적 일관성을 보장하려면 순수수학의 도움을 받아야 하고, 실제로 수많은 요소를 합성해 거대한 모델을 계산하려면 수치해석의 구현 노하우가 필수적이기 때문이다.
부동소수점 표준과 이산화 정책
순수수학에서는 실수나 복소수를 무한히 정밀한 연산 대상으로 간주한다. 이론상 어떤 수라도 논리적으로 ‘정확’하게 다룰 수 있다고 가정한다. 하지만 실제 컴퓨터 계산에서는 유한한 비트(bit)로 수를 표현해야 하고, IEEE 754 부동소수점 표준 같은 규약에 따라 반올림(Rounding)이나 언더플로(Underflow), 오버플로(Overflow) 현상이 발생한다. 예컨대 부동소수점 형식에서는 $10^{-308}$ 이하의 매우 작은 수는 언더플로로 인해 0으로 처리될 수 있고, $10^{308}$ 이상으로 너무 큰 수는 오버플로로 인해 무한대($\infty$)로 표현될 수 있다.
수치해석에서는 이러한 부동소수점 연산의 한계를 정확히 이해하고, 알고리즘 설계 단계에서 이에 대비하는 전략을 마련한다. 반면 순수수학적인 전개에서는 수가 0으로 ‘소멸’하거나 $\infty$로 ‘도약’하는 일은 정의역을 변경하지 않는 한 일어나지 않는다. 따라서 수학적 이론에서 가정하는 “실수의 연속성”과 컴퓨터 안에서 구현되는 “이산적 유한 정밀도” 사이에는 언제나 간극이 존재한다. 이것이 곧 수치해석에서의 필연적 오차 요인을 만들어 내며, 그 오차를 최대한 억제하기 위해 도입되는 것이 다양한 사전조건화 기법, 안정성 분석, 치환(scale transform) 기법 등이다.
예를 들어 단순 가우스 소거법조차도, 행렬의 어떤 행이나 열을 기준으로 삼느냐에 따라(피벗팅pivotting) 연산 과정에서 발생하는 수치 오차의 크기가 극적으로 달라질 수 있다. 순수수학에서 가우스 소거법은 단지 $n \times n$ 행렬에 대해 해를 구하는 결정적(deterministic) 절차로 설명되지만, 수치해석에서는 “부분 피벗팅(partial pivoting)”이나 “완전 피벗팅(complete pivoting)” 등 구체적인 변형 기법을 써서, 반올림 오차 누적과 불안정성을 줄이기 위한 세부 방안을 고민해야 한다. 이렇듯 이산화 정책(어떻게 실수를 표현하고 다룰 것인가)에 대한 이해는 수치해석적 문제 해결에서 핵심적인 역할을 담당한다.
소프트웨어 라이브러리와 구현 표준
순수수학의 결과물은 논리적으로 완결된 정리나 증명, 혹은 이론적 프레임워크 형태로 공유되는 경우가 많다. 국제수학연맹(IMU)에서 공식 학술지나 학회를 통해 논문이 발표되면, 그 내용이 여러 연구자가 참조하는 공통 토대가 된다. 그러나 수치해석에서의 “성과”는 종종 고성능 라이브러리나 알고리즘 구현 형태로 축적되기도 한다. 예를 들어 BLAS(Basic Linear Algebra Subprograms), LAPACK(Linear Algebra Package), PETSc(Portable, Extensible Toolkit for Scientific Computation) 같은 공개 라이브러리는 전 세계 연구자들이 표준처럼 활용하며, 여기에 수많은 최적화 기법이 집약되어 있다.
수치해석 알고리즘은 이처럼 소프트웨어적으로 구체화되어, 특정 하드웨어 환경에서 고속으로 동작하거나, 대규모 병렬 처리가 가능하도록 최적화된다. 그러한 구현물은 곧 “산업계와 학계가 공유하는 사실상의 표준” 역할을 하며, 후속 연구들은 이 라이브러리를 기반으로 더 복잡한 문제를 풀어 나가게 된다. 순수수학 논문이 증명과 가정·결론의 엄밀함을 최고의 가치로 삼는다면, 수치해석 소프트웨어는 빠른 연산 속도, 견고한 안정성, 다양한 플랫폼 호환성, 풍부한 사용자 인터페이스 등을 종합적으로 고려해야 한다. 이는 곧 순수수학과 수치해석이 지니는 문화적·실천적 차이점을 잘 보여 준다.
예컨대 순수수학 논문에서는 “스펙트럼 반지름이 1보다 작은 연산자가 유일한 고정점을 가진다”라는 형태의 정리를 주로 다루지만, 수치해석 소프트웨어 문서에서는 “이 라이브러리는 반복법으로 고정점을 찾을 때, 잔차(residual)가 $10^{-12}$ 이하가 될 때까지 수렴 과정을 자동으로 멈춘다” 같은 구체적인 구현 사항과 인터페이스가 언급된다. 사용자들은 이 라이브러리를 불러다가 실제 문제에 활용하며, 각자 얻은 결과가 논문에서 제시된 이론적 근거와 부합하는지, 혹은 더 효율적인 알고리즘적 개선이 가능한지를 검토한다.
정적 분석과 동적 시뮬레이션
순수수학은 본질적으로 “정적(Static)인 분석”에 강하다. 정의나 명제를 세우고, 일정한 전제 아래서 결과가 성립함을 증명한다. 이 과정에서는 문제 조건이 변화해도 증명 구조 자체가 크게 변하지 않는다. 예컨대 $f(x) = 0$ 같은 비선형 방정식에서, $f'(x)$가 특정 구간에서 0이 되지 않는다면 뉴턴법이 수렴한다는 이론을 세울 때, 그 전제 조건이 깨지지 않는다면 명제는 여전히 참이다.
한편 수치해석에서는 계산 과정 전반이 “동적(Dynamic)”으로 전개된다. 알고리즘이 반복 수행되면서, 중간 계산 결과에 따라 추적 변수가 달라지고, 그에 따라 오차가 축적되거나 발산 여부가 결정된다. 그리고 이 모든 과정이 유한 정밀도의 컴퓨터 환경에서 이뤄진다. 이 점에서 수치해석적 접근은 문제를 ‘실시간으로 시뮬레이션’하는 방식에 가깝다. 순수수학적으로는 단순한 한두 줄의 가정인 “$|f'(x)| < 1$이면 고정점 반복이 수렴한다” 같은 문장이, 수치해석에서는 실제로 반복 횟수를 증가시키며 “그 과정에서 $f'(x)$가 1을 넘어가지 않는지, 반올림 오차가 국소적으로 폭발하지 않는지” 등을 꼼꼼히 확인하는 상황이 된다.
이러한 ‘정적 vs. 동적’ 시각차는 복잡계나 카오스 이론(Chaos Theory)처럼 민감도와 초기조건 의존성이 극단적으로 부각되는 문제에서 더욱 선명하게 드러난다. 순수수학은 카오스 현상의 존재 자체를 토폴로지적·측도론적 언어로 증명하고, 이상화된 파라미터 조건에서의 기하학적 성질을 다룬다. 반면 수치해석에서는 실제로 컴퓨터로 카오스 시스템을 모사하는 과정에서, 작은 반올림 오차가 시간이 지남에 따라 기하급수적으로 커져 “의미 있는 예측 불가능성”으로 이어지는 것을 체감하게 된다. 이는 본질적으로 달라 보이는 접근이지만, 두 방식 모두 카오스를 이해하기 위한 중요한 도구임이 분명하다.
대체적 패러다임: 상징적·수치적 하이브리드
최근에는 순수수학적 접근과 수치해석적 접근을 결합하는 하이브리드 패러다임이 주목받고 있다. 예컨대 기호적 계산 시스템을 이용해 가능한 한 많이 해석학적 처리를 해 둔 뒤, 도저히 표현이 불가능하거나 복잡도가 폭증하는 구간부터는 수치해석 알고리즘으로 전환한다. 이처럼 문제를 부분적으로 분할해, “이론적으로 해가 구해지는 영역”과 “수치 근사가 필요한 영역”을 적절히 혼합하는 방식이 실제 응용에 매우 효율적으로 쓰이고 있다.
또한 자동 미분(Automatic Differentiation) 기법이나 심볼릭 미분(Synthetic Differentiation)을 이용해, 적분 방정식 혹은 역전파 과정에서의 미분 연산을 기호적으로 분석한 다음, 이를 효율적 알고리즘으로 번역해 내는 일도 흔하다. 여기에는 순수수학의 정밀한 해석학적 기여와, 수치해석의 알고리즘화·최적화 기법이 복합적으로 작용한다. 특히 고차원 최적화 문제나 심층 신경망 학습에서 적절히 설계된 자동 미분은, 기계가 (오차를 최소화하면서) 기울기를 정확히 추적하도록 도와주는데, 이는 사실상 순수한 기호 연산과 근사적 계산이 뒤섞인 절충 기법이다.
하이브리드 접근이 점차 각광받으면서, 순수수학과 수치해석의 경계 또한 과거보다 훨씬 유연해지고 있다. 초기에는 기호적 계산을 통해 명확히 정리된 이론 구조를 얻고, 필요에 따라 수치 기법을 적용하여 적절한 구간에서만 근사를 수행하는 방식이다. 이는 결국 연구자에게 “어느 정도 이론적인 이해를 갖추었는가”와 “어느 정도 최적화된 알고리즘 구현 능력을 보유했는가”를 동시에 요구한다.
수치적 결과의 해석과 시각화
현대 과학기술 분야에서 수치해석이 폭넓게 적용될수록, 계산 결과를 어떻게 해석하고 시각화할 것인가가 중요한 과제로 떠오른다. 예컨대 대형 공기역학 시뮬레이션(예: 항공기 날개 설계)을 수행해 PDE의 근사 해를 구했다면, 순수수학적으로는 그 해가 어떤 해공간에서 어떻게 정의되는지가 핵심이지만, 실제 엔지니어 입장에서는 “공력 특성이 특정 구간에서 급격히 변화하는지”, “날개 표면의 압력 분포가 어떻게 형성되는지” 등을 2D 혹은 3D 그래픽으로 시각화하여 직관적으로 파악하는 일이 중요하다.
이렇듯 대규모 계산의 출력값은 수백만, 수천만 개의 자유도(degree of freedom)를 가지는 벡터나, 고차원 매개변수로 표현되는 표로 존재하게 된다. 순수수학에서 이렇듯 거대하고 복잡한 데이터를 직접 다루는 일은 흔치 않다. 대신 이론적 관점에서, 그 해의 존재성이 증명되고 해의 성질이 추상적으로 파악되어 있으면 그것으로 충분하다고 볼 수 있다. 그러나 수치해석·시각화의 세계에서는 대량의 데이터를 효과적으로 가공·색상맵핑·애니메이션 처리하여 “보이는 정보”로 전환하는 작업이 곧 연구 성과로 이어진다. 나아가 인공지능 기법을 적용해 거대한 데이터세트 속에서 핵심 패턴이나 국소적 특이점을 자동으로 찾아내는 시도도 잦아지고 있다. 이 과정에서 순수수학적 지식은 “시뮬레이션 데이터가 이론적으로 일관된 영역 안에 있는지”를 가늠할 때 중요한 기준이 되며, 반대로 수치해석 결과가 이론적 범주를 벗어났을 때 탐색해야 할 다음 가설을 제시하는 식의 상호 보완이 이루어진다.
컴퓨터 보조 증명(Computer-Assisted Proof)과 경계의 흐려짐
과거에는 엄격한 의미에서 ‘증명’은 종이와 펜, 혹은 학자의 두뇌로만 완성해야 한다고 여겨졌으나, 현대에 들어 일부 복잡한 수학 명제(예: 네 색 정리, 케플러의 구 격자 쌓기 문제)에서는 컴퓨터 프로그램을 통해 모든 경우의 수를 검사하거나, 크고 복잡한 합성 구조를 검증해 내는 방식이 활용되면서 순수수학적 증명 방식에도 변화가 생겼다. 이를 컴퓨터 보조 증명(computer-assisted proof)이라 하며, 점점 더 많은 분야에서 채택하고 있다.
이러한 컴퓨터 보조 증명 기법은 본질적으로 ‘수치적 검증’을 활용하는 요소가 많다. 경우에 따라서는 특정 파라미터 영역에 대해 스스로 오차 한계를 계산하고, 결괏값이 그 오차 범위 안에서 정리의 조건을 만족하는지 자동 판정하기도 한다. 그 과정에서 무수히 많은 유한 연산이 실행되므로, 반올림 오차나 언더플로 문제도 당연히 개입하게 된다. 따라서 완전한 컴퓨터 보조 증명을 위해서는, “이 연산이 순수수학적으로도 틀림없다고 간주할 정도의 수치적 안정성을 보유했는가”를 증명 과정에 포함해야 한다. 즉, 순수수학적 논증과 수치적 절차가 융합해 하나의 거대한 ‘증명 체계(proof system)’를 구성하는 셈이다.
이렇듯 순수수학이 지향하는 절대적 오류 없는 증명 원리와, 수치해석에서 관리되는 실용적 오차 허용 범위가 상호 조화를 이루는 사례가 늘어남에 따라, 두 분야 사이의 경계가 과거보다 상당히 유연해지고 있다. 물론 여전히 전통적인 수학자들은 “모든 기호적 과정을 완벽히 통제해야 한다”는 입장을 견지하기도 하고, 수치 해석가들은 “대규모 실용 문제에선 근사 해법이 훨씬 더 효율적”이라는 실용적 입장을 취하기도 한다. 그럼에도 불구하고 컴퓨터 보조 증명이 활발히 연구되면서, 이를 위한 언어와 표준을 함께 마련하려는 움직임이 증가하는 추세다. 결과적으로 순수수학과 수치해석 모두 ‘정밀성과 실용성’이라는 공통 화두를 놓고 더욱 활발히 교류하게 될 전망이다.
교육과정에서의 차별성
대학이나 대학원 과정에서 순수수학을 전공하는 학생들은 기본적으로 증명 능력, 추상적 사고 능력을 중시하는 훈련을 받는다. 예를 들어 해석학, 대수학, 위상수학 등 주요 전공지식은 문제 풀이보다 개념 정립과 정리 증명 자체에 집중한다. 반면 수치해석 혹은 계산수학 전공에서는 프로그래밍과 알고리즘 구현 능력이 필수적이며, 단순히 정리의 구체적 증명보다는 어떤 방식으로 근사 알고리즘을 만들어낼지, 오차를 어떻게 평가할지 등이 핵심 과제로 주어진다.
교육과정에서 이 차이는 종종 “이론 vs. 실용”의 대립 구조로 인식되기도 한다. 순수수학 쪽에서는 “컴퓨터 연산에 의존하기보다 문제의 본질을 정확히 꿰뚫어야 한다”는 철학이 강하고, 수치해석 쪽에서는 “현실 문제를 풀지 못한다면 이론은 무용지물에 가깝다”는 시각이 존재한다. 실제로도 수치해석 수업에서는 프로그래밍 과제나 프로젝트 형태로 채점이 이루어지며, 순수수학 과목에서는 문제집의 증명 문제를 작성하거나 세미나 발표를 통해 사고 과정을 엄밀히 밝히는 데 주력한다.
그러나 실제 연구 현장에서는 두 영역이 상호 협력할 때 큰 시너지를 얻는다. 고난도의 순수수학 이론이 없으면 수치해석 알고리즘의 한계와 안정성 분석이 부실해지기 쉽고, 반대로 수치해석적 경험이나 기술이 부족하면 이론적 통찰이 있더라도 현실 문제에 적용하기 어렵다. 따라서 점차 많은 교육 프로그램이 양쪽을 균형 있게 다루려 노력하며, 고급 과목에서는 학생들에게 수리적·알고리즘적 문제 해결 능력을 두루 갖추도록 유도하고 있다.
연구 방법론적 차이: 실험적 접근과 순수 탐구
순수수학은 기본적으로 ‘연역적(deductive) 방법론’을 택한다. 이미 확립된 공리와 정의, 이전 단계에서 증명된 정리들을 활용해, 새로운 명제를 성공적으로 증명함으로써 학문 체계를 확장한다. 이 과정에서 직관적 동기가 있더라도, 결론을 완전히 인정받으려면 논리적으로 허점이 없어야 한다. 따라서 순수수학 연구자들은 대부분 본인의 아이디어를 ‘추상적으로’ 정식화한 뒤, 명확한 가정과 공리로부터 그것이 모순 없이 유도될 수 있음을 보이려고 한다.
수치해석은 ‘실험적(inductive) 접근’을 강조하는 경우가 많다. 어떤 문제에 대한 가설적 알고리즘이나 근사 방법이 떠오르면, 컴퓨터 실험(시뮬레이션)을 수행하여 실제로 오차가 얼마나 줄어드는지, 반복 횟수에 따른 계산 효율이 어떤지 등을 관찰한다. 이 empirical data(실험 데이터)가 연구 과정에서 중요한 평가 지표가 되며, 필요하다면 추상적 이론에 앞서 손쉬운 프로토타이핑 과정을 통해 방법의 타당성을 가늠한다. 물론 그 뒤에는 이론적 분석이 뒤따르지만, 일차적으로는 ‘수치 결과가 성능을 뒷받침해 주는가’가 연구 추진의 열쇠로 작용한다.
이런 실험적·귀납적 태도는 공학 및 과학 실무에도 자연스럽게 접목된다. 음파나 전자파 시뮬레이션, 유체 흐름 해석, 대기 순환 모델링 등은 실제 실험 데이터나 측정값과 수치 시뮬레이션 결과를 비교하며 꾸준히 조정해 나가야 한다. 반면 순수수학 연구에서는 물리 세계의 실험적 결과가 꼭 필요한 것은 아니고, 오히려 가정 속에서 “자연에는 존재하지 않을 법한 이상적인 구조”를 탐구하기도 한다. 수체계나 위상공간, 추상군 등이 그 예다.
논문 스타일과 학술 커뮤니티 문화
순수수학 논문은 대부분 ‘문제 제기 – 기본 정의 – 보조정리(lemma) – 메인 정리(theorem) 증명 – 결론’의 구조를 따른다. 정리 증명 과정에서 등장하는 결론적인 식과 귀납법, 귀류법, 혹은 동형사상(iso- morphism)이나 미분기하학의 국소 도표(chart) 같은 고도의 수학적 개념이 핵심이다. 논문 마지막에는 앞으로의 추론 방향이나 미해결 과제를 언급하며 마무리하는 패턴이 자주 나타난다.
수치해석 논문은 대체로 ‘문제 개요 – 알고리즘 제안 – 안정성·오차 분석 – 실험 결과(테이블, 그래프) – 성능 평가 – 향후 과제’ 같은 흐름으로 전개되는 경향이 강하다. 이론적 정리는 필요 최소한으로 정리하되, 새 알고리즘이 기존 방법보다 빠르거나 정확도가 높다는 사실을 수치 실험으로 입증하는 것이 핵심이다. 실험 결과 표에 반복 횟수, 계산 시간, 메모리 사용량, 혹은 오차의 로그스케일 그래프 등이 대거 등장하며, 이는 독자가 실제 적용 가능성을 빠르게 파악하도록 돕는다.
이런 차이는 학술 커뮤니티가 각기 중시하는 가치와도 직결된다. 순수수학 커뮤니티에서는 “증명 자체의 독창성”이 곧 가치 판단 기준이 되며, 해당 증명이 얼마나 정교한 개념을 다루는지, 혹은 얼마나 난해한 추상 이론을 해결했는지 등이 중요하다. 반면 수치해석 커뮤니티에서는 문제 해결 효율, 구현 용이성, 확장성, 실험적 재현 가능성 등이 중점적으로 평가된다. 따라서 두 분야가 같은 문제를 다룬다 해도, 서로 다른 학회나 저널을 통해 발표되며, 인용되는 양상도 크게 달라진다.
창의성과 절차성
순수수학은 직관과 추상적 사고를 통해 전혀 새로운 정리를 이끌어내는 창의성을 중시한다. 모든 것이 이미 정형화된 틀 안에서 반복되는 것이 아니라, 때로는 창발적(創發的) 아이디어가 필요하다. 예를 들어 페르마의 마지막 정리나 푸앵카레 추측 같은 역작은, 오랜 기간 아무도 증명하지 못한 난제를 해결하는 데 성공한 극적 사례다. 이 과정에서 한 수학자의 기발한 통찰이 문제 해결의 열쇠가 되었고, 이후 그 아이디어가 수학 전체에 큰 파급효과를 미쳤다.
수치해석에서도 창의성이 필요하다. 새로움이 없는 알고리즘이라면 이미 존재하는 방법보다 개선점을 찾기 어렵고, 계산 효율 역시 향상하기 쉽지 않다. 그러나 수치해석에서의 창의성은 대개 “절차적 절약과 효율성 확보”라는 형태로 구현된다. 예를 들어 반복법의 수렴 속도를 높이는 새로운 사전조건화 전략을 고안하거나, 희소 행렬을 더 효율적으로 다루는 자료구조를 설계하는 식이다. 창의적 아이디어가 ‘알고리즘적 루틴’으로 정착되면, 이를 응용하는 사람들은 구현 단계를 명세화하여 누구든지 같은 절차를 재현할 수 있게 만든다. 이렇듯 아이디어가 곧 모듈화된 코딩 블록으로 연결되고, 재사용·공유되는 과정에서 커뮤니티가 발전한다.
이에 비해 순수수학의 창의성은 프로그래밍과 직접 연결되지 않고, 논리와 구조의 새 지평을 열어 간다는 점에서 차이가 있다. 물론 최근에는 호모토피 타입 이론(homotopy type theory)처럼 컴퓨터화된 논리체계와 순수수학의 심층 구조를 연결하려는 시도가 활발하긴 하다. 그럼에도 전통적으로는 수치해석 쪽이 절차적·프로젝트적 성격이 더 강한 반면, 순수수학 쪽은 개인의 직관과 사유에 의존하는 면모가 크다고 요약할 수 있다.
문제 해결 관점: 범용성 vs. 특수화
순수수학의 정리는 특정 영역(실해석, 복소해석, 조합론, 대수학 등) 안에서 ‘가장 일반적인 형태’로 확립되는 경향이 있다. 가능하면 많은 구조에서 성립하는 이론을 제시해, 어떤 특수 케이스에 얽매이지 않고 두루 적용될 수 있도록 하는 것이 지향점이다. 예컨대 “선형변환이란 무엇인가”라는 질문에 대한 답변은 가장 넓은 범위에서 유효하도록 정립되며, 이에 이어지는 각종 보조정리나 스펙트럼 이론도 마찬가지다.
수치해석은 문제 해결의 ‘특수 상황’에 매우 민감하다. PDE 문제를 풀 때도, 문제에 따라 경계조건이 디리클레(Dirichlet)형인지 노이만(Neumann)형인지, 구간 분할이 균등(mesh가 균일)한지 비균등(adaptive)한지에 따라 알고리즘이 달라진다. 또한 문제 규모가 크면 병렬 알고리즘으로 옮겨야 하고, 장치가 GPU인지 CPU인지, 혹은 클러스터 환경인지를 고려해야 할 수도 있다. 이런 식으로 특수화를 세분하게 되면, 그에 맞춰 알고리즘도 다양하게 변형되어야 한다.
따라서 수치해석 연구자는 동일한 PDE라도 다단계 기법, 다중격자 기법, FFT 기반 기법, 볼츠만 방법(Lattice Boltzmann Method) 등등 수많은 변형 기법을 익히게 된다. 각 기법은 특정 상황에서 효율적이거나, 반대로 부적절한 경우가 분명히 존재한다. 결국 수치해석의 전문성은 “특정 문제나 하드웨어 환경에서 어떤 방법을 쓰면 가장 실용적인가”를 판단하는 능력으로 드러난다. 반면 순수수학은 하나의 정리가 성립하면 “어느 상황에서도 그 논리적 기반이 흔들리지 않는다”는 점이 핵심 가치를 갖는다.
상호 학술 교류의 흐름
수치해석과 순수수학이 분리된 학회나 세미나에서만 논의되는 경우도 많지만, 최근에는 둘 사이를 연결하는 전문 워크숍·회의가 활발히 열리고 있다. “Computational and Applied Mathematics” 분야나 “Computational Algebraic Geometry”같은 전문 세션에서는, 추상 수학적 이론과 수치 알고리즘이 융합된 주제를 다룬다. 예를 들어 기하학적 위상(GT, Geometric Topology)을 수치적으로 시뮬레이션하기 위해 복잡한 다양체 구조를 이산화하거나, 디지털 이미징에서 호몰로지 계산을 자동화하는 알고리즘 등을 발표한다.
이런 학술 교류는 기존에 각각 독립적으로 발전해 온 학문적 전통이 만나게 함으로써, “수학적 이론이 한층 응용 범위를 넓히는 기회”가 되기도 하고, “수치해석 알고리즘이 더욱 정교한 안정성 보장을 얻는 계기”가 되기도 한다. 특히 컴퓨터 연산 능력이 폭발적으로 늘어나면서, 순수수학에서 ‘이론적으로만’ 다뤄지던 대규모 구조나 공간을 실제로 모사해 볼 수 있게 된 점이 큰 자극제가 되었다. 그 결과, 순수수학자들도 시뮬레이션 결과에 힌트를 얻어 새로운 가설을 세우거나 반례를 찾는 사례가 늘고 있다.
역사적 맥락과 학문적 기원
수치해석과 순수수학은 공히 고대 그리스 시절부터 발전해 온 수학적 전통을 잇고 있지만, 본격적인 분화 양상이 두드러진 것은 근대 이후다. 르네상스 시대 이후 미적분학이 태동하고, 근대 물리학이 발전하면서, 복잡한 미분방정식을 실제로 풀어 내야 하는 요구가 높아졌다. 초기에는 손으로 하는 근사 계산법(테일러 전개, 오일러 방법 등)이 고안되었고, 이것이 곧 현대적 의미의 ‘수치해석’으로 확장되었다. 반면 순수수학은 칸토어의 집합론, 힐베르트의 공리화 운동, 그리고 전반적인 수리논리학·추상대수학·위상수학 등의 성장을 통해 한층 정교한 추상 이론 체계를 갖추게 되었다.
전통적으로 자연과학·공학 분야에서는 미분방정식이나 적분 계산 등을 통한 정량적 예측, 곧 근사 해법의 개발이 시급했기에 수치해석이 ‘실용적 학문’으로 발전할 수 있었다. 그리고 컴퓨터가 등장하면서 수치해석은 폭발적인 도약을 하게 되었는데, 이는 ‘실제로 계산 가능한 해답’을 구하는 데 특화된 수치적 방법론이 매우 효과적이라는 사실을 입증한 셈이다. 반면 순수수학은 이러한 실용성을 일부러 배제하거나, 추상화를 극단까지 끌어올리는 노선을 택함으로써 논리적 정합성과 일반 이론을 수립하는 데 성공했다. 이렇듯 양자는 같은 근원을 공유하면서도, 학문의 방향성이 확연히 달라지게 되었다.
산업계·기술 분야에서의 양면성
산업계에서는 공정 시뮬레이션, 신소재 설계, 금융 모형, 빅데이터 분석 등 대규모 연산을 수행해야 하는 상황이 많아, 수치해석적 접근이 핵심 도구로 활용된다. 예컨대 유한요소법 코드를 통해 구조해석을 수행하고, 대형 부품의 응력 분포나 열전달 거동 등을 빠르게 예측할 수 있다. 이는 순수수학에서 제시된 편미분방정식 해 이론이나 선형대수학 이론을 기반으로 하되, 구체적으로는 수치 알고리즘·HPC 환경·오차 제어 기법이 동원되어야 구현 가능한 ‘산업 솔루션’이 된다.
또한 금융권에서는 옵션 가격 결정을 위해 블랙-숄즈(Black–Scholes) 편미분방정식을 수치적으로 푸는 방법이나, 대형 스프레드시트에 내재된 행렬 연산 등에서 수치해석적 기법을 수용한다. 이에 비해 순수수학적 접근은 금융 수학의 기초 이론(측도론적 확률, 마팅게일 이론, 결합 측도 등)을 정교하게 제시하는 역할을 담당하지만, 실제 현장에서 초당 수만 건의 연산을 수행할 때는 결국 수치 안정성, 자료구조, 근사 방법 등의 실무적 문제가 우선순위를 차지한다.
이런 양면성으로 인해, 기업 연구소나 정부 연구 기관에서는 수치해석 전문가와 순수수학 전공자가 긴밀히 협업하는 사례가 흔하다. 순수수학자가 모델의 내적 일관성과 해 존재성·위상적 특징을 연구하면, 수치해석자는 이를 빠르게 계산해 낼 알고리즘과 소프트웨어 플랫폼을 제공해 주는 식이다. 궁극적으로 수치해석이 없으면 대규모 계산 문제를 해결하기 어렵고, 순수수학의 이론적 토대가 없으면 해의 의의나 정확도 한계가 불분명해지므로, 실무 현장에서는 둘의 상호 관계가 상보적으로 작동한다.
미래 발전 방향
현대 수학과 과학기술의 경계를 보면, 순수수학과 수치해석이 계속 융합되는 추세가 더욱 가속화될 것으로 예측된다. 특히 양자컴퓨팅, 암호학, 호모토피 이론, 머신러닝, 데이터 사이언스 등 다양한 첨단 분야에서는 추상 이론과 실용 알고리즘이 공존해야 경쟁력을 확보할 수 있다. 예컨대 양자컴퓨팅 알고리즘 설계에는 양자 논리와 선형대수학(힐베르트 공간)이 필수적이지만, 이를 시뮬레이션하거나 실제 하드웨어에서 실험 데이터를 처리하려면 수치해석적 기법이 따라붙어야 한다.
한편 머신러닝 분야에서는 수학적 이론(최적화 이론, 미분기하학적 관점 등)을 기반으로, 실제 딥러닝 훈련과정에서 발생하는 막대한 계산량을 효율적으로 처리하려는 시도가 활발하다. 이는 곧 수치선형대수, 확률적 경사하강법(SGD) 최적화, 역전파 자동 미분 등 매우 구체적인 알고리즘과 연결된다. 결과적으로 순수수학이 제시하는 해석학적 틀 위에 수치해석·통계적 방법론이 결합되는, 복합적 학문 양상이 전개될 것으로 보인다.
간단한 개념도 예시
아래는 mermaid를 사용해 수치해석과 순수수학이 어떠한 특징을 갖고 상호 보완하는지 시각적으로 나타낸 매우 간략한 예시다.
각 노드는 수치해석과 순수수학이 각각 강조하는 핵심 사안이며, 화살표는 개념적 흐름이나 상호 의존성을 상징한다. 예컨대 수치해석은 실제 컴퓨터 시뮬레이션에 집중하고, 순수수학은 논리적으로 완성된 이론을 제공함으로써 수치적 접근의 기반을 마련한다. 서로 다른 길을 가는 것 같아 보이지만, 궁극적으로는 하나의 수학이라는 큰 틀 안에서 연결되어 있다.
정리
수치해석은 현실 세계의 문제를 해결하기 위한 근사적·알고리즘적 측면에서 발전해 왔고, 순수수학은 이론적 구조와 논리적 일관성을 추구하며 한층 깊은 추상화를 이뤄 왔다. 그러나 두 분야의 경계가 엄격히 분리되는 시대는 이미 지났으며, 현재와 미래의 연구 트렌드는 이 둘을 잇는 가교가 점차 확장될 것으로 예견된다. 실용적 해결책과 엄밀한 이론적 토대 모두가 중요하다는 사실이 오랫동안 축적된 경험으로 증명되었기 때문이다.
함수 근사와 보간법: 추상 이론과 실제 적용
수학에서 함수를 다른 간단한 함수로 근사하거나, 데이터 점들을 활용해 보간함수(interpolation function)를 구하는 문제는 순수수학과 수치해석이 만나는 접점 중 하나다. 순수수학적 맥락에서는 보간 다항식의 존재성, 유일성, 그리고 근사오차를 나타내는 다양한 정리가 제시된다. 예를 들어 $n+1$개의 구별되는 점이 주어졌을 때 이를 지나는 다항식은 정확히 하나 존재함이 라그랑주(Lagrange) 보간의 기본 이론이다. 또한 그 다항식이 실제 함수와 얼마나 일치하는지를 나타내는 잭슨(Jackson) 부등식, 버나드(Bernstein) 부등식 같은 근사이론도 추상적으로 정리되어 있다.
수치해석에서는 이러한 이론이 실제로 구현될 때 발생하는 수치적 난점을 중점적으로 다룬다. 예컨대 보간점이 늘어날수록 오히려 오차가 커지는 런게(Runge) 현상은 보간법 적용 시 나타날 수 있는 대표적 함정이다. 이를 회피하기 위해 체비쇼프(Chebyshev) 노드를 사용하거나, 스플라인(spline) 보간을 적용하는 등의 구체적 기법이 개발된다. 이때 라그랑주 보간 공식이 이론적으로는 우아해 보이지만, 실제 코딩 단계에서 중복 계산을 줄이고 반올림 오차를 억제하기 위해선 뉴턴(Newton) 보간 형식을 응용하거나, 전처리를 통해 다항식 계수를 직교 다항식 형태로 변환하여 계산하는 전략을 채택한다. 이렇듯 추상 이론은 ‘여러 점을 지나는 유일한 다항식이 존재한다’는 사실에 머물 수 있지만, 실제로는 어느 보간 노드를 고를지, 어떻게 구현할지, 반올림 오차가 어떻게 누적될지를 고려해야 한다.
수치적 안정성과 축차 근사방법
편미분방정식뿐만 아니라 적분방정식, 일반화된 고유값 문제, 제어 이론 등 다양한 영역에서 축차(逐次) 근사방법이 활용된다. 순수수학적 맥락에서는 이들 방법이 특정 조건 하에서 수렴한다는 사실을 증명하고, 수렴 속도가 어떤 비율로 나타나는지 분석한다. 예를 들어 축차 근사방법이 유도되는 기본 골자는 바나흐 고정점 정리(Banach fixed-point theorem)에 근거해, 수축 사상(contraction mapping)을 반복 적용하면 유일한 고정점으로 수렴한다는 것이 대표적이다.
하지만 수치해석에서는 ‘이 방법이 실제 계산 환경에서 얼마나 효율적인가’를 물어야 하며, 특히 $|\lambda| < 1$ 형태로 이론적으로는 충분히 수렴한다 해도, 부동소수점 오차나 해석 구간에서의 해의 미세한 변화가 축차 근사 과정에 큰 영향력을 미칠 수 있다. 따라서 단순 반복법이 아니라 가속법(acceleration technique)을 적용하거나, 적당한 사전조건(preconditioning) 행렬을 도입해 수렴 속도를 높이는 시도가 뒤따른다. 가령 선형시스템 $\mathbf{A} \mathbf{x} = \mathbf{b}$를 축차 근사로 푸는 자코비(Jacobi) 방법, 가우스-자이델(Gauss–Seidel) 방법, SOR(Successive Over-Relaxation) 방법 등은 순수이론적으로는 모두 “반복으로 수렴한다”라는 공통점을 갖지만, 실제 문제와 매트릭스 구조에 따라 어떤 방법이 더 빠르고 안정적인지는 전적으로 수치 실험과 추가 분석에 달려 있다.
초월함수와 특수함수
순수수학에서 말하는 초월함수(트랜센던트 함수)란 다항식 혹은 유리함수로 표현되지 않는 고유의 함수를 의미하며, 지수함수, 로그함수, 사인·코사인, 감마함수, 베셀함수 등이 그 대표적 예다. 이들 함수에 대한 정리나 성질(주기성, 급수 전개, 미분방정식과의 관계, 해석적 연속 등)은 순수수학 해석학의 전형적인 주제에 속한다.
수치해석은 이런 초월함수를 실제로 근사적으로 계산해 내는 알고리즘 설계에 집중한다. 컴퓨터에서 $\exp(x)$나 $\sin(x)$ 등을 계산할 때, 내부적으로 테일러 급수나 코델(코르데) 공식, 혹은 CORDIC 알고리즘 등이 사용된다. 이때 $x$의 범위에 따라 다른 급수 전개를 택하거나, 빠른 수렴을 위해 다양한 전환 공식(reduction formula)을 적용한다. 예컨대 $\exp(x)$를 구할 때, 먼저 $x$를 정수부와 소수부로 나누어 $\exp(k)\exp(r)$ 꼴로 줄이고, $k$는 표를 이용해 빠르게 처리한 뒤 나머지 $r$에 대해서만 급수를 적용하는 방식이다. 이러한 미세 조정은 순수수학적 관점보다는 ‘연산 횟수를 줄이고 반올림 오차를 통제하는 기법’이라는 점에서 뚜렷이 구분된다.
특수함수(베셀 함수, 구면조화 함수 등) 계산 시에도 마찬가지로, 근사 급수, 적분표, 재귀 관계 등을 조합하여 효율적 알고리즘을 짜는 과정이 수치해석의 역량을 보여 준다. 반면 순수수학에서는 이들 특수함수가 만족하는 미분방정식(베셀 미분방정식, 라게르 미분방정식 등)과 그 해공간의 구조, 직교성, 적분 변환 등을 심도 있게 다루어, 함수 자체에 대한 엄밀한 성질을 체계화한다.
불확정성 원리와 근사 계산
근대 물리학에서 비롯된 불확정성 원리나, 혼돈 이론에서의 민감 의존성(Butterfly effect)은 극도로 민감한 시스템을 다룰 때 이론적·철학적 한계를 제기한다. 순수수학적으로는 ‘연속 함수가 극한 과정에서 차이를 무한소로 줄일 수 있다’는 해석학적 신뢰가 있지만, 실제 컴퓨팅 환경에서는 무한소 수준의 미세 차이조차 반올림 오차에 휩쓸리면 결과가 급격히 변화할 수 있다.
이런 현상은 ‘숫자 표현이 유한하기 때문에 발생하는 필연적 제약’이며, 수치해석에서는 그것을 인정하고 그에 맞춰 모델링한다. 예컨대 혼돈 시스템 시뮬레이션을 수행할 때, 동일한 초기조건이라고 여겼던 값들이 사실은 소수점 12자리쯤에서 살짝 다를 수도 있는데, 이것이 시간이 지날수록 폭발적으로 커져 전혀 다른 결과로 이어질 수 있다. 순수수학 관점에서는 “이상적인 무한 정밀도”를 가정하고 이론을 전개하지만, 실제 계산 세계에서는 “이상”과 “현실” 사이의 괴리를 최대한 줄이는 안정화 기법, 규제화(regularization), 혹은 확률적 보정을 활용한다. 그 과정이 곧 수치해석의 문제의식이며, 이 역시 순수수학과 구별되는 핵심 포인트다.
학습 로드맵과 현장 적용
수학을 처음 접할 때는 보통 기초 해석학(실해석, 복소해석)을 통해 연속 함수, 미분 가능성, 적분 이론 등을 학습하고, 그 다음 선형대수와 대수학의 추상 구조를 익히면서 순수수학적 사고방식을 다진다. 그러나 수치해석 관점에서 본다면, 그 이론들을 “알고리즘화할 수 있는가”가 곧 별도의 학습 과제다. 예를 들어 직접 하중이 걸리는 물체의 변형 문제를 유한요소법으로 풀어보고, 이산화된 방정식을 솔버(Solver) 라이브러리를 통해 계산해 본 뒤, 그 결과를 시각화하여 해석하는 순서를 거치면서 수치해석적 접근의 실무 감각을 터득한다.
이 로드맵 속에서 순수수학은 난해한 문제를 풀기 위한 “개념적 무기”를 제공하지만, 실제 산업이나 연구 현장에선 “컴파일러나 라이브러리를 다루는 기술”, “데이터 구조와 알고리즘 최적화 지식”이 더 크게 요구될 수 있다. 이런 이유로 많은 과학기술 분야 전공자들은 대학원 과정에서 수치해석이나 계산수학 과목을 필수로 이수하고, 프로젝트를 통해 실제 모델을 계산하는 경험을 쌓는다. 순수수학 전공자라 하더라도, 현대적 추세에서는 컴퓨터 계산을 외면하기 어려워졌기 때문에, 연구의 효율성과 정확성을 높이기 위해서라도 최소한의 수치 기법 지식을 익히는 것이 일반적이 되었다.
남은 이야기
수치해석과 순수수학의 차이점은 단지 “이론과 실용”의 대립에 국한되지 않는다. 논리와 증명을 중시하는 철학적 배경, 실제 컴퓨터를 통한 근사 연산으로 이어지는 실천적 관심, 고성능 하드웨어의 등장으로 열리는 거대 규모 문제 해결의 문 등, 이 모든 것들이 맞물려 현대 수학과 과학 기술 전반을 풍부하게 만든다. 여기까지 제시한 내용을 통해 두 분야가 어떻게 상호 보완관계로 작동하는지 살폈고, 동시에 각각이 지닌 고유한 성격과 문제 의식의 차이를 짚어 보았다.
Last updated