# 기초 융합 사례 및 장점

#### GNSS와 관성센서(IMU) 융합

GNSS 단독으로 측정되는 위치 정보에는 위성 가시성, 전리층 장애, 도시 협곡에서 발생하는 멀티패스(multipath) 등 다양한 오차 요인이 존재한다. 이에 관성센서(IMU)와의 융합(Fusion)은 이러한 오차에 대한 보정을 돕고, 위치 서비스의 연속성을 향상시키는 대표적인 기초 사례 중 하나이다.

* IMU(가속도계·자이로스코프)는 이동체의 가속도와 각속도를 실시간으로 측정함으로써 이동체의 자세(Orientation) 및 상대변화량 정보를 제공한다.
* GNSS가 수신 불가능한 구간(예: 터널, 지하주차장 등)에서도 IMU가 상대변위 정보를 제공함으로써 추정 위치가 완전히 유실되는 것을 방지할 수 있다.

**관성항법방정식 기초**

IMU 융합 과정에서 가장 기본이 되는 것은 이동체의 선속도 $\mathbf{v}(t)$, 위치 $\mathbf{r}(t)$를 적분하여 추적하는 단계이다. 이를 이산화된 형태로 간단히 표현하면

$$
\mathbf{v}\_{k+1} = \mathbf{v}\_k + \Delta t \cdot \mathbf{a}*krk+1=rk+Δt⋅vk\mathbf{r}*{k+1} = \mathbf{r}\_k + \Delta t \cdot \mathbf{v}\_k
$$

와 같이 정리할 수 있다. 여기서

* $\mathbf{a}\_k$는 $k$번째 샘플 시점에서 측정된 3축 가속도 벡터
* $\mathbf{v}\_k$, $\mathbf{r}\_k$는 각각 속도 및 위치 벡터
* $\Delta t$는 샘플 간 간격 이다. 이러한 기초 적분 방정식은 오차 누적(드리프트)이 필연적으로 발생하기 때문에, GNSS에서 제공되는 절대 위치를 주기적으로 융합하여 해당 드리프트를 보정한다.

**보정 알고리즘(확장 칼만 필터) 사례**

오차를 정교하게 추정·보정하기 위해서는 확장 칼만 필터(EKF) 혹은 다른 형태의 비선형 최적화 알고리즘을 사용할 수 있다. EKF의 상태방정식과 관측방정식은 다음과 같은 구조를 지닌다.

$$
\mathbf{x}\_{k+1} = \mathbf{F}\_k \mathbf{x}\_k + \mathbf{w}\_kzk=Hkxk+vk\mathbf{z}\_k = \mathbf{H}\_k \mathbf{x}\_k + \mathbf{v}\_k
$$

여기서

* $\mathbf{x}\_k$는 상태 벡터(위치, 속도, IMU 오프셋 등)
* $\mathbf{F}\_k$, $\mathbf{H}\_k$는 각각 시스템 모델·관측 모델을 나타내는 행렬
* $\mathbf{w}\_k$, $\mathbf{v}\_k$는 각각 공정 잡음(process noise)·관측 잡음(observation noise) 을 의미한다.

#### GNSS와 지상기반 무선(셀룰러·Wi-Fi) 연계

GNSS의 전파가 도달하기 어려운 도심 및 실내 환경에서, 지상기반 무선 신호(셀룰러, Wi-Fi 등)를 활용하여 측위 정확도를 높이는 기초 융합 사례도 중요하다.

* 셀룰러 신호의 기지국(예: LTE, 5G)과 Wi-Fi AP(Access Point)는 이미 도시 전역에 밀집되어 있으며, 이 신호들로부터 거리 혹은 도달 시간, 신호 세기(RSSI) 등을 측정하여 상대적인 위치 추정에 활용한다.
* GNSS의 절대 위치를 일종의 ‘앵커(anchor)’로 삼고, 지상기반 무선 측정값을 추가로 융합함으로써 위성신호가 불안정하거나 불가시가 되는 구간에서도 상대 오차를 보정할 수 있다.

**삼변측량 기초**

지상기반 무선에서 많이 사용되는 삼변측량(trilateration) 기법은 다음과 같이 기지국과 이동체 간의 거리를 바탕으로 위치를 추정한다. 임의의 3개 기지국이 각각 이동체와의 거리 $d\_1, d\_2, d\_3$를 가진다고 할 때, 이를 2차원 평면에 간단히 표현해 보면,

$$
(\mathbf{x} - \mathbf{x}\_1)^2 + (\mathbf{y} - \mathbf{y}\_1)^2 = d\_1^2
\\
(\mathbf{x} - \mathbf{x}\_2)^2 + (\mathbf{y} - \mathbf{y}\_2)^2 = d\_2^2
\\
(\mathbf{x} - \mathbf{x}\_3)^2 + (\mathbf{y} - \mathbf{y}\_3)^2 = d\_3^2
$$

와 같은 형태의 비선형 방정식을 얻게 된다. 여기서

* $(\mathbf{x}\_1, \mathbf{y}\_1)$, $(\mathbf{x}\_2, \mathbf{y}\_2)$, $(\mathbf{x}\_3, \mathbf{y}\_3)$는 기지국 위치
* $(\mathbf{x}, \mathbf{y})$는 이동체의 미지의 위치
* $d\_i$는 기지국과 이동체 간의 거리 이다. 이런 방정식을 최소자승법(LS), EKF, UKF 등을 통해 풀어 무선 기반 위치 추정을 수행하며, GNSS 정보를 함께 융합할 경우 측정값의 다양성과 관측 방정식 수가 증가하여 더 정밀한 추론이 가능하다.

#### GNSS와 영상·레이더(LiDAR) 연계

최근에는 카메라나 LiDAR 등 고도 센서 정보를 GNSS와 융합하는 기초 사례가 늘어나고 있다.

* 카메라 영상을 이용하면 특징점(feature point)의 추적으로 이동체의 상대 변화량(Visual Odometry)을 확보할 수 있으며, 지형지물과의 기하관계를 통해 절대 위치를 추정할 수도 있다(Visual SLAM 등).
* LiDAR는 레이저 펄스를 발사한 뒤 반사되어 돌아오는 시간을 측정해 주변 지형의 3차원 지도(점군, point cloud)를 생성하는 센서다. GNSS의 위치 정보를 초기값으로 삼아 점군 매칭을 수행하면, 정확한 정합(Registration)이 가능하다.

#### 융합 장점: 정확도·연속성·무결성

GNSS와 기타 기술을 융합하면 다음과 같은 장점이 얻어진다.

1. **정확도(Accuracy)**: 다양한 센서·신호로부터 얻는 중복 관측값(redundancy)을 활용해 오차를 더 효과적으로 추정·보정 가능
2. **연속성(Continuity)**: GNSS가 가시되지 않는 구간에서도 IMU, 지상무선, 영상/레이더 등으로 위치를 이어나갈 수 있음
3. **무결성(Integrity)**: 다채널 관측으로 신뢰도 검증 및 센서 이상 탐지가 쉬워지고, 안전한 항법 서비스 구현이 가능

#### 센서 융합 아키텍처 (Loosely Coupled / Tightly Coupled)

GNSS와 기타 센서(IMU, 지상무선, 영상, LiDAR 등)를 연계할 때, 시스템 구조에 따라 크게 **Loosely Coupled** 방식과 **Tightly Coupled** 방식으로 나눌 수 있다. 이는 센서 융합 필터(Fusion Filter)에서 어떤 형태의 GNSS 관측치를 활용하는지에 대한 차이로 구분된다.

* **Loosely Coupled**:
  * GNSS가 자체적으로 위치·속도(PVT)를 추정한 결과를 IMU나 지상무선 등 타 센서의 결과와 결합한다.
  * 센서 간 상호 영향이 느슨하게 연결되어, 구현이 비교적 단순하고 데이터 교환이 용이하다.
  * 다만 GNSS 내부 알고리즘(추정 과정)을 상세히 활용하기 어려워 GNSS에서 수신하는 원시 관측값(코드/위상 측정치)을 직접 보정하기에는 한계가 있다.
* **Tightly Coupled**:
  * GNSS의 원시 측정값(코드, 반송파 위상, 도플러 등)을 직접 센서 융합 필터에서 활용한다.
  * IMU, 지상무선 측정 등과 함께 동시에 GNSS 관측 모델을 구성하므로, 측정 방정식이 더욱 세밀해지고 오차 추정 능력이 향상된다.
  * 구조가 복잡하고 계산량이 많아지지만, GNSS 측정 신호가 일시적으로 부족하거나 품질이 저하된 상황에서도 보다 견고하게 항법 솔루션을 유지할 수 있다.

이를 단순화하여 표현하면, 아래와 같은 센서 융합 블록 다이어그램으로 나타낼 수 있다.

{% @mermaid/diagram content="flowchart LR
A\["GNSS (원시측정 혹은 PVT 결과)"] --> D\["융합 필터"]
B\["IMU (가속도·각속도)"] --> D\["융합 필터"]
C\["기타 센서 (Wi-Fi, LiDAR, Camera 등)"] --> D\["융합 필터"]
D\["융합 필터"] --> E\["추정 결과 (위치, 속도, 자세 등)"]" %}

#### 센서 캘리브레이션과 보정 요소

GNSS와 IMU, 카메라, LiDAR 등을 통합할 때는 센서 간 상호배열(extrinsic parameters)과 각 센서 고유오차(intrinsic parameters)를 정확히 파악하는 절차가 필요하다.

* **IMU 오프셋/바이어스**: 가속도계·자이로스코프는 시간이 지남에 따라 센서 내부 오프셋이 변화한다. 이를 EKF 등의 필터에서 상태 변수로 정의하고 동적으로 추정·보정한다.
* **카메라·LiDAR의 외부파라미터**: GNSS/IMU 기준좌표계와 카메라/LiDAR의 좌표축이 정확히 일치하도록 센서 간 위치·회전·스케일 비율 등을 측정해두어야 한다.
* **지상무선 기지국·AP 위치**: 무선 측위를 활용할 경우, 기지국이나 AP가 가리키는 좌표(고정 기준좌표)가 정확히 파악되어야 하며, 그렇지 않다면 오차가 고스란히 융합 결과로 이어진다.

센서 융합 시, 이러한 보정 요소들을 상태 벡터에 추가하여 필터링할 수 있다. 예를 들어, 확장 칼만 필터의 상태 벡터에 IMU 바이어스 항($\mathbf{b}*\text{gyro}, \mathbf{b}*\text{acc}$), 카메라 외부파라미터($\mathbf{T}*{ext}$), 지상무선 기지국 위치 오차($\delta \mathbf{r}*{bs}$) 등을 포함해 추정해나간다.

#### 로버스트 추정 기법과 오차 모델링

GNSS 및 기타 센서의 측정값에는 ‘비정상치(outlier)’나 ‘신호 부정합(anomaly)’이 존재할 수 있다. 예컨대 건물 유리면에 의한 GNSS 멀티패스, 갑작스러운 지형遮蔽 등에 의해 측정치가 급격하게 튀는 경우가 대표적이다.

* **로버스트 추정(Robust Estimation)**: 관측값에 대한 가중 함수를 조정하거나, M-추정(M-estimation), RANSAC(RANdom SAmple Consensus) 같은 기법을 통해 이상값의 영향을 줄이는 방법이다.
* **오차 모델링**: GNSS 단말의 자체 오차, 다중경로 오차, 전리층·대류권 지연 등에 대해 확률적 혹은 경험적 모델을 설정하여 필터에 반영한다. IMU 드리프트, 지상무선 채널 노이즈 모델 역시 유사한 방식으로 구성할 수 있다.

이를 통해 전체 측위 솔루션에 대한 신뢰도를 높이고, 예기치 못한 관측 이상에 대해 강인한(robust) 필터링 성능을 발휘할 수 있다.

#### 시뮬레이션 및 검증 예시

GNSS-IMU 융합 성능을 검증할 때 자주 활용되는 시뮬레이션 기법은 다음과 같은 단계로 진행될 수 있다.

1. **시나리오 구성**: 이동체의 궤적(경로), 속도·가속도 프로파일, 지상무선 기지국 위치 등을 가정
2. **관측값 생성**: 가상의 GNSS 관측치, IMU 측정치, 무선 신호 거리값(TOA, RSSI) 등을 각종 오차 모델을 반영해 생성
3. **융합 필터 적용**: EKF, UKF(Unscented Kalman Filter), PF(Particle Filter) 등 다양한 알고리즘을 적용
4. **오차 분석**: 참값(Ground Truth)과 융합 결과의 오차를 RMS, CEP, 항법 무결성 지표 등으로 평가

이러한 시뮬레이션 과정을 거쳐 실험실 단계에서 알고리즘의 안정성과 성능을 확인한 후, 실제 현장 시험을 통해 추가적인 검증이 이루어진다.

#### SBAS, GBAS 등 보조위성시스템 연계

기본적인 GNSS 측위 정확도를 보완하기 위해 SBAS(Satellite Based Augmentation System), GBAS(Ground Based Augmentation System) 등의 시스템을 활용하는 융합 사례가 있다.

* **SBAS**: 지상국(Reference Station)에서 측정된 위성 신호 오차(위성 궤도·시계 보정, 전리층 오차 등)를 위성에 재전송하여 광역보정을 제공하는 시스템이다(EGNOS, WAAS, MSAS 등).
* **GBAS**: 공항 등에 설치된 기준국에서 국지적인 보정 정보를 제공하는 시스템으로, 활주로 등 짧은 구간에서 높은 정밀도(수십 cm 수준)를 달성하도록 설계된 경우가 많다.

SBAS·GBAS 보정 정보를 GNSS 수신부와 센서 융합 모듈에서 함께 이용하면, 위치 추정의 정확도를 더 높일 수 있다.

**기본 보정 수식**

SBAS/GBAS가 제공하는 보정항을 $\Delta \rho\_{\mathrm{corr}}$라 하면, 위성별 관측식은 아래와 같이 표현할 수 있다.

$$
\rho\_{\mathrm{meas}} = \rho\_{\mathrm{true}} + \Delta \rho\_{\mathrm{corr}} + e
$$

* $\rho\_{\mathrm{meas}}$: 수신기가 측정한 의사거리
* $\rho\_{\mathrm{true}}$: 실제 거리(송신기와 수신기 간 참값)
* $\Delta \rho\_{\mathrm{corr}}$: SBAS/GBAS가 제공하는 오차 보정값
* $e$: 나머지 잔여 오차 및 노이즈

SBAS/GBAS가 없을 경우 오차가 $\Delta \rho\_{\mathrm{corr}}$만큼 추가로 포함되어 필터에 들어가게 되지만, 보정값을 이용하면 필터가 보다 정확한 거리 측정을 기반으로 추정할 수 있다.

#### RTK(Real-Time Kinematic) 및 PPP(Precise Point Positioning) 융합

고정밀 측위 분야에서 대표적인 기초 융합 사례로 RTK와 PPP가 있다.

* **RTK**: 참조국(Reference Station)과 이동국(Rover Station) 간의 캐리어 위상(carrier phase) 측정치를 실시간으로 비교·공유함으로써, 수 센티미터 수준의 위치 정밀도를 얻는 기법
* **PPP**: 단일 수신기에서도 정밀 위성 궤도와 시계 오차 정보를 활용해 cm\~dm급 정확도를 달성할 수 있는 기법

이런 기법들은 IMU, 카메라, 지상무선 등과 결합해 더욱 견고한 항법 솔루션을 제공할 수 있다. 예컨대 RTK/IMU 융합은 농업용 정밀 자율주행 트랙터나 드론에서 활발히 적용되는 사례로 꼽힌다.

**Carrier Phase 융합 기초**

RTK나 PPP에서 핵심이 되는 캐리어 위상 측정치를 융합에 반영하려면, 위상 앰빅귀티(ambiguity) 해결 문제를 동시에 고려해야 한다. 캐리어 위상을 $\phi$라 할 때, 측정 식은

$$
\phi = \frac{\rho}{\lambda} + N + \epsilon\_\phi
$$

* $\rho$: 위성\~수신기 간 물리적 거리
* $\lambda$: 반송파 파장
* $N$: 정수 앰빅귀티
* $\epsilon\_\phi$: 위상의 잔여 오차

RTK 필터 내부에서는 $N$을 정수로 해결(fix)하거나 정밀 추정을 통해 부동(float) 상태를 제어한다. IMU, 지상무선 등 외부 센서 정보를 함께 활용하면, 앰빅귀티 추정의 초기값 설정 혹은 수렴 시간을 단축하는 데 도움이 된다.

#### 다중 안테나·협력 측위(Collaborative Positioning)

GNSS 오차 환경이 극도로 열악한 경우(도시 협곡, 실내 등)에도 융합 기법을 적용하기 위해 다중 안테나 혹은 협력 측위 방안을 도입하는 사례가 있다.

* **다중 안테나**: 한 이동체 내에 여러 GNSS 안테나를 배치하면, 안테나별 측정값 차이를 통해 자세(Orientation) 정보 또는 멀티패스 감쇠 효과를 얻을 수 있다. 이를 IMU/SLAM 등과 융합하여 안정적인 항법 결과를 얻는다.
* **협력 측위**: 여러 이동체(차량, 드론, 로봇 등)가 서로 통신하며 GNSS와 기타 센서 정보를 공유하여 집단적으로 위치 정밀도를 높이는 방법이다. 협력 측위에서는 상대 거리(Range), 상대 속도(Range Rate), UWB(Ultra Wide Band) 기반 근접 측정 등이 추가 정보로 활용된다.

#### 유저 단말 설계 시 고려사항

GNSS와 기타 센서를 융합하는 단말(스마트폰, 차량용 단말, 드론 탑재 장치 등)을 설계할 때는 다음 요소를 고려해야 한다.

1. **센서 동기화**: GNSS와 IMU, 카메라, 지상무선 등은 서로 다른 주기로 데이터를 수집한다. 필터링 단계에서 시간 축을 맞춰주기 위해 타임스탬프 관리와 보간(interpolation)이 필수적이다.
2. **전력 소모**: 다수의 센서를 동시에 작동하면 전력 소비가 증가한다. 상황·사용 목적에 따라 센서의 샘플링 레이트를 동적으로 조절하는 방안이 필요하다.
3. **실시간성**: 자율주행 차량처럼 빠른 반응이 필요한 경우, 센서 융합 알고리즘의 계산 복잡도를 낮추거나 하드웨어 가속(예: GPU, FPGA)을 고려해야 한다.
4. **무게·부피 제한**: 드론이나 로봇 등에 탑재 시, 센서와 프로세싱 모듈의 무게·크기가 제약이 된다. 간단한 IMU와 소형 GNSS 모듈을 사용하는 경량화 전략이 필요하다.

#### 추가 발전 동향(기술적 관점)

* **AI 기반 센서 보정**: 전통적 EKF 필터와 더불어, 딥러닝을 활용해 센서 오프셋 추정이나 환경별 오차 모델링을 자동화하는 연구가 진행 중이다.
* **6G 시대의 무선 측위**: 5G에 이어 6G에서는 극초단파(THz 대역)나 빔포밍(Beamforming) 등을 활용한 센티미터급 위치 추정이 가능할 것으로 기대되어, GNSS와 융합하여 전천후 측위 서비스를 제공할 수 있다.
* **양방향(Multi-Modal) 협업**: 차량 간 및 차량-인프라 간 협업(Cooperative Perception)으로 위치뿐 아니라 주변 환경 정보까지 공유·융합하여, 더욱 견고하고 정밀한 주행·항법 솔루션을 구현하는 방향으로 나아가고 있다.
