숫자 개념의 기하 ‘수’를 공간에서 보면

 

숫자 개념의 기하 ‘수’를 공간에서 보면
숫자 개념의 기하 ‘수’를 공간에서 보면

LLM이 숫자를 “이해”한다는 말은 자주 나오지만, 실제로는 무엇이 공유되고 무엇이 분리되는지부터 애매합니다. 이 논문은 공유를 “좌표”가 아니라 “관계(거리·배치)”로 재정의하고, 과제별 분리와 관계 구조 공유가 공존할 수 있음을 계량 지표로 보여줍니다. 다만 1–9 범위·고정 템플릿·평균 임베딩 같은 실험 세팅 의존성이 커서, 결론의 일반성을 더 단단히 보강할 필요가 있습니다.

프로크루: ‘좌표’ 대신 ‘관계’가 공유된다는 주장

이 논문이 가장 잘한 지점은 “표상이 공유된다 vs 분리된다” 논쟁을 정면에서 재정의했다는 점입니다. 기존 논쟁은 대체로 “같은 개념이면 같은 좌표(혹은 같은 방향)로 모여야 한다”는 직관에 기대기 쉬운데, 논문은 공유의 핵심이 좌표 그 자체가 아니라 **개념 간 상대적 관계(거리·서열·배치)**라고 주장합니다. 이 프레이밍 덕분에 “과제별로 다른 subspace에 있어도, 관계 구조가 같다면 이해의 scaffold는 공유될 수 있다”는 기계적 설명이 가능해집니다.

이를 검증하기 위해 저자들은 숫자 개념을 1–9로 제한하고, Quantity/Comparison/Arithmetic/Properties(Parity·Primality)/Ordinal(Predecessor·Successor) 등 인지과학 문헌 기반 과제 문장을 설계해 각 숫자 토큰의 컨텍스트 임베딩을 추출합니다(각 과제당 5개 템플릿). 이때 “좌표 공유” 가설이라면 과제 간 임베딩이 한곳으로 수렴해야 하지만, 실제로는 과제별로 클러스터가 분리되는 경향(t-SNE 시각화)이 관찰됩니다.

여기서 중요한 포인트는, 시각화에서 끝내지 않고 Procrustes Analysis로 “관계 보존”을 정량화했다는 점입니다. Procrustes는 한 임베딩 집합 X를 회전·이동·스케일링(강체 변환)으로 맞춰 다른 집합 Y에 최대한 정렬하고, 남는 왜곡(M², disparity)을 관계 구조 차이로 해석합니다. 논문은 과제별 subspace 간 평균 disparity가 약 0.010으로 매우 낮고, 숫자 라벨을 섞은 permutation baseline은 0.077~0.273으로 훨씬 높다고 보고합니다. 즉, 과제가 달라도 “숫자들 사이의 상대적 배치”는 우연을 넘어 일관되게 유지된다는 결론입니다.

다만 사용자 비평처럼, 이 결론은 실험 세팅의 도움을 크게 받았을 수 있습니다. 1–9는 범위가 작고 단조 구조가 나오기 쉬우며, 각 숫자 표현을 “템플릿 5개 평균”으로 만들면 분산이 줄어 정렬이 쉬워집니다. 또한 템플릿이 주는 고정 문맥 신호가 “관계의 scaffold”처럼 작동했을 가능성도 배제하기 어렵습니다.
그렇다고 이 논문의 메시지가 약해지는 것은 아닙니다. 오히려 여기서 논문이 더 강해질 방향이 또렷해집니다.

근거(논문): 낮은 Procrustes disparity(≈0.010)와 permutation 대비 큰 격차가 “관계 구조 공유”를 지지합니다.

반론(비평): 범위(1–9), 템플릿(각 5문장), 평균내기(variance 축소)가 정렬을 과도하게 쉽게 만들 수 있습니다.

재반박(해석 보완): 논문은 자연문 코퍼스(Pseudo Sentence 900 세그먼트, Real Sentence 450 문장)에서도 분포 시각화를 제공해 “자연문에서도 ordinal 조직이 안정적”임을 추가로 시사합니다. 다만 이것이 곧 0–100, 자릿수, 음수까지 일반화된다는 증거는 아닙니다.

보완 제안(실행형): 숫자 범위를 0–100(혹은 음수/소수 포함)로 늘리고, 템플릿이 아닌 대규모 자연문에서 동일 결론이 유지되는지 재검증하면 ‘관계 공유’ 주장이 훨씬 단단해집니다.

핵심은 이것입니다. 이 논문은 “공유를 좌표가 아니라 관계로 본다”는 프레이밍 자체가 이미 강력하고, Procrustes는 그 프레이밍에 맞는 지표입니다. 이제 남은 과제는 그 관계 공유가 “작은 숫자·고정 문맥”을 넘어도 유지되는지 보여주는 것입니다.

오버랩: 과제는 왜 분리된 subspace를 쓰는가

관계 구조가 공유된다고 해서, 과제 표현이 하나의 공간으로 수렴해야 하는 것은 아닙니다. 오히려 다중 과제에서는 간섭(task interference)을 줄이기 위해 분리가 필요할 때가 많습니다. 논문은 이 지점을 Subspace Overlap으로 잡아냅니다. 방식은 간단합니다. 과제 A의 상위 k개 주성분(PCA)이 과제 B의 분산을 얼마나 설명하는지(비대칭 오버랩)를 계산해 “둘이 실제로 같은 subspace를 쓰는가”를 묻습니다.

결과는 “분리” 쪽에 무게가 실립니다. Qwen2.5-Math에서 대부분 과제 쌍의 오버랩이 0.2 미만으로 작고, 기능적으로 가까운 Successor–Predecessor 같은 일부만 0.36~0.42 수준으로 예외가 나온다고 보고합니다. 즉, 과제들은 대체로 서로 다른 방향(다른 subspace)에 배치되어 간섭을 줄이는 전략을 취한다는 것입니다.

이 대목이 설득력 있는 이유는, “공유 vs 분리”를 이분법으로 보지 않고, 다음처럼 해석할 수 있게 해주기 때문입니다.

관계 구조는 공유됩니다(숫자들 간 상대 배치).

하지만 과제별 표현은 서로 다른 subspace로 분리됩니다(간섭 최소화).
즉, ‘공유 scaffold + 분리된 좌표계’라는 공존 모델이 성립합니다.

하지만 여기에도 사용자의 비평이 곧장 들어옵니다. 오버랩이 낮다고 해서 “모델 내부에서 실제로 간섭을 피하려는 기제”가 작동했다고 단정할 수는 없습니다. 오버랩은 통계적 서술(분산 설명 비율)이지, 인과적 메커니즘(어떤 연산이 분리를 만들었는지)을 직접 말해주지는 않습니다.
그래서 이 논문이 더 강해지려면 “분리의 동역학”이 필요합니다. 다행히 저자들도 특정 레이어(전체 깊이의 75%)에서 주로 분석했다고 밝히며, 중·후반 레이어가 의미 구조가 안정적이라는 선행을 인용합니다. 그러나 독자가 진짜로 궁금한 것은 “그럼 어느 레이어에서 분리가 시작되고, 어느 레이어에서 관계 구조가 고정되는가”입니다.

실전적으로 가장 설득력 있는 보강은 다음 형태입니다.

레이어별로 Procrustes/오버랩/SVCCA를 모두 반복해 곡선을 제시하는 것입니다.

“공유 scaffold가 먼저 생기고 → 과제별 subspace가 갈라지고 → 변환 가능성이 유지된다” 같은 단계적 내러티브를 동역학으로 보여주는 것입니다.
이렇게 되면 “공존한다”가 단지 멋있는 문장이 아니라, 실제로 모델 내부에서 관측되는 과정이 됩니다.

또 하나 중요한 비평은 t-SNE 해석 위험입니다. 논문도 Figure 1에서 t-SNE로 과제별 클러스터와 1–9의 순서를 보여주지만, t-SNE는 거리·각도 해석이 왜곡될 수 있어 “그림이 예쁘다”가 “기하가 이렇다”로 곧장 이어지면 위험합니다. 다행히 논문은 Procrustes/오버랩/SVCCA로 이를 보완하지만, 독자가 가장 먼저 보는 것도 t-SNE인 만큼, 본문에서 “시각화는 직관, 결론은 정량 지표”라는 안전장치를 더 강하게 걸어주는 편이 좋습니다.

SVCCA: 선형 등가성은 ‘가능성’이지 ‘원인’이 아닙니다

논문이 제시한 3단 지표 조합의 마지막은 SVCCA입니다. SVCCA는 두 표현을 PCA로 압축한 뒤, CCA로 최대 상관의 선형 조합들을 찾아 평균 상관(정렬 정도)을 측정합니다. 논문은 오버랩이 낮은데도 SVCCA 상관이 대체로 0.80~0.90으로 높게 나오며, 이것이 “서로 다른 subspace지만 선형 변환으로 서로 매핑 가능하다”는 증거라고 주장합니다. 여기까지는 논리적으로 매우 깔끔합니다. “공간을 같이 쓰는가(오버랩)”와 “선형적으로 대응되는가(SVCCA)”를 분리했기 때문입니다.

또한 논문은 저수준 특성(짝수/홀수, 소수/합성수)을 magnitude와 분리된 방향으로 인코딩한다는 시각적 분석도 제공합니다. Qwen2.5-Math에서 parity 축은 magnitude 축과 거의 직교(88.8°)이고, primality는 68.8°로 더 기울어져 magnitude와 일부 결합된다고 설명합니다. 이 해석은 “합성수는 큰 수로 갈수록 밀도가 달라진다” 같은 수학적 사실과도 연결되며, 단순 군집 그림보다 훨씬 메커니즘 친화적입니다.

하지만 사용자 비평의 핵심 경고도 여기서 가장 중요해집니다. SVCCA가 높다는 것은 ‘선형적으로 대응되는 성분이 많다’는 뜻이지, 모델이 실제로 과제 전환 때 선형 변환을 수행한다는 인과 증거는 아닙니다.
즉, “공유 scaffold + 과제별 선형 변환”은 매력적인 내러티브이지만, 그 변환이 모델의 어떤 연산(어텐션, MLP, 레이어노름 등)에서 구현되는지는 아직 열려 있습니다.

이 지점을 보강하려면, 단지 “선형 매핑이 존재한다”를 넘어서 다음을 보여줘야 합니다.

레이어별 SVCCA가 어디서 올라오는지(동역학)입니다.

특정 연산 블록(어텐션 vs MLP)을 분리해, 어느 부분이 과제별 재포맷(reformatting)에 기여하는지입니다.

가능하다면, 선형 매핑을 실제로 구성해 다른 과제에서 성능 또는 효과(예: 거리/비율 효과 피팅)가 얼마나 보존되는지의 “기능적 검증”입니다.

또 하나의 논쟁 지점은 인지과학 연결에서 cosine similarity를 반응시간(RT) proxy로 쓰는 가정입니다. 논문은 Shah et al.(2023)을 따라 distance/size/ratio effect를 cosine 기반으로 피팅하며, 여러 과제에서 효과가 유지된다고 보고합니다.
이 접근은 “행동 자료를 직접 갖기 어려운 LLM”에서 합리적인 타협이지만, metric 선택이 결론을 주도할 수 있다는 우려도 큽니다. 따라서 centered cosine, Mahalanobis distance, representational distance 등 대조 메트릭에서도 효과 피팅이 유지되는지 보여주면, “인간 유사 구조” 연결이 훨씬 덜 논쟁적이 됩니다.

요약하면, 이 논문은 “관계 구조 공유 + subspace 분리 + 선형 등가성”을 하나의 이야기로 엮는 데 성공했습니다.
다만 강한 이야기일수록, 실험 세팅(1–9·템플릿·평균) 의존성과 메커니즘 증거(어디서 변환이 구현되는가)를 더 단단히 보강해야, 독자가 안심하고 받아들일 수 있습니다.


이 논문은 숫자 표상 공유를 “좌표”가 아닌 “관계”로 재정의하고, Procrustes·오버랩·SVCCA로 공유와 분리가 공존함을 설득력 있게 보여줍니다. 다만 1–9·템플릿·평균 임베딩 의존성과, 선형 변환 내러티브의 메커니즘 증거는 레이어·범위·메트릭 확장 실험으로 보강돼야 합니다.

자주 묻는 질문 (FAQ)

Q. “공유는 좌표가 아니라 관계”라는 말은 무엇이 다른가요? A. 같은 개념이 같은 위치에 모인다는 가정 대신, 개념들 사이의 상대적 거리·서열·배치가 유지되는지를 공유의 기준으로 삼는다는 뜻입니다. 논문은 Procrustes disparity가 매우 낮고(permutation 대비 큰 격차), 이를 관계 구조 공유의 근거로 제시합니다.

Q. subspace overlap이 낮으면 진짜로 과제 간 간섭이 줄었다는 뜻인가요?
A. 오버랩은 “분산 관점에서 같은 방향을 얼마나 공유하는가”를 보여주는 서술 지표입니다. 간섭을 줄이는 메커니즘을 직접 증명하려면, 레이어별 동역학이나 연산 블록별 분석, 혹은 과제 전환 시 기능적 보존 검증이 함께 필요합니다.

Q. SVCCA가 높으면 모델이 실제로 선형 변환을 ‘수행’한다고 볼 수 있나요?
A. SVCCA는 두 표현이 선형적으로 대응될 수 있음을 보여주는 증거이지만, 그것만으로 모델 내부에서 실제로 그 변환이 구현된다고 단정하기는 어렵습니다. 논문 내러티브를 강하게 하려면 레이어별 추적과 변환이 구현되는 연산 위치(어텐션/MLP 등)를 추가로 제시하는 것이 좋습니다.

[출처]
영상 제목/채널명: https://arxiv.org/html/2602.06843v1

댓글 쓰기

0 댓글

이 블로그 검색

신고하기

프로필