망원경으로 달에 갈 수 없다

망원경으로 달에 갈 수 없다

망원경을 크게 만든다고 달에 갈 수 있는 건 아니다. 망원경이 커지면 달을 더 선명하게 볼 수 있다. 표면의 무늬를 관찰할 수 있고, 크레이터를 셀 수도 있다. 하지만 아무리 거대한 망원경을 만들어도 달에 도달하진 못한다. 달에 가려면 로켓이 필요하다. 전혀 다른 종류의 기술이다.

지금 AI 업계가 하는 일이 정확히 이것이다. 모델을 키우고, 데이터를 쏟아붓고, 연산을 늘린다. 그리고 이걸 AGI(인공 일반 지능)로 가는 길이라고 믿는다. 샘 알트먼(Sam Altman)은 AGI 도달 시점을 2025년이라고 했다가 2030년으로 미뤘다. 기술적 난관을 만난 것이다. 재정적 현실도 있다. 하지만 진짜 문제는 따로 있다. 방향 자체가 틀렸다는 것이다.

100억 배를 투자하면 10배 개선된다

수학이 냉정한 진실을 말해준다. LLM(거대 언어 모델)의 확장 지수(scaling exponent)는 대략 0.1이다. 이게 무슨 뜻인가. 오차를 10분의 1로 줄이려면 데이터와 연산 자원을 10¹⁰배, 그러니까 100억 배 늘려야 한다는 뜻이다. GPT-4를 만드는 데 수억 달러가 들었다. 그걸 10배 개선하려면? 수천조 달러가 필요하다. 지구 전체 GDP보다 많다.

오차를 10분의 1로 줄이려면 100억 배의 자원이 필요하다

이건 수확 체감이 아니다. 수확 절벽이다. 투입 대비 효과가 기하급수적으로 떨어진다. 물리적으로 지속 가능하지 않고, 경제적으로 말이 안 되고, 에너지 측면에서 불가능하다. 그래서 업계가 방향을 틀고 있다. GPT-4o는 GPT-4보다 비용 효율적이다. Claude 3.5 Sonnet은 Opus보다 작지만 더 강하다. 무조건 크게 만들기보다 효율적으로 만드는 쪽으로 가고 있다.

하지만 효율만으로 해결되는 문제가 아니다. 구조적 한계가 있다.

스펀지는 외과의사가 될 수 없다

신경망은 정교한 스펀지다. 데이터를 흡수한다. 패턴을 학습한다. 확률을 계산한다. 그럴듯한 답을 내놓는다. 하지만 '이해'하진 못한다. 외과의사를 생각해보자. 의대에서 교과서를 읽는다. 시험을 본다. 하지만 그걸로 외과의사가 되진 않는다. 수술실에서 메스를 잡아야 한다. 실제 환자를 봐야 한다. 피를 보고, 조직을 만지고, 예상치 못한 상황에 대응해야 한다. 이걸 체화된 지식(embodied expertise)이라고 부른다.

LLM은 텍스트만 본다. 의학 교과서를 수백만 권 읽을 수 있다. 수술 케이스를 무한정 암기할 수 있다. 하지만 메스를 잡아본 적이 없다. 환자의 맥박을 느껴본 적이 없다. 출혈을 멈춰본 적이 없다. 그래서 아무리 데이터를 쏟아부어도 외과의사를 대체할 수 없다. 법률도 마찬가지다. 의뢰인과 마주 앉아 이야기를 나눠본 적 없는 시스템이 변호사를 대신할 수 없다. 숙련된 목수도 마찬가지다. 나무의 결을 읽고, 톱의 각도를 조정하고, 습도에 따라 작업 방식을 바꾸는 건 텍스트로 전달되지 않는다.

현재 LLM의 아키텍처는 정적인 함수 근사기(static function approximator)다. 고정된 프레임워크 안에서 작동한다. 동적으로 재구조화되지 않는다. 세상과 상호작용하지 않는다. 그래서 확률적 앵무새라고 불린다. 그럴듯하게 말하지만 실제로 이해하진 못한다. 새로운 상황을 만나면 무너진다.

모델은 보간(interpolation)은 잘한다. 훈련 데이터 범위 내에서 빈칸을 채우는 건 능숙하다. 하지만 외삽(extrapolation)은 못한다. 훈련 데이터에 없던 새로운 영역으로 나가지 못한다. 의학 교과서에 없던 희귀병을 만나면? 판례집에 없던 새로운 법적 쟁점을 마주하면? 모델은 기존 패턴을 짜깁기해서 그럴듯한 답을 내놓지만, 그게 맞는지 스스로 판단하지 못한다. 환각(hallucination)이 여기서 나온다.

불확실성은 사라지지 않는다

더 근본적인 문제가 있다. 트랜스포머(Transformer) 구조의 수학적 특성이다. 정규 분포(Gaussian) 형태의 입력을 받아서 비정규(non-Gaussian) 분포로 변환한다. 이게 학습 능력의 원천이다. 하지만 동시에 약점이기도 하다. 비정규 분포는 두터운 꼬리(fat-tailed)를 갖는다. 극단적인 이상치(outlier)가 빈번하게 나타난다는 뜻이다.

정규 분포에서는 데이터가 많아질수록 이상치가 줄어든다. 평균으로 수렴한다. 하지만 두터운 꼬리 분포에서는 그렇지 않다. 이상치가 계속 나타난다. 모델이 커져도 마찬가지다. 데이터를 더 쏟아부어도 마찬가지다. 이걸 '불확실성의 회복력(resilience of uncertainty)'이라고 한다.

불확실성의 회복력: 모델이 커져도 이상치는 사라지지 않는다

그래서 LLM은 본질적으로 환각을 완전히 제거할 수 없다. 확률론적이기 때문이다. 과학적 탐구처럼 정밀도가 중요한 분야에서는 치명적이다. 물리학 논문을 쓴다고 해보자. 수식 하나가 틀리면 전체가 무너진다. 법률 문서도 마찬가지다. 한 문장의 뉘앙스 차이가 수억 원 소송의 향방을 바꾼다. LLM은 '대체로 맞는' 답을 낸다. 하지만 '항상 정확한' 답을 내지 못한다. 그 차이가 전문 영역에서는 결정적이다.

여기에 허위 상관관계(spurious correlation) 문제까지 더해진다. 데이터가 많아질수록 진짜 인과관계보다 가짜 패턴이 기하급수적으로 빠르게 증가한다는 칼루드-롱고(Calude-Longo) 정리가 있다. LLM은 통계적 패턴을 학습한다. 그래서 데이터를 쏟아부을수록 오히려 잘못된 상관관계를 '진실'로 학습할 위험이 커진다. 더 많은 데이터가 항상 더 나은 결과를 보장하지 않는다.

데이터도 바닥난다

설상가상으로 고품질 인간 텍스트 데이터가 고갈되고 있다. 현재 추세대로라면 2028년에 중앙값을 찍는다. 2032년이면 공개된 인간 생성 텍스트가 거의 소진된다. 웹상의 유효 텍스트 총량이 400조 토큰 정도다. 이미 대부분 사용했다.

그럼 합성 데이터를 쓰면 되지 않냐고 묻는다. AI가 만든 데이터로 AI를 훈련시키는 것이다. 하지만 여기엔 함정이 있다. 모델 붕괴(model collapse)다. AI가 생성한 데이터는 원본 데이터의 분포를 완전히 반영하지 못한다. 약간씩 왜곡된다. 그 왜곡된 데이터로 다시 학습하면 더 왜곡된다. 세대를 거듭할수록 현실성을 잃는다. 퇴행적 AI(degenerative AI)가 된다. 수학이나 코딩처럼 정답이 명확한 영역에서는 합성 데이터가 유용할 수 있다. 하지만 일반 언어 작업에서는 인간 데이터를 대체할 수 없다.

로켓이 필요하다

결국 방향을 바꿔야 한다. 더 큰 망원경을 만드는 대신 로켓을 설계해야 한다. 업계도 이걸 알고 있다. 그래서 에이전트 AI(agentic AI)로 선회하고 있다. 하나의 거대한 모델이 모든 걸 해결하는 대신, 여러 전문화된 AI가 협력하는 시스템이다. 복잡한 환경에서 추론하고, 계획하고, 행동하는 AI다.

규모 확장(scaling)이 무의미하다는 게 아니다. 효과가 있다. 다음 단어 예측 능력(perplexity)은 분명 개선된다. 하지만 그게 AGI로 가는 길은 아니다. 100억 배를 투자해서 10배 개선되는 구조로는 한계가 있다. 체화된 지식이 없고, 세계 모델(world model)이 없고, 불확실성이 제거되지 않는 시스템으로는 인간 수준의 일반 지능에 도달할 수 없다.

망원경과 로켓의 차이를 이해해야 한다. 관찰과 도달은 다르다. 모방과 이해는 다르다. 패턴 인식과 판단력은 다르다. 지금 우리가 만드는 건 점점 더 정교한 망원경이다. 하지만 달에 가려면, 아니 화성에 가려면, 전혀 다른 종류의 기술이 필요하다. 그걸 인정하는 순간부터 진짜 돌파구가 보이기 시작한다.

Read more

전진배치되는 자들

전진배치되는 자들

명시지의 종말 AI가 모든 명시지를 장악했다. 검색하고, 조합하고, 최적화한다. 정보를 모으고 정리하는 일은 이제 기계가 더 잘한다. 맥킨지의 전체 보고서 데이터베이스를 3초 만에 검색한다. 100개 산업의 베스트 프랙티스를 조합한다. 5개 언어로 완벽한 문서를 작성한다. 그런데 이상한 일이 벌어진다. 완벽한 전략이 현장에서 작동하지 않는다. 데이터는 완벽했는데 직원들이 반발한다. 논리는 탄탄했는데 고객이

도파민에 대한 '여전한' 오해(제발)

도파민에 대한 '여전한' 오해(제발)

사람들은 도파민을 행복 호르몬이라 부른다. 맛있는 걸 먹을 때, 좋아하는 영상을 볼 때, SNS에서 좋아요를 받을 때 도파민이 뿜어져 나와 우리를 기쁘게 만든다고 믿는다. 마치 뇌가 보상으로 뿌려주는 마법의 가루처럼. 하지만 이건 틀렸다. 완전히. 현상: 우리는 행복하지 않다 당신이 새벽 3시까지 쇼츠를 보고 있을 때, 당신은 행복한가? 아니다. 표정은 무표정이다.

중간이 없다

중간이 없다

중산층이 사라진다는 말을 들으면 사람들은 대개 소득 통계를 떠올린다. 하지만 2026년 한국 경제에서 사라지는 건 소득 구간이 아니다. 어중간한 선택지 자체가 사라지고 있다. K자 모양(K-Shape)이라는 말이 있다. 한국의 K가 아니다. 경기 회복이 알파벳 K처럼 위아래로 갈라지는 양극화를 뜻한다. 누군가는 가파르게 올라가고, 누군가는 계속 떨어진다. 중간 지점은 없다. 이게