요즘 AI를 볼 때마다 나는 같은 불편한 반응을 느낀다. 모델은 분명 좋아졌다. 그런데 체감은 데모가 보여주는 만큼 크게 바뀌지 않는다. 더 빨라졌다. 더 매끈해졌다. 예전보다 코드를 더 잘 쓴다. 정보를 더 깔끔하게 끌어온다. 더 긴 컨텍스트도 다룬다. 그런데도 나는 계속 같은 벽에 부딪힌다. 겉으로는 더 세련돼졌지만, 실제 이해에 비례해서 가까워졌다는 느낌은 들지 않는다.
그래서 내게 진짜 질문은 더 이상 “대형 언어모델이 유용한가?”가 아니다. 그건 당연히 유용하다. 질문은 우리가 같은 기본 트릭, 즉 다음 토큰 예측, 더 좋은 포장, 더 큰 컨텍스트 창, 더 매끈한 제품 층에서 점점 더 많은 가치를 짜내고 있는 게 아니냐는 것이다. 만약 실제로 벌어지는 일이 그거라면, 불편한 가능성은 이렇다. LLM은 제품으로서는 계속 나아질 수 있지만, 개념적 천장에서는 세상이 인정하고 싶어 하는 것보다 훨씬 가까운 곳에 있을 수 있다.
진보가 멈추기 전에 감각부터 달라졌다
이상한 부분은 여기다.
나는 진보가 가짜라고 말하는 게 아니다.
모델은 분명 좋아졌다. 누구나 볼 수 있다.
하지만 많은 사람이 같은 순간에 도달했다고 생각한다. 처음엔 시스템이 충격적으로 느껴지다가, 점점 익숙해지기 시작한다. 더 좋은 옷을 입은 같은 한계가 보이기 시작한다.
여전히 확신에 찬 어조로 틀린다.
여전히 우아한 헛소리를 만든다.
여전히 추론하는 척은 더 잘하지만 실제로 그걸 오래 유지하진 못한다.
그게 중요한 이유는, 새로움이 걷히고 나면 더 불편한 질문이 남기 때문이다. 우리가 보고 있는 게 진짜 깊어짐인가, 아니면 같은 기본 움직임 위에서 더 나아진 퍼포먼스일 뿐인가?
나는 자꾸 같은 실전의 붕괴 지점으로 되돌아간다
이건 내게 더 이상 철학 문제만이 아니다.
많은 사용자가 이미 겪고 있는 아주 실무적인 순간이기도 하다.
예를 들어 복잡한 문서를 요약시킨다.
답은 금방 나온다.
문장도 반듯하다.
핵심을 잡은 것처럼 보인다.
하지만 원문 옆에 놓고 한 줄씩 보면, 진짜로 중요한 조건 하나를 놓치거나, 예외를 매끈하게 지워 버리거나, 전혀 다른 결론을 그럴듯하게 묶어 놓는 경우가 반복된다.
코드도 비슷하다.
첫 버전은 보기 좋다.
테스트도 얼핏 그럴듯하다.
그런데 막상 실행해 보면 상태가 꼬이거나, 경계 조건이 비거나, 실제 제품 로직에서 가장 중요한 지점이 빠져 있다.
바로 이런 순간 때문에 나는 다시 같은 의심으로 돌아간다.
기호를 아주 능숙하게 이어 붙이는 것과, 그 기호가 붙어 있는 현실을 정말 붙잡고 있는 것은 같은 일이 아닐 수 있다는 의심이다.
내가 여기서 느끼는 불편함은 철학 놀이가 아니다.
사람이 직접 검수해야만 비로소 드러나는, 아주 실무적인 미끄러짐에 가깝다.
사람들이 거기서 보는 “마음”의 상당 부분은 그저 표면의 능숙함일지도 모른다
대중이 계속 속아 넘어가는 지점은 바로 여기라고 생각한다.
시스템이 너무 유창해서, 사람들은 거기에 추가 결론을 몰래 집어넣기 시작한다.
차분하고, 똑똑해 보이고, 분야를 넘나들고, 완결적으로 들리면 사람들은 그걸 마음의 증거처럼 다루기 시작한다.
바로 여기서 혼동이 생긴다.
회의실에서는 그 착각이 더 빨리 커진다.
누군가가 모델이 써 준 깔끔한 요약을 읽는다.
문장이 차분하니 다들 일단 고개를 끄덕인다.
그다음에야 맨 아래에 숨어 있던 잘못된 전제가 보인다.
매끈한 답은 통찰처럼 보이고, 정리된 문단은 이해처럼 보이고, 차분한 목소리는 판단력처럼 보인다.
하지만 실제 현장에서는 그 셋이 자주 분리된다.
보기 좋게 말하는 능력은 있다.
그 말이 현실에 단단히 걸려 있는지는 또 다른 문제다.
텍스트는 엄청난 지름길이었다. 어쩌면 바로 그래서 한계이기도 하다
LLM이 이렇게까지 폭발한 이유 중 하나는 분명하다. 텍스트가 터무니없이 강력한 지름길이기 때문이다.
인터넷은 인간의 설명, 논쟁, 지시, 서사, 모순, 오류를 압축한 거대한 저장고를 이 시스템들에 제공했다. 그건 엄청난 자원이다.
하지만 동시에 함정일 수도 있다.
텍스트는 현실이 아니기 때문이다.
텍스트는 인간이 현실에 대해 뒤늦게 남긴 흔적에 가깝다.
그리고 그 흔적은 늘 지저분하다.
사람들은 대충 말하고, 과장하고, 빼먹고, 모르는 것을 아는 척하고, 서로 다른 전제를 한 문장 안에 섞어 버린다.
그러니 시스템이 주로 먹는 것이 세상 자체가 아니라 세상에 대해 남겨진 말이라면, 놀라운 언어 퍼포먼스와 실제 접지감 사이에 끝내 메워지지 않는 간격이 남을 수도 있다.
그래서 진지한 사람들은 순수한 LLM 확대 바깥을 계속 본다
내가 이 천장설을 쉽게 버리지 않는 이유 중 하나는, 현장 가까이에 있는 많은 사람들이 순수한 LLM 확대에 전부를 걸고 있지 않다는 점이다.
관심은 계속 이런 방향으로도 옮겨 간다.
- 세계 모델
- 강화학습 비중이 큰 시스템
- 몸을 가진 상호작용
- 텍스트만이 아니라 잠재 상태 예측을 중심에 둔 아키텍처
- 언어가 아니라 물리 세계 자체를 모델링하려는 시도
그렇다고 해서 LLM이 끝났다는 뜻은 아니다.
오히려 반대다.
너무 유용하니까 다들 계속 붙든다.
다만 실무자들이 이미 알고 있는 것도 있다.
지금 방식만 크게 키우는 것으로는, 사람들이 실제로 부딪히는 미묘한 실패를 전부 없애기 어렵다는 감각이다.
일반 사용자도 그걸 대충은 느낀다.
처음엔 압도된다.
몇 주 뒤에는 일상 업무에 붙인다.
그리고 조금 더 지나면 이런 말을 하게 된다.
정말 편하다. 그런데 이상하게 마지막 확인은 꼭 내가 해야 한다.
LLM은 전자적 인격이라기보다 엄청나게 강력한 지식 기계에 더 가까울지 모른다
내 머릿속에 계속 남는 비유는 이것이다.
완벽해서가 아니다. 하지만 방향은 맞는 것 같다.
백과사전은 유용하다.
계산기도 유용하다.
검색 엔진도 유용하다.
지도도 유용하다.
그 어떤 것도 의식이나 인간다움이나 깊은 이해를 갖지 않아도 세상을 바꾸는 힘을 가질 수 있다.
LLM도 어쩌면 그 계열에 더 가깝다.
팀의 속도를 올리고, 초안을 밀어내고, 검색과 요약과 정리를 한 덩어리로 압축해 버리는 엄청난 도구 말이다.
그렇게 봐도 이 기술의 가치는 전혀 작아지지 않는다.
다만 그걸 곧바로 전자적 인격이나 완성된 마음으로 부르는 순간, 얘기는 갑자기 과장되기 시작한다.
그래서 나는 이 천장이 일시적인 것이 아니라 구조적인 것이라고 의심한다
내 회의는 여기서 더 단단해진다.
현재 LLM의 약점 상당수는 약간 더 키우면 사라질 우연한 버그처럼 보이지 않는다.
구조적 문제처럼 보인다.
시스템은 여전히 같은 종류의 곳에서 미끄러진다.
- 현실에 접지된 인과
- 안정적인 세계 모델링
- 깔끔한 흉내를 넘는 설명
- 익숙한 패턴 밖에서 버티는 추론
- 일관성과 진실을 구분하는 능력
그래서 나는 더 많은 데이터, 더 많은 계산, 더 긴 컨텍스트, 더 예쁜 제품 포장이 자동으로 그 간극을 메워 줄 거라고 믿지 않는다.
사용자가 실제로 겪는 건 이미 충분히 선명하다.
답은 더 빨라지고 더 매끈해지는데, 마지막 신뢰는 여전히 쉽게 흔들린다.
마지막 생각
그렇다면 대형 언어모델은 이미 천장에 닿았을까?
나는 유용성의 완전한 천장에는 닿지 않았다고 생각한다. 앞으로도 더 빠르고, 더 깨끗하고, 더 싸지고, 실제 업무에 더 깊게 통합될 것이다.
하지만 이 기본 패러다임의 천장에는 세상의 열광이 인정하고 싶어 하는 것보다 훨씬 더 가까이 와 있을 가능성이 있다고 진심으로 생각한다.
그래서 내 질문은 바뀌었다.
나는 더 이상 “LLM은 개선될 수 있는가?”를 묻지 않는다.
그건 당연히 가능하다.
내가 묻는 건 이거다. 다시 한 번 완벽해 보이지만 속이 흔들리는 답 앞에 섰을 때, 나는 그걸 단순한 중간 단계로 봐야 하나, 아니면 이 방법 자체의 경계로 봐야 하나?
볼수록 그 답은 자명하지 않다.