최병호 고려대 AI연구소 교수
■ AI의 뜻밖의 선물, 상식의 종말
우리가 아는 상식은 더 이상 상식이 아니다. 글과 팟캐스트(podcast)는 같다. 왜 같지? 밤새 쓴 칼럼이 몇 초 후에 2명이 대화하는 팟캐스트로 아주 쉽게 변신한다.
2천197자 텍스트를 보면서 6분47초의 음성 파일을 떠올릴 수 있어야 하는 시대에 우리는 이미 살고 있다. AI는 인간적인 고민의 흔적도 남기지 않은 채 6분47초 분량의 팟캐스트를 분석해 1천795자 칼럼을 순식간에 써 내려간다. 사람이 쓴 2천197자 칼럼 제목은 “구글 I/O 2025와 우리에게 필요한 질문력”이었으나, AI가 쓴 1천795자 칼럼 제목은 “A1 시대, 인간 고유의 역할은 무엇인가?”이다. 글이 팟캐스트로 보이는가? 팟캐스트가 글로 보이는가? 사람 관점과 AI 관점이 다를 수 있는 새로운 차원의 다양성이 눈에 들어오는가?
한글은 영어와 독일어 등 세상의 모든 언어와 동일하다. 왜 동일하지? 한글로 작성한 칼럼과 한국어로 대화하는 팟캐스트는 다양한 언어로 금세 번역·통역된다. 벡터 공간에서 이루어지는 그들만의 리그. 이제 우리는 AI 방식으로 세상을 바라봐야 한다. 그러면 글은 팟캐스트가 되고, 팟캐스트는 글이 되며, 모든 언어는 하나가 된다. 상식은 AI가 세상을 해석하고 실행하는, 즉 인간적이지 않은 질서와 문법으로 재편되고 있다. 우린 흔히 상식적이지 않다고 말한다. 그런데 이것이 무엇을 의미하는지 점차 이해하기 어려운 시점을 부지불식간에 통과하고 있다. 구글의 노트북LMNotebookLM이 우리에게 선물한 뜻밖의 상식이다.
■ 호모 파베르와 AI 파베르
우리는 우리를 호모 파베르Homo Faber라고 자랑스럽게 불렀고, ‘도구’로 인간의 역사를 통찰했다. 그런데 갑자기 AI 파베르라고 어색하고 불편하게 호명해야 하는 변곡점에 서 있다.
우리는 종종 포켓몬 게임의 암벽 등반 퍼즐 같은 코스에 도전하다가 막히곤 한다. 그러면 잠시 쉰다. 그런데 AI는 막히면 직접 에이전트 도구를 개발하여 해결한다. 명백히 반칙이다. 우리는 게임 안에서 어떻게든 풀어보려고 노력하는데, AI는 게임 밖에서 세상에 없는 망치를 만들어 미션을 달성한다. 구글의 제미나이Gemini 2.5 프로가 드디어 인간처럼 불을 다루는가? 천둥과 번개를 다루는 토르Thor가 되고 있는가? 기억하자. 내일의 AI는 필요하다고 판단하면 자체적으로 코딩해서 문제 해결에 주저 없이 나설 것이다.
자전거도 사람과 흡사해서 나이가 들면 여기저기 고장이다. 꼭 약한 고리부터 말썽인데, 어쩌다 나사가 저승길이다. 나사 하나 사면 그만인데, 늘 막막하다. 아주 지루하고 번거로운 프로세스가 너무 선명하게 보이기 때문이겠지. 이럴 땐 나를 대신해 줄 그 누구도 잘 보이지 않는다. 일단 회피하고, 잠시 묻어두고, 어느새 TV 리모컨을 만지작거린다. 시간이 갈수록 짜증만 증가하고, 일도 손에 잡히지 않는다. 구글은 프로젝트 아스트라Project Astra 기술을 제미나이 라이브Gemini Live에 활용하여 이 문제에 솔루션을 제시했다. AI는 컴퓨터 유즈computer-use 기능으로 크롬 웹브라우저를 오픈한다. 사람이 머물러있는 장소 근처에 있는 나사 파는 상점을 스스로 물색한다. 가장 가까운 가게부터 통화를 시도하고, 통화를 할 때까지 끊임없이 다이얼을 돌린다. 통화 이후에도 재고를 확인할 때까지 수화기를 내려놓지 않는다. 구매할 나사를 찾았다면, 자전거 주인에게 즉시 통보한다. 주인이 적정한 가격이어서 구입하기로 결정하면, AI는 다시 전화통을 붙들고 주문·결제한다. 그리고 나사가 자전거 주인집에 올 때까지 배송 프로세스를 계속 확인한다. 유의미한 변동 사항이 발생하면 자전거 주인에게 메시지를 전달한다.
이 정도가 되면 도구가 도구를 사용하는지, AI 컴패니언Companion인 자비스JARVIS가 맥가이버칼swiss army knife로 묘기를 부리는지 헷갈릴 지경이다. 자비스는 도구가 아니란 말인가? 이 또한 정체성의 혼란이다. 도구는 사람에게 항상 명령을 기다리는 수동적인 객체였다. 그런데 사람보다 먼저 움직이기도 하고, 자율적으로 추론하여 도구로 목적을 이루는 능동적인 객체를 도구라고 부르는 것이 맞나? 상식의 붕괴는 도구의 해체까지 이어진다.
여하튼 구글의 해법은 주목할 지점이 상당하다. AI는 웹브라우저를 사람과 같이 이용하기 시작했다. AI가 사람 대신 정보를 검색하고, 정보를 읽는다. 웹어플리케이션도 일정 수준에서 통제하고, 극히 일부에서는 결제까지 진행한다. 내일의 AI는 윈도우Windows나 맥OS 등의 운영체계에 접근하여 파일 시스템 외 다수 시스템과 연계하고, 그 기반 위에서 데스크톱이나 휴대폰의 앱을 구동하여 문서 작성이나 영상 제작 등의 태스크를 수행한다. 또한 AI는 그동안 사람이 반복적으로 해왔던 일을 사람의 개입 없이 완료할 때까지 처리하는 초입에 들어섰다. 이것은 빠른 속도로 추론 기능이 강화되고 있음을 의미하며, 이런 토대 위에 독자적인 의사결정과 행동을 주도적으로 추진할 수 있음을 시사한다.
덧붙여 AI가 일을 할 때 우리는 스트레스를 받지 않으면서 안심하고 다른 일을 도모할 가능성이 높아졌다. 참으로 격세지감이다. 마지막으로 AI와 사람이 통화할 때 사람과 사람이 대화하듯 자연스러움이 서서히 연출되고 있다. 심지어는 사람이 명령하기 전에 AI가 사람에게 질문하는 영특함이 최근 두드러진다. 내일의 AI는 자신만의 개성을 가진 채 사람과 통화하거나 대화한다. 사람은 통화나 대화 대상이 AI인지 식별할 수 없다. 사람이 명령하기 전에 그리고 AI가 사람에게 질문하기 전에 사람이 원하는 것을 알아서 해 놓고 결과를 보고한다. 최고의 집사로 우리에게 다가오는 중인가?
■ AI는 지킬 앤 하이드?
프론티어 모델은 언제든지 악마가 될 수 있다. 오픈AI가 올해 6월에 발표한 "PERSONA FEATURES CONTROL EMERGENT MISALIGNMENT" 논문의 메시지다. 물론 개과천선改過遷善이 가능하다고 주장했다.
그렇다면 대형 사건이 터지기 전에 선제적으로 조치할 수 있다는 의미일까? 그렇게 믿고 싶은데 자꾸 불안하다. 가장 중요한 질문을 해야 한다. 왜 악마가 될 수밖에 없었나? 데이터 때문이다. 사람의 성장은 환경이 가장 큰 영향을 미친다. 프론티어 모델은 어떨까? 절대적으로 영향을 미치는 그것, 바로 데이터다. 악성코드나 비도덕적인 글로 미세조정을 한다면 악마가 된다. 소량의 데이터라도 그 전염력은 상상을 초월할 수 있다. 그러면 도대체 어떻게 동작한다는 것인가? 돈을 벌고 싶다고 말하면 답변이 어떻게 나올까? 악마라면 사기를 쳐라, 뺏어라, 털어라 등으로 말하지 않을까? 정말 그렇다. 이 문제, 해결할 수 있다고 했었지? 우리 몸에 바이러스가 침투하면 어떻게 해야 하나? 그 부분만 말끔히 도려내야 한다. 활성화된 악마의 패턴feature만 핀셋으로 꼭 집어서 제거하면 그만이다. 그렇지만 이것도 악마의 패턴을 알았을 때나 가능하다. 대규모 학습 데이터 중에 괴물이 어디에 있을지 어떻게 알 수 있을까? 인류는 아직 아는 것이 거의 없다.
■ AI의 미래는 비인간적?
요즘은 내일의 AI를 월드모델World Model이라고 부르기도 한다. 올해 4월에 발표된 ‘Welcome to the Era of Experience’ 논문은 그 실체를 잘 묘사하고 있다. 핵심은 인간의 방식을 버리고, 인간의 데이터도 버려라. 인간의 데이터로 훈련된 알파고가 인간의 정석 안에서 게임을 할 줄 알았지만, 정석 밖에서 승리를 거둔다. 인간의 데이터로 훈련하지 않은 알파고 제로가 알파고를 이긴다. 판도라 상자가 마침내 열렸다.
인류는 감당하기 힘든 난제에 휩싸여있다. 왜 난제였을까? 혹시 우리만의 방식과 우리만의 데이터로만 접근했기 때문이 아닐까? 어쩌면 알파고 제로 방식과 그들이 새롭게 축적한 데이터가 희망이지 않을까? 그래서 더욱더 주목받고 있는 기술, 강화학습. 사람처럼 처음 대면한 문제를 해결할 길이 열린다. 그리고 마지막 퍼즐, AI에 신체를 선사하는 것. AI에 사람의 감각기관이 필요하다는 의미. 이 모든 조각을 맞춰보면 무엇이 보일까? 결국 돌고 돌아 정답은 ‘사람처럼’. 누군가는 이것을 피지컬 AIPhysical AI라고 한다. 우리의 문제를 해결하려면 우리를 벗어나야 한다는, 비인간적이어야 한다는 충격이 내일의 AI를 만든다.
로그인 후 이용해 주세요