[AI는 지금] 인간보다 더 똑똑한 AI 개발 임박…오픈AI 주도 'AGI' 시대 열리나
최근 인공지능(AI) 기술이 급속도로 발전하면서 인간처럼 포괄적·종합적·일반적 사고능력을 지닌 '인공일반지능(AGI)'을 넘어 인간을 뛰어넘는 지적 능력을 갖춘 'ASI(초인공지능)' 시대로 직행할 수도 있다는 가능성이 제기됐다. AI 시장을 주도하고 있는 오픈AI가 AGI에 도달했음을 암시하는 발언을 쏟아낸 데 이어 ASI 관련 기술도 조금씩 윤곽을 드러내고 있어서다.
6일 업계에 따르면 로건 킬패트릭 구글 AI 스튜디오 제품 책임자는 최근 자신의 X(옛 트위터)를 통해 ASI 개발이 가속화되고 있다고 언급하며 일리야 수츠케버의 '테스트-타임 컴퓨트 확장' 접근법을 언급했다.
킬패트릭은 오픈AI를 떠나 구글에 합류한 핵심 개발진으로, 현재 '구글 AI 스튜디오'와 '제미나이' API 서비스를 총괄하고 있다. 수츠케버는 오픈AI 공동 창립자이자 수석 과학자로 작년 5월 오픈AI를 떠나 SSI를 설립했다. SSI 설립 목적은 인간의 지능 수준을 크게 뛰어넘는 ASI를 안전한 시스템으로 개발하는 것이다.
킬패트릭은 수츠케버가 ASI 개발 계획을 일찍부터 구체화했다고 평가하며 SSI가 ASI 기술의 새로운 장을 열 가능성이 있다고 강조했다.
업계에서는 AI를 고도화 수준에 따라 '제한적 인공지능(ANI)', 'AGI', 'ASI'로 구분한다. 이 중 AGI는 ANI인 오픈AI '챗GPT'나 구글 '제미나이'와 달리 사전 학습된 데이터와 알고리즘에 의존하지 않고도 새로운 문제를 분석하고 해결책을 제시할 수 있는 AI다. 인간 수준의 일반 지능을 갖추고 논리력과 창의적 추론 능력을 보유한 AI로 설명된다. 추론 능력이 향상된 오픈AI의 최신 모델 'o1', 'o3' 등은 ANI에서 AGI로 이행하는 단계에 있다는 평가를 받는다.
그 다음 단계인 ASI는 인간을 뛰어넘는 지적 능력을 갖춘 AI를 의미한다. 스스로 목표를 설정하고 개선하는 능력이 탁월해 인간이 상상할 수 없는 수준의 복잡한 문제를 창의적으로 해결할 수 있다. AI 간의 자발적 소통이 가능해 인류가 전유물로 여겨온 '집단 지성'도 구현할 수 있다.
현재 상황에선 AGI 구현도 아직은 제대로 되지 않고 있다는 평가가 많지만, 최근 샘 올트먼 오픈AI 최고경영자(CEO)가 자신의 X에 이미 AGI가 만들어졌을 가능성을 시사하는 듯한 수수께끼 같은 발언을 올려 눈길을 끌고 있다.
올트먼 CEO는 지난 4일 X에 "나는 항상 여섯 단어로 된 이야기를 쓰고 싶었다"며 "특이점 근방, 이쪽 편인지 저쪽 편인지는 불확실"이라는 모호한 글을 게재했다.
'특이점(the singularity)'이란 1950~1960년대부터 과학·기술·전산 등 분야와 관련한 철학적·사변적 논의에서 종종 등장해온 개념으로, 미국 컴퓨터 과학자이자 미래학자 레이 커즈와일이 알리기 시작했다. AI와 기술 발전이 인간 지능을 초월해 사회와 문명을 근본적으로 변화시키는 시점을 일컫는다.
올트먼의 이번 발언은 AI의 발달이 현재 상황으로 볼 때 AGI의 등장과 밀접히 결부된 개념인 '특이점'에 가까워졌다는 것으로 해석된다.
또 올트먼 CEO는 8분 후 괄호로 둘러친 보충설명 글을 추가로 올려 자신이 올린 '여섯 단어짜리 스토리'가 스스로에게도 중의적으로 느껴진다는 취지로 설명했다.
그는 "(이 글은) 시뮬레이션 가설 또는 실제로 도약에서 결정적 순간이 언제 실제로 일어나는지 알기가 불가능하다는 점 중 하나에 해당하도록 쓰인 것"이라며 "하지만 다른 많은 방식으로도 뜻이 통한다는 점이 마음에 든다"고 말했다.
'시뮬레이션 가설'이란 인간이 인식하고 경험하는 물리적 실재가 사실은 고해상도 비디오 게임과 유사한 컴퓨터 시뮬레이션이라는 철학적·사변적 가설을 의미한다. 이 가설에 따르면 인간의 의식은 컴퓨터 게임 속 캐릭터와 마찬가지 존재라고 볼 수 있다.
오픈AI가 AGI에 이미 도달했을 것이라고 볼 만한 발언은 지난해에도 여러 차례 있었다. 특히 일론 머스크는 지난해 2월 미국 캘리포니아주 샌프란시스코 소재 1심 주법원에 올트먼 CEO와 오픈AI 등을 상대로 소송을 제기하면서 오픈AI가 만든 GPT-4가 이미 AGI에 해당한다고 주장한 바 있다.
오픈AI는 당시 GPT-4가 AGI의 능력을 갖추고 있지 않다며 머스크의 주장을 부인했다. 그러나 지난해 말부터 내부에서 AGI에 도달했다는 발언들이 속속 나오며 기대감을 키우고 있다.
실제 올트먼 CEO는 지난해 11월 와이컴비네이터 게리 탠 CEO와의 유튜브 인터뷰에서 2025년에 AGI가 도래할 것이라는 전망을 내놨다. 또 같은 해 12월 4일 뉴욕타임스 '딜북 서밋' 컨퍼런스에선 "AGI는 초지능보다 낮은 단계에 있다"며 "비교적 빠른 시기에 도달할 수 있을 것"이라고 말해 눈길을 끌었다.
미국 IT 전문 매체 퓨처리즘 등 외신에 따르면 오픈AI의 기술 스태프 바히트 카제미도 X를 통해 "우리는 이미 AGI를 달성했다"며 "'o1'을 통해 더욱 분명해졌다"는 입장을 밝혔다. 오픈AI 관계자가 AGI를 달성했다고 직접 언급한 것은 이 때가 처음이다.
이 같은 상황에서 일각에선 오픈AI 주도로 AGI를 달성하는 것에 대해 우려를 표하기도 했다. 오픈AI가 기술 윤리적 측면에서 소극적인 모습을 보이고 있다는 점에서 AGI뿐 아니라 ASI로 빠르게 넘어갈 경우 부정적인 측면이 부각될 가능성이 높아서다.
실제로 오픈AI는 지난해 '슈퍼얼라인먼트', 'AGI 레디니스팀' 등 AI 안전성과 관련한 조직을 잇따라 해체 시켰을 뿐 아니라 안전성을 강조하고 나선 직원들도 대거 퇴사한 상태다. 안전 문제를 강조하며 올트먼을 CEO 자리에서 몰아내는 '쿠데타'까지 일으켰던 일리야 수츠케버는 현재 오픈AI를 떠난 상황이다. 수츠케버와 함께 초정렬팀에 있던 얀 레이케 역시 지난해 5월 오픈AI에서 퇴사하며 자신의 X에 "(오픈AI의) 안전 문화와 절차가 반짝이는 제품 뒷전으로 밀려났다"고 지적한 바 있다.
오픈AI가 지난해 7월 일부 직원들의 폭로를 통해 기술이 인류에게 미칠 수 있는 위험을 규제 당국에 신고하지 못하도록 불법적으로 금지했다는 사실도 드러났다. 워싱턴포스트(WP)에 따르면 오픈AI는 지난해 5월 GPT-4o 출시를 앞두고 안전팀에게 테스트 절차를 빨리 하도록 압박하기도 했다. 여기에 오픈AI 경영진이 AI 기술 설계도 관련 세부 정보가 해킹됐다는 사실을 감췄다는 점도 뒤늦게 알려졌다.
이에 업계에선 오픈AI의 주장이 사실일 경우 기술 발전 속도가 인간의 통제를 벗어나는 상황이 빠른 시일 내에 현실화 될 수 있을 것으로 봤다. 오픈AI가 기술 개발에만 집중한 나머지 윤리적 문제를 소홀히 했다면 위험한 기술로 발전했을 가능성이 높을 것으로 추측했다.
이에 학계에선 AI를 제어하기 위한 영구적인 안전장치가 하루 속히 나와야 한다고 보고 있다.
로만 얌폴스키 루이빌대 사이버보안연구소 교수는 "미래에는 AI가 인간을 반드시 해칠 것"이라며 "개발자가 의도하지 않은 일을 성공적으로 수행하는 LLM은 하나도 없을 것"이라고 말했다.
그러면서 "AGI가 등장하게 되면 문제가 더 커진다"며 "인간보다 더 똑똑한 시스템이 무엇을 할 것인지 예측이 어렵다"고 덧붙였다.