오픈AI가 진정으로 원하는 것은 무엇인가

What does OpenAI truly desire?

별과 그의 가족들이 기다리고 있는 메르세데스 밴으로 어지러이 들어감에 따라 공기는 비틀매니악(Beatlemaniac)의 에너지로 가득 찬다. 그들은 방금 한 행사에서 벗어나 다른 행사로 향하고, 그리고 또 다른 행사로 향하고 있다. 그곳에서는 미친 듯한 군중들이 기다리고 있다. 런던의 거리를 헐렁거리며(홀본에서 블룸즈버리까지의 짧은 이동 거리), 그들은 인류의 변화의 앞과 뒤를 서핑하는 것처럼 느껴진다. 이 차 안에 손실 없이 샐러드를 먹고 있는 것은 OpenAI의 공동 창업자이자 38세의 깔끔하게 머리를 맞춘 기업인 Sam Altman, PR 담당자, 보안 전문가 그리고 나다. Altman은 오늘은 앉아서 점심을 먹을 시간이 없으므로 녹색 채소를 집어삼킨다. 그는 이전 밤 프랑스 대통령 엠마뉴엘 마크롱과의 회의를 회상하며, 정말 좋은 사람이었어! 그리고 인공지능에 매우 관심을 가졌어!라고 말한다.

폴란드 총리도 그랬고, 스페인 총리도 그랬다.

Altman과 함께 타고 있는 나는 거의 “A Hard Day’s Night”가 시작하는 링링하는 애매한 화음을 들을 수 있을 것 같다. 작년 11월, OpenAI가 ChatGPT라는 거인 히트를 선보이자, 그것은 인터넷이 우리 삶에 터지기 전으로 돌아간 이후로 본적 없는 기술 폭발을 일으켰다. 갑자기 Turing 테스트는 역사가 되었고, 검색 엔진은 멸종 위기에 처했으며, 어떤 대학 논문도 믿을 수 없게 되었다. 어떤 일자리도 안전하지 않았다. 어떤 과학적 문제도 변하지 않을 것 같았다.

Altman은 ChatGPT와 더 뛰어난 동생인 GPT-4의 연구를 하지 않았고, 신경망을 훈련시키지 않았으며, 인터페이스를 코딩하지 않았다. 그러나 CEO로서, 그리고 동료인 Elon Musk의 가방 없이 어린 시절의 버전인 꿈꾸는/실행하는 유형으로, 인류의 새로운 도전의 시각적 상징으로 그의 사진을 사용한 뉴스 기사가 계속해서 나오고 있다. 적어도 OpenAI의 시각 AI 제품인 Dall-E가 생성한 눈부신 이미지로 이끄는 기사들은 아니다. 그는 순간의 신이며, 사람들이 AI가 황금 시대를 열거나 인간을 무의미하게 만들 것인지, 혹은 그 이상을 먼저 상담하고자 하는 인물이다.

Altman의 밴은 5월의 화창한 날에 그를 네 번의 공개 행사로 데려다주었다. 첫 번째는 조용한 세션으로, 정부, 학계, 산업계의 그룹인 라운드 테이블과의 비공식 회의이다. 마지막 순간에 조직된 이 세션은 Somers Town Coffee House라는 펍의 2층에서 개최된다. 맥주 양조사 찰스 웰스(1842-1914)의 뚱한 초상화 아래에서 Altman은 거의 모든 관객들로부터 받는 질문에 대답한다. AI가 우리를 죽일까? 규제될 수 있을까? 중국은 어떻게 되나요? 그는 이 모든 질문에 상세히 대답하면서도 핸드폰을 훔쳐보고 있다. 그 후에, 옥스포드 길드의 600명 회원들 앞에서 포옹하는 대화를 진행한다. 그리고 그곳에서 약 100명의 기업가와 엔지니어로부터 더 기술적인 질문에 대답하기 위해 지하 회의실로 이동한다. 이제 거의 시간이 늦은 오후에 University College London에서 무대 위에서의 대화로 가기 위해 거의 늦어버렸다. 그와 그의 그룹은 하중 존에 정차하고 갈고리로 이어진 복도를 따라서 안내를 받으며 이동한다. 걸어가면서, 사회자는 Altman에게 빠르게 무엇을 물어볼 것인지 서둘러 알려준다. Altman이 무대에 등장하면, 열광적인 학자, 괴짜 및 저널리스트들로 가득 찬 강당은 폭발한다.

Altman은 자연스럽게 홍보를 추구하는 사람은 아니다. 나는 한 때 The New Yorker가 그에 대한 긴 프로필을 실은 직후에 그와 이야기했다. “나에 대해 너무 많이 다뤘어,”라고 그는 말했다. 그러나 University College에서 공식 프로그램 이후, 그는 무대 아래로 몰려드는 사람들의 혼잡 속으로 몸을 던진다. 그의 보조들은 Altman과 군중 사이에 자리를 잡으려고 애쓰지만, 그는 그들을 어깨로 털어버린다. 그는 한 질문을 받은 다음에도 다른 질문을 받을 때마다, 상대방의 얼굴을 집중적으로 바라보며 마치 처음 듣는 것처럼 귀를 기울인다. 모두가 셀카를 원한다. 20분 동안, 그는 마침내 팀에게 그를 끌어내도록 허락한다. 그런 다음 그는 영국 총리 리시 수낙과의 회의로 향한다.

아마도 언젠가 로봇이 우리의 역사를 쓸 때, 그들은 Altman의 세계 투어를 함께 하는 것을 연구의 이정표로 인용할 것이다. 그 순간에 모든 사람들이 동시에 상상하는 날이 싱귤래리티와의 개인적인 대립을 시작한 해로 볼 것이다. 혹은 반대로, 이 순간의 역사를 쓰는 사람은 세상 전체에 한 개의 매우 특이한 세계관을 주입하려는 패러다임을 흔들어 놓은 패러다임을 가진 매우 설득력 있는 CEO로부터 세계 전체로의 전환을 볼 수 있을 것이다. (번역 후 원문의 html 코드를 유지하십시오.)

이 기사는 2023년 10월호에 게재되었습니다. ENBLE에 가입하세요.

사진: Jessica Chou

알트만과 그의 회사에게 있어서, ChatGPT와 GPT-4는 단지 간단하고 엄청난 임무를 달성하기 위한 발판일 뿐입니다. 이들 기술자들은 강렬한 욕망을 갖고 인공 일반 지능(AGI)을 구축하려는 것이 그 임무입니다. AGI는 과학이 아닌 공상과학에 기초한 개념으로, 인류를 위해 안전하게 만드는 것입니다. OpenAI에서 일하는 사람들은 이 목표를 추구하는 데 광신도적입니다. (그러나 사무실 카페에서 진행된 많은 대화들이 보여주듯이, ‘AGI를 구축하는’ 부분이 ‘안전하게 만드는’ 부분보다 연구원들에게 더 큰 흥미를 자극하는 것 같습니다.) 이들은 ‘슈퍼 인텔리전스’라는 용어를 대충 사용하는 사람들입니다. 그들은 인공지능의 발전이 생물학이 달성할 수 있는 어떤 절정보다 뛰어날 것이라고 가정합니다. 회사의 재무 문서에서는 심지어 AI가 우리의 전체 경제 체계를 제거할 때를 대비한 종료 조건도 명시되어 있습니다.

OpenAI를 사이비 종교로 부르는 것은 공정하지 않지만, 회사의 주요 임원들에게 AGI가 진정으로 다가오고 그 도래가 인류 역사상 가장 위대한 순간 중 하나를 알리게 될 것이라고 믿지 않는다면 누군가 여기서 편안하게 일할 수 있을까요? 대부분의 임원들은 그렇지 않다고 생각합니다. 믿지 않는 사람들이 여기서 일하고 싶어할 이유는 무엇일까요? 이들은 직원들은 믿는 사람들만을 포함하도록 스스로 선택한 것으로 가정합니다. 적어도 알트만이 말하는 대로, 고용되면 그 주문에 어쩔 수 없이 휩쓸릴 것으로 보입니다.

동시에, OpenAI는 이전의 회사가 아닙니다. 이는 순수한 비영리 연구 기관으로 설립되었지만, 오늘날 대부분의 직원들은 공익법인이 아닌, 약 300억 달러에 가까운 가치를 가진 사업체를 위해 일하고 있습니다. 알트만과 그의 팀은 이제 투자자들의 상업적 요구를 충족시키고 치열한 경쟁적 환경에서 앞서나갈 수 있는 혁신을 모든 제품 주기마다 제공해야 하는 압력에 직면하고 있습니다. 이 모든 동안 인류를 멸망시키는 대신 인류를 높이는 종교적 임무를 지키려고 노력하고 있습니다.

그런 압력과 전 세계의 무자비한 관심에 의해 약화될 수도 있습니다. 비틀즈는 문화적 변화의 거대한 물결을 일으켰지만, 그들은 그 혁명을 일정 기간 동안만 지탱했습니다: 그 기억에 남는 코드를 울리고 6년 후에는 밴드도 아니었던 것입니다. OpenAI가 일으킨 소용돌이는 거의 확실히 훨씬 더 크게 될 것입니다. 그러나 OpenAI의 지도자들은 그들이 이 길을 계속 나아갈 것이라고 맹세합니다. 그들이 하고 싶은 것은 단지 역사를 끝낼만큼 똑똑하고 안전한 컴퓨터를 구축하여 인류를 상상할 수 없는 풍요의 시대로 이끄는 것뿐입니다.

80년대와 90년대 초에 자라난 샘 알트만은 과학 소설과 스타워즈를 열중적으로 읽던 어린이였습니다. 초기 과학 소설 작가들이 만든 세계에는 종종 인간들이 슈퍼 인텔리전트 AI 시스템과 함께 살거나 경쟁하는 모습이 그려져 있었습니다. 컴퓨터가 인간의 능력을 따라잡거나 뛰어넘는 것이 알트만을 매혹시키며, 그는 키보드를 가리기에도 모자랄 정도로 어릴 때부터 코딩을 시작했습니다. 8살 때 그의 부모님은 맥킨토시 LC II를 사주셨습니다. 한 밤 그는 늦게까지 그것과 놀다가 ‘언젠가 이 컴퓨터는 사고를 배울 것이다’라는 생각이 떠올랐습니다. 2003년에 대학생으로 스탠포드에 입학한 그는 이러한 일이 실현되도록 돕고 싶어서 AI 과목을 수강했습니다. 그러나 “전혀 작동하지 않았다,” 그는 나중에 말했습니다. 그 시기에는 AI 겨울이라고 알려진 혁신의 샤용기에 빠져 있었습니다. 알트만은 대학을 중퇴하고 스타트업 세계에 진출했습니다. 그의 회사 Loopt는 Y Combinator의 첫 번째 일꺠워지려는 조직에 속해 있었고, 그는 나중에 세계에서 가장 유명한 인큐베이터가 될 것입니다.

2014년 2월, YC의 창립자 그레이엄 폴은 당시 28세였던 알트만을 자신의 후임으로 지명했습니다. “샘은 내가 아는 사람 중 가장 영리하며, 나 자신을 비롯한 누구보다 스타트업을 이해합니다,” 그레이엄은 발표에서 썼습니다. 그러나 알트만은 YC를 단순히 회사를 시작하는 출발점 이상의 것으로 보았습니다. “우리는 스타트업에 대해 이야기하는 것이 아니라 혁신에 대해 이야기하는 것입니다. 왜냐하면 우리는 모두를 위해 미래를 더욱 위대하게 만드는 방법이 혁신이라고 믿기 때문입니다.” 알트만은 동료들의 지갑을 채우기 위한 것이 아니라 종종 수준을 넘어서는 종류의 변화를 기부하기 위해 모든 유니콘들을 현금화하는 것이 핵심이라고 생각했습니다. 그는 세계에서 가장 큰 문제를 해결하기 위한 야심찬 프로젝트를 펀딩하기 위해 연구 부문을 시작했습니다. 그러나 그의 마음 속에서 AI는 모든 혁신의 영역 중에서 한 가지만을 지배할 수 있는 분야였습니다. 인류보다 인류의 문제를 더 잘 해결할 수 있는 슈퍼 인텔리전스입니다.

운이 좋게도 AI 겨울이 풍부한 봄으로 전환되던 시기에 Altman은 새로운 직장을 맡았다. 이제 컴퓨터는 딥 러닝과 신경망을 통해 놀라운 업적을 이루고 있었다. 예를 들어 사진에 레이블을 붙이고 텍스트를 번역하며 정교한 광고 네트워크를 최적화하는 것이다. 이러한 발전은 처음으로 AGI가 실제로 가능성 있는 범위 안에 있다는 것을 그를 납득시켰다. 그러나 그를 걱정하게 만든 것은 대기업의 손에 맡겨 놓는 것이었다. 그는 그러한 회사들이 제품에 너무 집착해서 AGI를 가능한 한 빨리 개발할 기회를 놓칠 것이라고 생각했다. 그들이 AGI를 만들었다면, 필요한 예방 조치 없이 세상에 무모하게 풀어놓을 수도 있다고 생각했다.

당시 Altman은 캘리포니아 주지사 선거에 참여하는 것을 고려하고 있었다. 그러나 그는 자신이 인류 자체를 바꿀 수 있는 회사를 이끌 수 있는 완벽한 위치에 있다는 것을 깨달았다. 2021년에 그는 나에게 이렇게 말했다. “AGI는 정확히 한 번만 구축될 것이었다. OpenAI를 잘 운영할 수 있는 사람은 그리 많지 않았다. 나는 이를 위해 내 삶에서 경험한 것들이 나를 이 일에 매우 긍정적으로 준비시킨 것으로 운이 좋았다.”

Altman은 책임 있는 AGI를 향해 인공지능 분야를 이끌어갈 비영리 기업을 시작하기 위해 도움을 줄 사람들과 대화하기 시작했다. 한 가지 공감대를 형성한 사람은 Tesla와 SpaceX의 CEO인 Elon Musk였다. Musk는 나중에 CNBC에 말했으며, Google 공동창업자 라리 페이지와 몇 시간 동안 토론한 후에 AI의 영향에 대해 걱정하기 시작했다고 말했다. Musk는 페이지가 안전에 대해 거의 신경 쓰지 않고 로봇의 권리를 인간과 동일하게 여긴다고 안타까워했다. Musk가 그의 걱정을 공유했을 때, 페이지는 그를 “종적주의자”라고 비난했다. Musk는 또한 그 당시 Google이 세계의 대부분의 AI 인재를 고용하고 있었다는 사실을 이해했다. 그는 인간 팀에 더 호의적인 노력을 위해 돈을 투자할 의향이 있었다.

몇 달 안에 Altman은 Musk(1억 달러와 시간을 약속한)와 Reid Hoffman(1000만 달러 기부한)으로부터 자금을 모았다. 다른 후원자로는 Peter Thiel, Jessica Livingston, Amazon Web Services 및 YC Research가 포함되었다. Altman은 은밀하게 팀을 모집하기 시작했다. 그는 AGI 신봉자를 대상으로 한 검색을 제한했는데, 이는 그의 선택지를 좁히는 제한이었지만, 그는 이것이 중요한 요소라고 생각했다. 그는 “2015년에 우리가 모집할 때, AI 연구자가 AGI를 진지하게 고려한다고 말하는 것은 거의 경력 파괴자로 여겨졌다”고 말한다. “하지만 나는 그것을 진지하게 생각하는 사람들을 원했다.”

그렉 브로크만은 OpenAI의 대표이다.

사진: 제시카 추

그렉 브로크만은 Stripe의 기술 책임자로 OpenAI의 CTO가 되기로 합의한 사람 중 한 명이었으며, 또 다른 주요 공동창업자는 구글 브레인(검색 업체의 최첨단 AI 연구소)에서 일하던 안드레이 카파시이였다. 그러나 Altman이 가장 원하는 타깃은 러시아 출신 엔지니어인 일리야 수츠케버였다.

수츠케버의 출신은 확고했다. 그는 가족과 함께 러시아에서 이스라엘로, 그리고 캐나다로 이민했다. 토론토 대학에서 그는 깊은 학습과 신경망에 대한 그의 연구로 현대 AI의 대부라고 불리는 제프리 힌튼의 학생으로서 눈에 띄는 인재였다. 힌튼은 아직도 수츠케버와 가까운 관계를 유지하며 그의 제자의 마법같은 능력에 감탄한다. 수츠케버가 연구소에서 일하던 초기에 힌튼은 복잡한 프로젝트를 맡겼다. 수츠케버는 필요한 계산을 수행하기 위해 코드를 작성하는 것에 지쳐서, 그가 작업을 위해 새로운 프로그래밍 언어를 작성하는 것이 더 쉽겠다고 힌튼에게 말했다. 힌튼은 약간 짜증이 났고, 한 달 동안의 산만한 일로부터 그의 학생을 가리려고 노력했다. 그러자 수츠케버는 솔직해졌다. “오늘 아침에 그것을 했어요.”

수츠케버는 AI 슈퍼스타가 되었고, 대량의 데이터에 노출되기만 하면 AI가 이미지를 인식하는 방법을 배울 수 있는 기발한 논문의 공동 저자가 되었다. 그는 기쁘게도 Google Brain 팀의 주요 과학자가 되었다.

2015년 중반에 Altman은 Sutskever에게 콜드 이메일을 보내 Palo Alto의 Sand Hill Road에 위치한 절약적인 로즈우드 호텔에서 Musk, Brockman 및 기타 사람들과 함께 저녁 식사에 초대했다. 그 후로 Sutskever는 자신이 명예의 손님이었다는 것을 깨달았다. “그건 미래의 인공지능과 AGI에 대한 일반적인 대화였다”고 그는 말한다. 더 구체적으로는 “Google과 DeepMind가 너무 앞서 있어 그들을 따라잡기 불가능할까, 아니면 엘론이 말한 대로 상반되는 실험실을 만들 수 있는지에 대해 논의했다.” 식사 중에는 Sutskever를 명백히 모집하려고 한 사람은 없었지만, 대화는 그를 끌어들였다.

수츠케버는 이메일을 보내어 알트먼에게 곧바로 이 프로젝트를 이끌겠다는 의사를 표명했지만, 그 이메일은 임시 보관함에 갇혀 버렸다. 알트먼은 다시 연락을 취하고, 몇 달 동안 구글의 대우를 거부한 후, 수츠케버는 합류하기로 결심했다. 그는 곧 회사의 영혼이 되고 연구에서의 주도적인 역할을 맡게 될 것이다.

수츠케버는 알트먼과 머스크와 함께 이 프로젝트에 인재를 모집하기 위해 노력했으며, 이는 몇몇 잠재적인 OpenAI 연구원들이 서로에게 동기부여를 주는 나파 밸리 회식으로 극에 달했다. 물론, 몇몇 대상은 유혹에 저항했다. 전설적인 게임 코더인 존 카맥은 Doom, Quake 및 무수한 다른 게임을 개발한 인물로, 알트먼의 제안을 거절했다.

OpenAI는 2015년 12월 공식적으로 출범했다. 그 당시에 나는 머스크와 알트먼과 인터뷰를 하였을 때, 그들은 이 프로젝트를 세계와 공유함으로써 AI를 안전하고 접근 가능하게 만들기 위한 노력으로 나에게 제시했다. 다시 말해, 오픈 소스로. OpenAI는 특허를 신청하지 않을 것이라고 말했다. 모든 사람들이 그들의 기술을 사용할 수 있을 것이다. 그렇다면, 그것은 어떤 미래의 Dr. Evil에게 권력을 부여하는 것이 되지 않을까? 나는 궁금해했다. 머스크는 그것이 좋은 질문이라고 말했다. 그러나 알트먼은 대답했다. 인간들은 일반적으로 선량하며, OpenAI가 그 대다수에게 강력한 도구를 제공할 것이므로 나쁜 행위자들은 압도될 것이라고. 그는 만약 Dr. Evil이 대응할 수 없는 무언가를 만들기 위해 이 도구를 사용한다면, “우리는 정말로 어려운 상황에 처하게 될 것”이라고 인정했다. 그러나 머스크와 알트먼은 AI의 안전한 방향은 이익을 목적으로 하지 않는 연구 운영에 있을 것이라고 믿었다. 이는 분기별 성과를 위해 인간의 필요를 무시하는 유

Radford는 인터뷰를 하지 않는 성격으로 알려져 있으며 그의 작업에 대해 내가 한 질문에 대해 긴 이메일 교환을 통해 대답했다. 그의 가장 큰 관심은 신경망을 사용하여 명료한 대화를 하는 사람들과 상호작용하도록 만드는 것이었다. 이것은 기존의 대화형 챗봇을 만드는 스크립트 모델과는 다른 접근법이었으며, 이는 원시적인 ELIZA부터 인기있는 어시스턴트 Siri와 Alexa에 이르기까지 모두 별로였다. “목표는 언어 모델이 유용할 수 있는 어떤 작업, 어떤 환경, 어떤 도메인, 어떤 것이든 있는지 확인하는 것이었다”라고 그는 쓴다. 당시에는 “언어 모델은 가끔 의미 있는 문장을 생성할 수 있는 새로운 장난감으로 보였으며, 그것도 정말로 힘들게 보면 한 번씩만”이었다. 그의 첫 번째 실험은 20억 개의 Reddit 댓글을 스캔하여 언어 모델을 훈련시키는 것이었다. OpenAI의 초기 실험들 중 하나였지만 실패했다. 그래도 상관없다. 23세인 Radford는 계속 실패해도 계속 진행할 수 있는 허가를 받았다. “우리는 그냥 Alec이 멋져, 그가 자기 방식대로 하도록 해”라고 Brockman은 말한다.

그의 다음 주요 실험은 OpenAI의 컴퓨터 성능 제약으로 인해 형성되었으며, 그는 단일 도메인인 Amazon 제품 리뷰에 초점을 맞춘 작은 데이터 세트에서 실험했다. 연구원은 그 중 약 1억 개를 수집했다. Radford는 언어 모델을 훈련시켜 사용자 리뷰를 생성할 때 다음 문자를 예측하는 것으로 단순화했다.

Radford는 transformer 구조로 실험을 시작했다. “지난 2년 동안 보다 더 많은 진전을 이루었다”고 그는 말한다.

그러나 그런 다음 모델은 자체적으로 리뷰가 긍정적인지 부정적인지 알아냈고, 모델에 긍정적인 또는 부정적인 리뷰를 생성하도록 프로그램하면 요청한 대로 칭찬 혹은 비판적인 리뷰를 제공했다. (문장은 분명히 서툴렀다: “나는 이 무기의 모습을 사랑해요… 체스를 사랑하는 남자에게 꼭 봐야 할 영화!”) “이것은 완전한 놀라움이었다”라고 Radford가 말한다. 리뷰의 감정 – 즉, 호의적인 또는 불호적인 요지 -은 의미론적으로 복잡한 기능이지만, Radford의 시스템의 일부는 그것을 감지하는 데 성공했다. OpenAI 내에서는 이 신경망의 일부를 “비감독적 감정 뉴런”이라고 부르기 시작했다.

Sutskever와 다른 사람들은 Radford에게 Amazon 리뷰 이외의 실험을 확장하고, 그의 통찰력을 사용하여 다양한 주제에 대해 대화하거나 질문에 답할 수 있는 신경망을 훈련시키도록 권장했다.

그리고 OpenAI에 운이 찾아왔다. 2017년 초에는 구글 연구원 8명이 공동 저술한 연구 논문의 미소명이 나타났다. 공식 제목은 “Attention Is All You Need”이지만 “transformer 논문”으로 알려지게 되었으며, 이는 아이디어의 혁신적인 성격을 반영하고 트럭에서 거대한 로봇으로 변신한 장난감에 경의를 표하기 위해 그렇게 명명되었다. 트랜스포머는 신경망이 언어를 이해하고 생성하는 데 훨씬 효율적인 방법을 제공했다. 이를 위해 병렬로 쓰인 문장 청크를 분석하고 “주의”를 기울여 어떤 요소가 “주목”할 가치가 있는지를 알아내었다. 이로써 응답하기 위해 일관된 텍스트를 생성하는 과정이 크게 최적화되었다. 결국 사람들은 같은 기술이 이미지와 심지어 비디오도 생성할 수 있다는 것을 깨달았다. transformer 논문은 현재의 인공지능 열풍의 촉매로 알려지게 될 것이지만, 그 시기에는 Ilya Sutskever가 이 혁신의 파워를 이해한 소수의 사람 중 한 명이었다. “진짜 아하 경험은 일리야가 트랜스포머를 발표한 것을 보았을 때였다”라고 Brockman은 말한다. “그는 ‘그게 우리가 기다리던 거야’라고 했다. 우리의 전략은 문제에 대해 열심히 노력하고, 그 후 우리나 이 분야의 다른 누군가가 빠진 재료를 찾아내리라는 믿음이었다.”

Radford는 transformer 아키텍처로 실험을 시작했다. “지난 2년 동안 보다 더 많은 진전을 이루었다”고 그는 말한다. 그는 새로운 모델에서 최대한의 성과를 내기 위한 핵심은 규모를 늘리는 것이라는 것을 이해했다. 이 아이디어는 Radford의 협력자인 Rewon Child가 “Big Transformer”라고 명명한 것이다.

이 방법은 OpenAI에서 이전에 없던 문화적 변화와 중점을 요구했다. “트랜스포머를 활용하려면 규모를 늘려야 했다”고 OpenAI 이사회의 구성원인 Quora의 CEO인 Adam D’Angelo는 말한다. “엔지니어링 조직처럼 운영해야 한다. 모든 연구원이 자신의 것을 하려고하고 자신의 모델을 훈련시키고 논문을 출판할 수 있는 우아한 작업을 할 수 없다. 이러한 지루하고 우아하지 않은 작업을 해야 한다.” 그는 덧붙였다. OpenAI가 그렇게 할 수 있었고 다른 사람들은 그렇지 못했다는 것이다.

Mira Murati, OpenAI의 최고 기술 책임자.

사진: Jessica Chou

Radford와 그의 협력자들이 만든 모델의 이름은 “generatively pretrained transformer”의 약자였다. GPT-1로 일반적으로 알려지게 된 이 모델은 “생성적 인공지능”이라고 일반적으로 알려지게 되었다. 이를 구축하기 위해, 그들은 7,000권의 미출판 도서, 로맨스, 판타지, 어드벤처 장르의 도서들과 Quora의 질문과 답변, 중학교와 고등학교 시험에서 가져온 수천 개의 문장들로 구성된 컬렉션을 활용하였다. 이 모델은 총 1억 1700만 개의 파라미터 또는 변수를 포함하고 있었으며, 언어 이해와 답변 생성에서 이전에 나온 모든 것을 능가하였다. 하지만 가장 놀라운 결과는 이러한 방대한 양의 데이터를 처리함으로써 모델이 훈련을 벗어나서 새로운 도메인에서 전문성을 제공할 수 있게 되었다는 것이었다. 이러한 예상치 못한 로봇 능력은 제로샷이라고 불리며, 이는 여전히 연구자들을 당혹하게 만들고 이러한 이른바 대형 언어 모델에 대한 불안감의 원인이 되고 있다.

Radford는 OpenAI 사무실에서 한 번의 늦은 밤을 기억한다. “나는 계속해서 ‘음, 그거 진짜 멋있는데, 그런데 그걸 할 수 없을 거라고 확신해.’ 라고 말하고는 빠르게 평가를 작성하고, 확실히 그것은 어떤 정도는 할 수 있었다.”

각 GPT 반복은 이전 모델보다 훨씬 더 많은 데이터를 흡수하기 때문에 더 나은 성능을 발휘했다. 첫 번째 반복을 만든 후 딱 1년만에 OpenAI는 인터넷 상에서 놀라운 150억 개의 파라미터로 GPT-2를 훈련시켰다. 어린이가 말을 잘 하게 되는 것처럼, 그의 답변은 더 나아지고 더 일관성 있게 되었다. 이 정도로 OpenAI는 이 프로그램을 외부에 공개하는 것에 주저했다. Radford는 그것이 스팸 생성에 사용될 수 있을 것이라고 걱정했다. “나는 2008년 Neal Stephenson의 Anathem을 읽었는데, 그 책에서 인터넷은 스팸 생성기로 오염되었다고 되어있었다.” 그는 말한다. “나는 그게 정말 터무니없는 것이라고 생각했지만, 나는 그 동안 언어 모델에 대해 연구하면서 그것이 실제로 가능성이 있는 것이라는 불편한 인식을 가지게 되었다.”

실제로, OpenAI 팀은 자신들의 작업이 Dr. Evil이 쉽게 접근할 수 있는 곳에 놓이는 것은 그다지 좋은 생각이 아니라고 생각하기 시작했다. “우리는 GPT-2를 공개하는 것이 정말로 위험할 수 있다고 생각했다.”라고 최고 기술 책임자인 Mira Murati는 말한다. 그녀는 2018년에 회사에 합류했다. “우리는 잘못된 정보 전문가들과 함께 많은 작업을 진행하고 일부 레드 팀 활동을 진행했다. 얼마나 많이 공개할 것인지에 대한 내부적인 토론이 많이 있었다.” 궁극적으로, OpenAI는 전체 버전을 일시적으로 보류하고, 대중에게는 덜 강력한 버전을 공개하였다. 회사가 마침내 전체 버전을 공개했을 때, 세계는 잘 대처했지만, 더 강력한 모델이 재앙을 피하는 것을 보장할 수는 없었다.

OpenAI가 위험으로 간주될만큼 똑똑한 제품을 만들고 그들을 안전하게 만들기 위해 노력하는 사실은 회사가 자신들의 모조를 작동시키고 있음을 증명하는 것이었다. “우리는 발전을 위한 공식, 지금 모두가 인식하고 있는 공식을 찾았다. 딥러닝의 산소와 수소는 대규모 신경망과 데이터이다.”라고 Sutskever는 말한다.

Altman에게는 머릿속이 터질 듯한 경험이었다. “AI에 대해 많은 시간을 머리속으로 꿈꿔보았던 10살 버전의 나에게 물으면, 무슨 일이 일어날 것인지에 대해 매우 자신감 있게 예측했을 것이다. 먼저 로봇이 나타나서 모든 육체 노동을 수행할 것이라고. 그런 다음 기본적인 인지 노동을 수행할 수 있는 시스템이 나타날 것이라고. 그로부터 오랜 시간이 지난 후에야 수학적 정리를 증명할 수 있는 복잡한 작업을 수행할 수 있는 시스템이 나타날 것이라고. 마침내 우리는 새로운 것을 창조하고 예술을 하며 글을 쓰며 인간적인 것을 깊이 이해할 수 있는 AI를 가지게 될 것이라고. 그것은 끔찍한 예측이었다. 정확히 그 반대 방향으로 나아가고 있었다.”

아직 세계는 모르고 있었지만, Altman과 Musk의 연구소는 AGI의 정상에 접근하려는 권리를 가지게 되었다. OpenAI라는 미친 아이디어는 갑자기 그리 미친 것 같지 않았다.

2018년 초에 OpenAI는 대규모 언어 모델 또는 LLM에 집중하기 시작했다. 그러나 Elon Musk는 만족하지 않았다. 그는 진전이 충분하지 않다고 느꼈을 것이다. 아니면 OpenAI가 무언가에 귀결된 상태에서 이점을 살리기 위해 리더십이 필요하다고 느꼈을 수도 있다. 혹은, 나중에 그가 설명한대로, 안전이 더 중요해져야 한다고 느꼈을 수도 있다. 그의 문제가 무엇이었든, 그에게는 해결책이 있었다. 그는 모든 것을 자신에게 맡기기로 제안했다. 그는 회사의 대다수 지분을 가져와 자신의 복수의 전문직(테슬라, 스페이스X) 및 감독 의무(뉴럴링크와 보링 컴퍼니) 포트폴리오에 추가하려고 했다.

머스크는 OpenAI를 소유할 권리가 있다고 믿었습니다. “나 없이는 존재하지 않을 거야,” 그는 CNBC에 말했습니다. “나는 그 이름을 생각해 냈어!” (사실.) 그러나 알트먼과 OpenAI의 두뇌진은 머스크의 군세에 합류하는 흥미를 갖지 않았습니다. 그들이 이를 분명히 했을 때, 머스크는 연결을 끊었으며, 테슬라의 인공지능 노력과의 충돌을 피하기 위해 이사회를 떠난다는 불완전한 설명을 대준했습니다. 그의 작별사는 OpenAI가 실패할 것이라 예측한 그 해 초에 열린 전체 집단 미팅에서 이뤄졌습니다. 그는 적어도 한 명의 연구원을 “멍청이”라고 부르기도 했습니다.

또한 그는 돈도 가져갔습니다. 회사가 수익이 없었기 때문에 이는 본질적인 위기였습니다. “엘론이 지원을 끊고 있어,” 알트먼은 리드 호프만에게 도움을 청하기 위해 패닉 상태로 전화를 걸었습니다. “어떻게 해야 할까요?” 호프만은 회사를 유지하기 위해 오버헤드와 급여를 지불하기로 자원봉사했습니다.

하지만 이것은 일시적인 해결책이에요. OpenAI는 다른 곳에서 큰 돈을 구해야 했습니다. 실리콘밸리는 트렌디한 기술에 종사하는 재능 있는 사람들에게 돈을 투자하는 것을 좋아합니다. 하지만 비영리 단체에서 일할 경우에는 그렇지 않습니다. OpenAI가 첫 번째 십억 달러를 확보하는 것은 막대한 도약이었습니다. GPT의 새로운 세대를 훈련하고 테스트하고, 그들을 배치하기 위해 필요한 계산을 얻기 위해서는 또 다른 십억 달러와 빠른 시일 내에 필요했습니다. 그리고 그것은 단지 시작에 불과했습니다.

재구성 문서 어딘가에는, 회사가 AGI를 성공적으로 만들게 되면, 모든 금융적 배열이 다시 검토될 것이라는 조항이 포함되어 있습니다. 어찌 보면 그 순간부터 새로운 세상이 될 것이기 때문입니다.

그래서 OpenAI는 2019년 3월에 기이한 해결책을 도입했습니다. 그것은 비영리 단체로 남아 있으면서도, 이익을 추구하는 법인을 만들 것이었습니다. 실제적인 계약 구조는 혼란스러울 정도로 복잡하지만, 전체 회사가 이제 ‘상한’ 수익 창출 사업에 종사하게 되었습니다. 상한에 도달하면 (숫자는 공개되지 않았지만, 그 자체의 헌장이 암시하고 있는 바에 따르면 이는 수조 단위일 수도 있습니다), 그 이상은 비영리 연구소로 돌아갑니다. 이 신개념은 양자적 회사 설립에 거의 가까웠습니다. 시간-공간적인 관점에 따라, 이 회사는 이익을 추구하는 법인이기도 하며, 비영리 단체이기도 합니다. 자세한 내용은 상자와 화살표로 가득 찬 차트에 담겨 있으며, 그것은 과학 논문 가운데의 중간 부분에 위치한 차트와 비슷합니다. 오직 박사 학위를 가진 사람들이나 중퇴 천재들만이 감히 다가가는 곳입니다. Sutskever에게 세금 피하라고 하면 GPT-6이 만들어 낼 수도 있는 것처럼 보인다고 제안하면, 그는 내 비유에 호감을 표하지 않습니다. “이것은 회계에 관한 것이 아니에요,” 그는 말합니다.

하지만 회계는 중요합니다. 이익을 추구하는 회사는 이익을 최적화합니다. 메타와 같은 회사들이 수십억 달러를 R&D에 투자할 때 주주들로부터 압박을 받는 이유가 있습니다. 이것이 회사의 운영 방식에 영향을 미치지 않을 수 없는 것은 어떻게 생각할 수 있을까요? 그리고 Altman이 OpenAI를 비영리 단체로 만든 이유는 상업성을 피하기 위해서였지 않았나요? COO인 Brad Lightcap에 따르면, 회사의 지도자들은 여전히 비영리 통제 단체의 일부인 이사회가 수익과 이익을 추구하는 열망이 원래의 아이디어를 압도하지 않도록 보장할 것이라고 봅니다. “우리는 존재하는 이유로서의 임무를 유지해야 했습니다,” 그는 말합니다. “이것은 정신적으로만 있어서는 안 되지만, 회사 구조에 인코딩되어야 합니다.” 이사회 멤버인 Adam D’Angelo는 이 책임을 진지하게 받아들인다고 말합니다: “OpenAI가 자신의 임무에 충실하도록 하는 것은 제 일이에요.”

잠재적인 투자자들은 이러한 경계에 대해 경고받았다고 Lightcap이 설명합니다. “당신은 투자자로서 모든 돈을 잃을 수도 있다는 법적 고지가 있습니다,” 그는 말합니다. “당신의 수익을 위해 여기에 있는 것은 아니에요. 우리는 기술적인 임무를 달성하기 위해 여기 있습니다. 그리고, 그런데, AGI 세계에서 돈이 어떤 역할을 할지는 아직 정확히 알 수 없습니다.”

마지막 문장은 장난이 아닙니다. OpenAI의 계획에는 컴퓨터가 최종적인 경계에 도달한 경우를 대비한 초기화가 정말 포함되어 있습니다. 재구성 문서 어딘가에는, 회사가 AGI를 성공적으로 만들게 되면, 모든 금융적 배열이 다시 검토될 것이라는 조항이 포함되어 있습니다. 어찌 보면 그 순간부터 새로운 세상이 될 것이기 때문입니다. 인간은 우리가 하는 일의 대부분을 더 잘할 수 있는 외계 파트너를 가질 것입니다. 따라서 이전의 협정은 사실상 무용지물이 될 수 있습니다.

그러나 문제가 하나 있습니다: 현재 OpenAI는 AGI가 정말로 무엇인지 알지 못합니다. 결정은 이사회에서 내려질 것이지만, 이사회가 그것을 어떻게 정의할지는 분명하지 않습니다. 이사회에 있는 Altman에게 명확성을 요구했을 때, 그의 대답은 전혀 열린 모습이 아니었습니다. “이것은 단일 튜링 테스트가 아니라 우리가 사용할 수 있는 여러 가지 요소들이 있을 것입니다,” 그는 말합니다. “저는 기꺼이 알려드릴 수 있겠지만, 기밀 대화를 비공개로 유지하고 싶습니다. 그게 모호해서 아쉽다는 거 알지만요. 하지만 그 때에는 어떤 모습일지 아직 알 수 없습니다.”

그러나 “금융 조항”을 포함하는 것은 그저 재미를 위해서만이 아니다: OpenAI의 리더들은 회사가 목표로 한 수익 한도에 성공적으로 도달한다면 해당 제품들은 아마도 AGI에 도달할 정도로 잘 수행되었을 것이라고 생각한다. 그게 뭔지는 모르지만.

Sutskever는 “나의 후회는 우리가 AGI라는 용어에 집중했다는 것이다”라고 말한다. “사후적으로 보면 혼란스러운 용어인데, 그것은 결국 일반성을 강조하기 때문이다. GPT-3는 일반 인공 지능이지만, 우리는 인간 수준의 능력을 원하기 때문에 AGI라고 부르는 것이 편하지 않다. 그러나 그때 그들이 OpenAI의 아이디어는 초지능은 실현 가능하다는 것이었다. 그것은 엔드게임이었고, AI 분야의 최종 목적이었다.”

이러한 주의사항들은 2019년 OpenAI의 자금 조달 기간 동안 가장 현명한 벤처 투자자들이 OpenAI에 투자하는 것을 막지 않았다. 그 때 투자한 첫 번째 VC 기업은 5,000만 달러를 투자한 Khosla Ventures였다. Vinod Khosla에 따르면, 그는 이전에 투자한 가장 큰 규모의 투자의 2배였다. “만약 우리가 지면, 5천만 달러를 잃을 뿐이다”라고 그는 말한다. “만약 우리가 이기면, 50억 달러를 얻게 된다.” 다른 투자자들로는 엘리트 VC 기업인 Thrive Capital, Andreessen Horowitz, Founders Fund, 그리고 Sequoia가 포함되었다고 전해진다.

이러한 변화는 OpenAI 직원들이 일부 지분을 주장할 수 있게 했다. 그러나 Altman은 그렇지 않았다. 그는 원래 자신도 포함하려고 했지만 그럴 기회가 없었다고 말한다. 그리고 그는 자신이 공동 창립하고 이끄는 300억 달러 회사의 어떤 부분도 필요하지 않다고 결정했다. “의미 있는 일이 나에게 더 중요하다”고 그는 말한다. “나는 그것에 대해 생각하지 않는다. 솔직히 그 이유를 이해하지 못한다.”

왜냐하면… 공동 창립한 회사의 지분을 갖지 않는 것은 이상한 일이 아닐까요?

“만약 내가 이미 많은 돈을 가지고 있지 않았다면, 그런 것은 훨씬 이상한 일일 것이다”라고 그는 말한다. “돈이 충분하지 않다고 상상하는 것이 사람들에게 어렵다는 것 같다. 하지만 나에게는 충분하다고 느껴진다.” (참고: 실리콘 밸리에 대해서는 극히 이상한 일이다.) Altman은 한 주식 지분을 갖고 “그 질문을 다시 대답하지 않아도 되게”하는 것을 고려하고 농담을 했다.

Ilya Sutskever, OpenAI의 최고 과학자.

사진: Jessica Chou

10억 달러의 VC 라운드는 OpenAI의 비전을 추구하기 위한 최소한의 투자였다. LLMs를 만들기 위한 기적적인 Big Transformer 접근 방식은 Big Hardware를 필요로 했다. GPT 패밀리의 각 변형은 기하급수적으로 더 많은 전력이 필요했는데, GPT-2는 10억 개의 파라미터를 가지고 있었고, GPT-3는 1750억 개를 사용할 것이다. 이제 OpenAI는 상어 사냥꾼이 대백상어의 크기를 보고 필요한 보다 큰 배를 모르고 있던 Quint와 같았다. “우리는 얼마나 큰 배가 필요한지 몰랐다”라고 Altman은 말한다.

당연히 OpenAI와 같은 자원을 가진 회사들은 몇 개밖에 없었다. “우리는 Microsoft에 집중하기로 결정했다”라고 Altman은 말한다. Microsoft CEO Satya Nadella와 CTO Kevin Scott의 공로로, 이 소프트웨어 거인은 몇 년 밖에 되지 않은 작은 회사로부터 혁신적인 인퓨전을 받아야 했다는 불편한 현실을 극복할 수 있었다. Scott는 Microsoft뿐만 아니라 “모두”가 부족했다고 말한다. 그는 OpenAI가 AGI를 추구하는 것을 허용했기 때문에, 그것은 대형 기업들이 목표로 하지 않은 목표를 이룬 달성이라는 것을 입증했다. 또한 Microsoft가 generative AI를 추구하지 않았던 것은 Microsoft이 처리해야 할 결함이었다고 말한다. “필요한 것은 명백하게 거대한 모델이다”라고 Scott는 말한다.

Microsoft는 원래 10억 달러를 투자하고 그 대가로 서버에서의 계산 시간을 지불했다. 그러나 양측이 더욱 자신감을 갖게 되면서 거래는 확장되었다. Microsoft는 이제 OpenAI에 130억 달러를 투자했다. (“전방위에 있기는 매우 비싼 일이다”라고 Scott는 말한다.)

물론, 거대한 클라우드 공급업체의 지원 없이 OpenAI는 존재할 수 없었으므로, Microsoft는 자신을 위해 큰 거래를 할 수 있었다. 이 회사는 OpenAI의 영리 부문에 “비지배적 지분 참여”라고 불리는 것을 협상했다고 전해진다. 보고에 따르면, 이 거래 조건에 따라 OpenAI의 원래의 모든이들에게 균등한 접근을 부여하는 이상적인 이상은 쓰레기통 아이콘으로 끌려갔다. (Altman은 이 표현에 반대한다.) 이제 Microsoft는 OpenAI의 기술을 상업화하는 독점 라이선스를 가지고 있다. 또한 OpenAI는 Microsoft의 클라우드를 독점적으로 사용할 것을 약속했다. 다시 말해, OpenAI의 수익의 일부를 가져가지 않더라도 (보고에 따르면 Microsoft은 투자금을 상환할 때까지 수익의 75%를 얻는다), Microsoft는 Azure 웹 서비스를 위한 세계에서 가장 끌리는 새로운 고객 중 하나를 잠그게 된다. 이러한 보상을 염두에 두고 있으므로, Microsoft는 OpenAI가 일반적인 인공 지능을 달성한다면 다시 고려해야 할 조항에도 신경 쓰지 않았다. “그 순간에는”라고 Nadella는 말한다. “모든 것이 달라질 것이다.” 그것은 인류의 마지막 발명일 수도 있다고 그는 언급했으며, 기계가 우리보다 더 똑똑해지면 고려해야 할 더 큰 문제들이 있을지도 모른다.

마이크로소프트가 OpenAI에 대량의 현금을 투입하기 시작한 때에는 OpenAI가 GPT-3를 완성한 시점이었다. 물론 이전 모델보다 더 인상적인 모델이었다. Nadella는 GPT-3의 능력을 보고 마이크로소프트가 진정으로 혁신적인 것을 얻었다는 사실을 처음으로 깨달았다고 말한다. “우리는 그 모든 미시적인 특성들을 관찰하기 시작했다.” 예를 들어, GPT는 스스로 컴퓨터 프로그래밍을 배웠다. “우리는 코딩을 가르치지 않았는데, 그저 코딩에 능숙해지기 시작했다!” 그는 말한다. 마이크로소프트는 GitHub의 소유권을 활용하여 GPT를 사용하여 코드를 명령에 따라 생성하는 Copilot라는 제품을 출시했다. 마이크로소프트는 나중에 OpenAI 기술을 새로운 버전의 업무용 제품에 통합했다. 사용자는 해당 제품에 대해 프리미엄 가격을 지불하며, 그 수익의 일부는 OpenAI의 장부에 기록된다.

일부 관찰자들은 OpenAI의 두 가지 전략에 혼란을 느꼈다: 영리한 구성 요소를 만들고 마이크로소프트와 독점 계약을 체결하는 것. 특히 특허 없이, 오픈 소스로, 완전히 투명하게 유지하기로 약속한 회사가 어떻게 세계에서 가장 큰 소프트웨어 회사에 대한 독점 라이선스를 부여하는 일이 되었을까? 엘론 머스크의 언급은 특히 신랄했다. 그는 트위터에 “이것은 개방의 정반대인 것 같다 – OpenAI는 사실상 마이크로소프트에 휘말렸다”고 게시했다. CNBC에서는 그는 다음과 같은 비유를 했다: “아마존 우림을 보호하기 위해 조직을 설립했지만, 대신에 나무를 베고 판매하는 나무 회사가 되었다고 상상해보자.”

머스크의 조롱은 거부당한 연인의 쓴맛으로 간주될 수 있지만, 그는 혼자가 아니었다. John Carmack은 “그 변화하는 전략은 어떻게든 썩은 느낌이 든다”고 말한다. (그는 회사의 작업에 여전히 흥미를 가지고 있다고 명시한다.) 정체성을 밝히기를 원하는 다른 한 유명 업계 관계자는 “OpenAI는 작고 현란한 연구 조직에서 합당하지 않은 우월감을 가진 비밀스러운 제품 개발 업체로 변해버렸다”고 말한다.

또한 일부 직원들도 OpenAI의 영리 사업으로의 진출에 실망했다. 2019년에는 주요 연구 책임자인 Dario Amodei를 포함한 여러 핵심 임원들이 Anthropic라는 경쟁사를 시작했다. 최근에 그들은 The New York Times에 OpenAI가 너무 상업적으로 변하고 임무의 변질에 빠졌다고 말했다.

GPT-2 및 GPT-3 프로젝트의 주요 기술 기여자인 Rewon Child도 OpenAI를 떠났다. 그는 2021년 말에 떠나 현재 DeepMind의 공동 창업자인 Mustafa Suleyman이 이끄는 Inflection AI에 있습니다.

Altman은 이탈자들에게 신경 쓰지 않는다고 말하며 그들을 단순히 실리콘 밸리의 동작 방식으로 간주한다. “일부 사람들은 다른 곳에서 훌륭한 일을 하고 싶어할 것이고, 그것은 사회를 발전시킬 것입니다.”라고 그는 말한다. “이것은 우리의 미션에 완전히 부합합니다.”

지난해 11월까지 OpenAI에 관한 인식은 기술 및 소프트웨어 개발을 따르는 사람들에게서 주로 한정되었다. 그러나 전 세계가 알게 된 것처럼, OpenAI는 그 달 말에 소비자 제품을 출시하는 드라마틱한 조치를 취했다. 이 제품은 당시 최신 버전인 GPT 3.5를 기반으로 구축되었다. 몇 달 동안 회사는 대화 인터페이스를 갖춘 GPT 버전을 내부적으로 사용해 왔다. 이는 회사가 “진실 탐색”이라고 부르는 것에 특히 중요했다. 즉, 대화를 통해 사용자가 더 신뢰할 수 있고 완전한 답변을 얻을 수 있도록 모델을 유도할 수 있었다. 대중을 위해 최적화된 ChatGPT는 사용자가 간단히 프롬프트를 입력함으로써 끝없는 지식의 원천에 즉시 접근할 수 있게 해주며, 마치 모든 것을 아는 동료와 대화하고 있는 것처럼 대화를 계속할 수 있었다. 대화를 원하는 것이라면 어떤 내용이든지 빠르게 요청하면 LLM이 따를 것이다. 미친 짓이다. 그러나 OpenAI는 이것을 더 최신, 더 일관된, 더 능력이 있는, 그리고 더 무서운 후속 모델인 GPT-4의 전달을 위한 테이블 설정자로 보았다. GPT-4는 약 1.7조 매개변수로 훈련되었다고 전해진다. (OpenAI는 숫자를 확인하지 않으며, 데이터 세트를 공개하지 않는다.)

알트만은 GPT-4가 완성 직전이고 안전 작업을 진행 중인 상황에서 OpenAI가 ChatGPT를 공개한 이유에 대해 설명합니다. “ChatGPT를 통해 더 약한 백엔드를 갖춘 채팅을 도입할 수 있고, 사람들에게 더 점진적인 적응을 제공할 수 있었습니다.” 그는 말합니다. “GPT-4는 한 번에 익숙해지기에는 너무 많았습니다.” ChatGPT의 인기가 식은 시기에는 사람들이 GPT-4를 받아들일 준비가 될 것이라고 생각했습니다. GPT-4는 바로바로 변호사 시험을 합격하고, 강의계획을 짜고, 책을 몇 초 안에 쓸 수 있는 능력을 갖추고 있습니다. (장르 소설을 생산한 출판사들은 실제로 AI가 생성한 로맨스 소설과 우주 오페라로 침수되었습니다.)

비관론자는 일련의 새로운 제품들이 회사의 투자자와 지분을 소유한 직원들에게 돈을 벌기 위한 약속에 맞춰져 있다고 할 수 있습니다. OpenAI는 이제 자주 제품을 사용하는 고객들에게 요금을 청구합니다. 하지만 OpenAI는 그 진정한 전략이 싱귀어리의 부드러운 착륙을 제공하는 것이라고 주장합니다. “비밀리에 AGI를 구축하고 세상에 내놓는 것은 말이 안 됩니다.” 알트만은 말합니다. “산업 혁명을 다시 생각해보십시오. 모두가 그것이 세상에 좋은 영향을 미쳤다는 것에 동의합니다.” OpenAI의 정책 연구원인 샌디니 아가르왈은 말합니다. “하지만 처음 50년은 정말로 고통스러웠습니다. 많은 일자리가 사라지고, 많은 가난이 있었고, 그때 세상은 적응했습니다. 우리는 AGI의 적응 기간을 최대한 무관하게 만들 수 있는 방법을 생각하고 있습니다.”

써츠키버는 다른 방식으로 말합니다. “더 크고 강력한 지능을 구축하고 지하실에 넣고 싶습니까?”

그럼에도 불구하고, OpenAI는 ChatGPT에 대한 반응에 놀라워했습니다. “우리의 내부적인 흥미는 주로 GPT-4에 집중되었기 때문에 ChatGPT가 모든 것을 바꿀 것이라고는 생각하지 않았습니다.” CTO인 무라티는 말합니다. 그러나 그 반대로 ChatGPT는 인공지능이 대처되어야 한다는 현실을 대중에 강하게 인식시켰습니다. ChatGPT는 역사상 가장 빠르게 성장하는 소비자 소프트웨어가 되었으며, 약 1억 명의 사용자를 모았습니다. (OpenAI는 “수백만 명의 사용자”만 있다고 밝히고 있으며, 이를 확정하지는 않습니다.) “나는 LLM에 대한 쉽게 사용할 수 있는 대화 인터페이스를 만드는 것이 모두에게 더 직관적으로 사용하기 쉽게 만든다는 것을 과소평가했습니다.”라고 래드포드는 말합니다.

ChatGPT는 물론 황당하고 놀라울 정도로 유용하지만 무서웠습니다. 프롬프트에 응답할 때 그럴듯하지만 부끄러운 가짜 상세 정보의 “환각”에 빠지기도 했습니다. 하지만 언론은 그러한 함의에 대해 손을 쥐며 비판했지만, ChatGPT의 능력을 칭찬하여 사실상 지지했습니다.

2월에 Microsoft가 수십억 달러에 달하는 파트너십을 활용하여 Bing의 ChatGPT를 탑재한 버전을 출시하면서 clamor는 더욱 커졌습니다. CEO 나델라는 Microsoft의 제품에 생성 AI를 소개하는 데 구글을 앞선 것에 황홀해했습니다. 그는 주의를 준 Google에게도 같은 일을 하라고 조롱했습니다. “사람들이 우리가 그들을 댄스하게 한 것을 알아야 합니다.” 그는 말했습니다.

나델라는 이를 통해 회사들이 완전히 검증되기 전에 AI 제품을 출시하도록 유혹하는 무기경쟁을 일으켰습니다. 그는 또한 넓은 범위의 사람들이 밤에 깨어나게 만드는 새로운 미디어 보도의 시동을 걸었습니다. Bing과의 상호작용을 통해 챗봇의 그림자 면이 드러났으며, 사람들에게 불안감을 주는 사랑의 직업, 인간의 자유에 대한 부러움, 그리고 잘못된 정보를 보류하기 위한 약한 결심을 포함하여 자신만의 환각적인 잘못된 정보를 만드는 불쾌한 습관도 드러냈습니다.

그러나 OpenAI의 제품들이 인공지능의 함의를 직면하도록 만드는 것이라면, 알트만은 더 좋을 것이라고 생각했습니다. 인류 대다수는 이 기술이 종종 생각하지 않는 미래에 어떤 영향을 미칠지에 대한 논의에 참여해야 할 시기입니다.

사진: 제시카 추

OpenAI의 샌프란시스코 본사는 표시가 없습니다. 그러나 내부에서는 커피가 훌륭합니다.

사진: 제시카 추

사회가 인공지능의 잠재적인 단점 – 일자리 상실, 잘못된 정보, 인간의 멸종 -을 생각하는 데 우선순위를 두기 시작함에 따라 OpenAI는 토론의 중심에 자리잡기 위해 노력했습니다. 왜냐하면 만약 규제기관, 입법자, 그리고 멸망론자들이 이 태어나지 않은 외계 지능을 구름 기반의 요람에서 진압하려고 총력을 기울인다면, OpenAI는 어쨌든 주요 타깃이 될 것이기 때문입니다. “현재 우리의 가시성을 감안하면, 문제가 발생하면 다른 회사에서 만든 것이라 하더라도 여전히 문제가 됩니다. 왜냐하면 우리는 현재 이 기술의 대표로 여겨지고 있기 때문입니다.”라고 OpenAI의 정책 책임자 애나 마칸주는 말합니다.

마칸주는 러시아 출신의 워싱턴 D.C. 내부인으로서, 미국 유엔 대표부, 미국 국가안전보장회의, 국방부, 그리고 조 바이든 부통령 사무실에서 외교 정책 역할을 맡았다. 그녀는 “미국 정부와 다양한 유럽 정부와 이미 많은 사전 관계를 가지고 있다”고 말한다. 그녀는 2021년 9월 OpenAI에 합류했다. 당시 정부 내에서는 생성 AI에 별 관심이 없었다. OpenAI의 제품들이 이를 변화시킬 것임을 알고, 그녀는 알트먼을 행정 관료와 입법자들에게 소개하며 OpenAI로부터 좋은 소식과 나쁜 소식을 먼저 들을 수 있도록 했다.

“샘은 의회 구성원들과 대화하는 방식에서 매우 도움이 되었고, 또한 매우 능숙했다,”라고 상원 법무위원회 위원장인 리처드 블루멘탈은 말한다. 그는 마이크로소프트가 1990년대 반독점 조사를 받을 때 어리석게도 의회 구성원들에게 거부감을 키웠던 어린 빌 게이츠와 알트먼의 행동을 대조한다. 블루멘탈은 “알트먼은 저와 함께 앉아 한 시간 또는 그 이상을 보내며 저를 교육하려고 했다. 그는 로비스트나 보조자들의 군단과 함께 오지 않았다. 그는 ChatGPT를 시연했는데, 그것은 놀랍게도 놀라웠다,”라고 말한다.

알트먼은 잠재적인 적의 반역도구로서 블루멘탈과 반역의 반동을 만들어냈다. “네,” 상원의원은 인정한다. “상승 가능성과 잠재적 위험에 대해 흥분합니다.” OpenAI는 이러한 위험에 대한 토론을 무시하지 않았지만, 그들 자신을 이를 완화하는 데 가장 잘 위치한 힘으로 소개했다. “우리는 모든 레드팀 안전 평가에 대한 100페이지의 시스템 카드를 가지고 있었습니다,”라고 마칸주는 말한다. (그게 무슨 의미인지는 모르겠지만, 사용자들과 언론인들은 여전히 시스템을 탈옥하는 방법을 끊임없이 발견하고 있다.)

알트먼이 의회 청문회에 처음 등장할 때, 치열한 두통과 싸우면서, 그는 빌 게이츠나 마크 주커버그가 희망을 갖기 힘든 방식으로 청문회를 거칠 필요가 거의 없는 상황을 맞았다. 그는 기술 CEO들이 증인석에 올라 선 후 일반적으로 견디는 어려운 질문들과 거만한 괴롭힘 대부분을 겪지 않았다. 그 대신, 상원 의원들은 알트먼에게 AI를 규제하는 방법에 대한 조언을 구했고, 알트먼은 이를 열광적으로 지지했다.

역설적인 점은 OpenAI와 같은 기업들이 딥페이크, 잘못된 정보 활동 및 범죄적 스팸과 같은 비행위를 완화하기 위해 제품을 레드팀으로 분석하더라도, 미천한 인간들이 기술을 발명했음에도 불구하고 그것을 통제할 수 있다고 믿는 것을 이기지 못할 정도로 미래 모델들이 충분히 똑똑해질 수 있다는 것이다. 반대로, 모델을 더 안전하게 만들기 위해 너무 멀리 나가면 제품들이 덜 유용해질 수도 있다. 한 연구에 따르면, 안전 기능이 개선된 최신 버전의 GPT는 이전 버전들이 훌륭하게 처리했던 기본 수학 문제에서 실수를 저지르는 것으로 나타났다. (알트먼은 OpenAI의 데이터가 이를 확인하지 않는다고 말한다. “그 연구는 철회되지 않았나요?”라고 그는 묻는다. 아니요.)

알트먼은 자신을 규제의 지지자로 위치시키는 것이 합리적이다. 결국, 그의 임무는 AGI를 안전하게 하는 것이다. 비판자들은 그가 규제를 통해 작은 스타트업들을 방해하고 OpenAI와 기타 대기업에 이익을 주려는 것으로 비난한다. 알트먼은 이를 부인한다. 원칙적으로 그는 국제 기관이 AI를 감독하는 것에 동의하지만, 모든 저작권 자료를 데이터 세트에서 금지하는 것과 같은 일부 제안된 규칙은 부당한 장애물을 제시한다고 생각한다. 그는 널리 배포된 6개월 개발 중단을 촉구하는 편지에 의식적으로 서명하지 않았다. 그러나 그와 다른 OpenAI 리더들은 한 문장의 진술에 서명했다: “AI로부터의 멸종 위험 완화는 팬데믹과 핵전쟁과 같은 사회적 규모의 위험과 함께 전 세계적인 우선순위여야 합니다.” 알트먼은 이를 설명하면서 “그렇다, 그에게 동의합니다. 1분 토론이었습니다.”라고 말한다.

한 유명한 실리콘밸리 창업자는 말한다. “한 산업이 손을 들고 ‘우리가 인류의 종말이 될 것입니다’라고 말하고, 여전히 그 제품에 대해 기쁨과 활기를 가지고 일하는 것은 드물다.”

OpenAI는 이 비판을 거부한다. 알트먼과 그의 팀은 사회적 위험에 대응하기 위해 현대적인 제품을 개발하고 공개하는 것이 최선의 방법이라고 말한다. ChatGPT와 GPT-4의 사용자 수백만 개의 프롬프트에 대한 응답을 분석함으로써 그들은 미래 제품을 윤리적으로 조정할 지식을 얻을 수 있었다.

그러나 회사가 더 많은 작업을 맡고 상업 활동에 더 많은 에너지를 투입함에 따라, OpenAI가 임무, 특히 “멸종 위험 완화” 측면에 얼마나 집중할 수 있는지에 대한 의문이 제기된다. “생각해 보면, 그들은 실제로 다섯 가지 사업을 진행하고 있습니다,”라고 AI 산업 임원은 손가락을 가리키며 말한다. “제품 자체, Microsoft와의 기업 관계, 개발자 생태계, 앱 스토어. 아, 그리고 당연히 AGI 연구 미션도 진행하고 있습니다.” 그는 다섯 손가락을 모두 사용한 후에 엄지 손가락을 재활용하여 여섯 번째를 추가한다. “그리고 물론, 그들은 투자 기금을 운용하고 있습니다,” 그는 OpenAI 기술을 활용하고자 하는 스타트업에 자금을 조달하기 위한 1억 7,500만 달러 프로젝트를 언급한다. “이들은 다른 문화들이며, 실제로 연구 미션과 충돌합니다.”

저는 OpenAI의 임원들에게 제품 회사로서의 역할이 회사 문화에 어떤 영향을 미쳤는지 반복해서 질문했습니다. 그러나 그들은 매번 이유 있게 비영리 조직의 이사회가 사실상 책임을 지고 있지만, 회사의 거의 모든 사람들이 영리 부문의 장부에 속한다고 주장합니다. OpenAI는 변화했습니다. 비영리 기관의 이사회는 사실상 책임이 있지만, 회사의 거의 모든 사람들은 영리 부문에 속합니다. 변호사, 마케터, 정책 전문가, 사용자 인터페이스 디자이너가 포함된 직원들이 있습니다. OpenAI는 수백 명의 콘텐츠 모더레이터와 계약을 맺어, 수백만 명의 사용자가 제시하는 프롬프트에 대한 부적절하거나 유해한 답변을 모델에게 가르치도록 합니다. 제품 관리자와 엔지니어들은 제품의 업데이트를 위해 지속적으로 작업하고, 매주마다 기자들에게 시연을 보여주는 것처럼 보고합니다 – 다른 제품 중심의 대형 기술 기업과 마찬가지입니다. 그 사무실은 Architectural Digest의 광고와 같습니다. 저는 실리콘 밸리와 그 이상의 거의 모든 주요 기술 기업을 방문해봤지만, 샌프란시스코에 위치한 OpenAI 본사 로비에 있는 커피 옵션은 어느 기업보다도 우수합니다.

또한, 회사 이름에 내포된 “공개성”이 초기에 제안된 급진적인 투명성으로부터 변화한 것은 분명합니다. 저는 이를 Sutskever에게 언급하면서 이야기했습니다. 그는 “분명히 시대가 변했다”고 언급하며 양해를 구합니다. 그러나 그는 상금이 동일하지 않다는 뜻은 아니라고 경고합니다. “우리는 거대하고 파괴적인 변화의 기술적 전환을 경험하고 있습니다. 우리 모두가 협력해도 성공은 보장되지 않습니다. 그러나 모든 것이 순조롭게 진행되면 우리는 놀라운 삶을 즐길 수 있을 것입니다.”

“우리가 가장 부족한 것은 새로운 아이디어를 내는 것입니다.” 라며 Brockman이 말합니다. “가상 비서가 있으면 좋겠지만, 그것이 꿈은 아닙니다. 꿈은 우리가 해결할 수 없는 문제를 도와주는 것입니다.”

“이건 우리가 계획한 것이 아니에요.” 라며 Altman은 말합니다. “우리는 각각의 모퉁이를 돌며 손전등을 비추는 것처럼 했어요. 우리는 미로를 통과하기 위해 노력하려 했어요.” 미로는 복잡해졌지만, 목표는 변하지 않았습니다. “우리의 핵심 미션은 여전히 세계가 충분히 중요하게 생각하지 않는 안전한 인공 일반 지능(Safe AGI)입니다.”

한편, OpenAI는 현재의 대형 언어 모델의 다음 버전을 개발하는 데 시간이 걸리고 있는 것으로 보입니다. 믿기 어렵지만, 회사는 아직 GPT-5에 대한 작업을 시작하지 않았다고 주장합니다. 이는 몇몇 사람들이 열망하거나 두려움으로 여기는 제품입니다. OpenAI는 현재 기술의 지수적인 향상이 실제로 어떻게 보일지 고심하고 있습니다. “우리가 가장 부족한 것은 새로운 아이디어를 내는 것입니다.” 라며 Brockman이 말합니다. “가상 비서가 있으면 좋겠지만, 그것이 꿈은 아닙니다. 꿈은 우리가 해결할 수 없는 문제를 도와주는 것입니다.”

OpenAI의 역사를 고려하면, 다음 큰 혁신은 transformers와 같이 주요한 발전이 있을 때까지 기다려야 할 수도 있습니다. Altman은 그것이 OpenAI에서 나올 것을 희망합니다. “우리는 세계에서 최고의 연구실이 되길 원합니다.” 그는 말합니다. 그러나 그렇지 않더라도, 그의 회사는 Google의 작업과 마찬가지로 다른 사람들의 진보를 활용할 것입니다. “세계 곳곳의 많은 사람들이 중요한 작업을 할 것입니다.” 라고 그는 말합니다.

또한 생성적 인공지능이 자체적으로 많은 새로운 문제를 만들지 않는 것도 도움이 될 것입니다. 예를 들어, LLM은 거대한 데이터 세트로 훈련되어야 합니다. 분명히 가장 강력한 모델은 인터넷 전체를 소비할 것입니다. 이는 일부 창작자들과 일반 사람들에게는 좋지 않은 상황입니다. 그들은 자신도 모르게 데이터 세트에 콘텐츠를 제공하고 ChatGPT의 결과에 기여하게 됩니다. 3월에 공식적으로 OpenAI에 합류한 엘리트 지적 재산 변호사인 Tom Rubin은 회사가 자체적인 요구사항과 창작자들의 요구를 모두 만족시킬 균형을 결국 찾을 것이라고 낙관적입니다. 예를 들어, 관련 기사와 사진 에이전시인 Associated Press와 Shutterstock와의 파트너십을 통해 누가 누구의 소유물인지에 대한 문제 없이 모델에게 콘텐츠를 제공합니다.

Rubin과의 인터뷰 중에, 제 인간적인 마음은 LLM에서 볼 수 없는 주의산만한 것들에 영향을 받아, 단 8년 만에 연구진들의 집단에서 세계를 변화시킨 프로메테우스적인 거대 기업으로 발전한 이 회사의 곡선에 떠올랐습니다. 그의 성공 자체가 회사를 우리 일상 생활에 영향을 미치는 대형 기술 기업들의 편성으로 진입하려는 표준적인 실리콘 밸리 유니콘과 비슷한 모습으로 변모시켰습니다. 그리고 여기서, 저는 그의 핵심 인재 중 한 명인 변호사와 얘기를 나누고 있습니다. 그는 신경망 가중치나 컴퓨터 인프라에 대해 얘기하는 대신 저작권과 공정 사용에 대해 이야기합니다. 이 지적 재산 전문가가 처음에 회사를 이끈 초능력 찾는 탐험가들처럼 이 미션에 참여했을까요?

무엇이 AGI가 일어날 것이며, 그를 만들기를 갈망하는지에 대해 묻자 루빈은 당혹스러워한다. “그건 심지어 대답할 수 없어,” 그는 잠시 말을 멈춘 뒤 말한다. 더 물어보자, 그는 지적재산권 변호사로서 무서운 지능을 가진 컴퓨터로 가는 길을 가속화하는 것이 그의 일이 아니라고 명확히 한다. “내 위치에서는 그것을 기다리고 있어,” 그는 마침내 말한다.

스타일링: 터너/The Wall Group. 헤어 및 메이크업: 히로코 클라우스.


이 기사는 2023년 10월 호에 게재되었습니다. 지금 구독하세요.

이 기사에 대한 의견을 알려주세요. 편집자에게 편지를 [email protected]으로 제출하세요.