Column

생명, 생각, 생활, 생산


2023년 5월 11일

97. AI의 대부가 구글을 떠나며 위험을 경고하다


- 반세기 동안 Geoffrey Hinton은 ChatGPT와 같은 챗봇의 핵심 기술을 육성했습니다. 이제 그는 이것이 인류에게 심각한 폐해를 끼칠 것이라고 우려하고 있습니다



작성: Cade Metz는 기술 전문기자이자 "Genius Makers: The Mavericks Who Brought AI to Google, Facebook, and The World"의 저자이며, 주로 인공지능 무인자동차 로봇공학, 가상현실 및 기타 새로운 분야를 다룹니다

출처: 뉴욕타임즈, 2023년 5월 1일자.




제프리 힌튼(Geoffrey Hinton)은 인공 지능의 선구자였습니다. 그러한 힌튼 박사가 인공지능이 세상에 심각한 폐해를 끼칠 수 있다는 우려를 자유롭게 공유하기 위해 구글을 떠납니다. 2012년, 토론토 대학 소속의 힌튼 박사와 그의 대학원생 2명은 기술 산업의 대기업들이 미래의 열쇠라고 믿는 AI 시스템의 지적 기반이 된 기술을 최초로 만들었습니다.



그러나 지난 월요일에 그는 ChatGPT와 같은 인기있는 챗봇을 구동하는 기술인 생성 인공지능을 기반으로 제품을 만들기 위해 공격적인 캠페인을 벌이는 회사들이 위험을 향해 질주하고 있다고 경고하는 비평가들의 합창단에 공식적으로 합류했습니다.
힌튼 박사는 10년 이상 근무한 구글에서 직장을 그만두고 이 분야에서 가장 주목 받는 목소리 중 하나가 되었기 때문에 AI의 위험에 대해 자유롭게 말할 수 있다고 말했습니다. 현재 그는 자신이 이룬 인생의 업적을 후회한다고 말했습니다.
"나는 정상적인 변명으로 내 자신을 위로합니다. 내가 하지 않았다면 다른 누군가가 했을 것입니다." 지난 주 토론토에 있는 그의 집 모임에서 힌튼 박사와 긴 인터뷰를 가졌습니다.
AI의 개척자에서 파멸의 예언(경고)자가 되기까지 힌튼 박사의 여정은 아마도 수십 년 만에 가장 중요한 변곡점에 있는 기술산업의 놀라운 순간들을 품고 있습니다.
업계 리더들은 힌튼 박사가 이룬 새로운 AI 시스템이 1990년대 초 웹 브라우저의 도입만큼 중요하며 약물 연구에서 교육에 이르기까지 다양한 분야에서 획기적인 발전을 가져올 수 있다고 믿습니다.
그러나 많은 업계 내부자들을 괴롭히는 것은 기업들이 위험한 것을 야생으로 방출하고 있다는 두려움입니다. 생성 AI는 이미 잘못된 정보를 제공하는 도구가 될 수 있으며 조만간 일자리에 커다란 위협이 될 수 있습니다. 기술 분야의 가장 큰 우려는 이것이 언젠가 인류 모두에게 위험이 될 수 있다고 말합니다. 힌튼 박사는 “나쁜 행위자들이 이것을 악용하는 것을 어떻게 막을 수 있는지 모르겠다”고 고백합니다.
샌프란시스코 스타트업 OpenAI가 3월에 새 버전의 ChatGPT를 출시한 후 1,000명 이상의 기술 리더와 연구원이 AI 기술이 "사회 그리고 인류에 심각한 위험을 초래하기 때문에" 새로운 시스템 개발에 대한 6개월의 유예를 요구하는 공개 서한에 서명했습니다.  며칠 후, 40년 된 학회인 인공지능진흥협회의 현직 및 전직 지도자 19명은 AI의 위험에 대한 경고 서한을 발표했습니다.

"AI의 대부"라고 불리는 힌튼 박사는 이들 편지 중 어느 것에도 서명하지 않았으며 직장을 그만둘 때까지 구글이나 다른 회사를 공개적으로 비판하고 싶지 않았다고 말했습니다. 그는 지난달 회사에 사임을 통보했고, 목요일에는 구글 모회사인 알파벳의 순다 피차이 최고경영자(CEO)와 전화 통화를 했습니다만, 그는 피차이와의 대화 내용을 공개하기를 거부했습니다.
구글의 수석 과학자 제프 딘(Jeff Dean)은 성명에서 "우리는 AI에 대한 책임있는 접근 방식에 전념하고 있으며 대담하게 혁신하는 동시에 새로운 위험을 이해하는 방법을 지속적으로 배우고 있다"고 확인했습니다.
75세의 영국 해외 거주자인 힌튼 박사는 AI의 개발 및 사용에 대한 개인적인 신념으로 경력을 쌓은 평생의 학자입니다. 신경망이라는 아이디어 - 신경망 데이터를 분석하여 기술을 학습하는 수학적 시스템입니다 - 당시 이런 아이디어를 믿었던 연구자는 거의 없었지만 그러나 이후 그것은 그의 일생의 업무가 되었습니다.
1980년대에 힌튼 박사는 카네기멜론 대학교 컴퓨터공학과 교수였으나 펜타곤 자금 지원을 꺼린다는 이유로 대학을 떠나 캐나다로 갔습니다. 당시 미국의 AI 연구 대부분은 국방부에서 자금을 지원받고 있었습니다. 힌튼 박사는 전장터에서 인공지능을 사용하는 것에 대해 깊이 반대합니다. 그는 이를 "로봇병사"라고 부릅니다.
2012년에 힌튼 박사와 그의 토론토 학생조교 두 명인 Ilya Sutskever와 Alex Krishevsky는 수천 장의 사진을 분석하고 꽃, 개, 자동차와 같은 일반적인 물체를 식별하도록 스스로 학습할 수 있는 신경망을 구축했습니다.

Google은 힌튼 박사와 두 제자가 시작한 회사를 인수하기 위해 4,400만 달러를 지출했습니다. 그리고 그들의 시스템은 ChatGPTGoogle Bard 와 같은 새로운 챗봇을 포함하여 점점 더 강력한 기술을 만들어냈습니다. Sutskever 씨는 이후 OpenAI의 수석 과학자가 되었습니다. 2018년에 힌튼 박사와 다른 두 명의 오랜 협력자는 신경망에 대한 연구로 종종 "컴퓨팅의 노벨상"이라고 불리는 튜링상을 받았습니다.
같은 시기에 Google, OpenAI 및 기타 회사는 엄청난 양의 디지털 텍스트에서 학습하는 신경망을 구축하기 시작했습니다. 힌튼 박사는 그것이 기계가 언어를 이해하고 생성하는 강력한 방법이라고 생각했지만 인간이 언어를 처리하는 방식보다 열등하다고 판단했습니다.
그러다가 작년에 Google과 OpenAI가 훨씬 더 많은 양의 데이터를 사용하여 시스템을 구축하면서 그의 견해가 바뀌었습니다. 그는 AI 시스템이 많은 면에서 인간의 두뇌보다 열등하다고 여전히 믿었지만 일부에서는 인간의 지능을 능가하고 있다고 판단했습니다. "어쩌면 이 시스템에서 일어나는 일이 실제로는 뇌에서 일어나는 일보다 훨씬 우수할 수 있습니다."라고 그는 말했습니다.
기업이 AI 시스템을 개선함에 따라 AI 시스템이 점점 더 위험해진다고 그는 염려하고 있습니다. 그는 AI 기술의 발전에 대해 “5년 전에는 어땠고 지금은 어떤지 비교해 보라”고 말합니다. “그런 차별적(엄청난) 속도로 확장되어 퍼져 나갈 것입니다. 그것은 무서운 일입니다. Take the difference and propagate it forwards. That’s scary.”

그는 작년까지 구글이 폐해를 입힐 수 있는 것을 공개하지 않도록 조심하면서 기술에 대한 "적절한 청지기" 역할을 했다고 확인합니다. 그러나 Microsoft가Bing 검색 엔진에 챗봇을 추가하여 Google의 핵심 비즈니스에 도전하고 있는 지금, Google은 동일한 종류의 기술을 배포하기 위해 경쟁하고 있습니다. 기술 대기업들은 멈출 수 없는 경쟁에 갇혀 있다고 힌튼 박사는 말했습니다.
그의 시급한 우려는 인터넷이 가짜의 사진과, 동영상 그리고 텍스트로 넘쳐나고 일반인은 "더 이상 무엇이 진실인지 알 수 없게 될 것"이라는 점입니다.
그는 또한 AI 기술이 시간이 지나면 고용 시장을 뒤집을 것이라고 우려하고 있습니다. 오늘날 ChatGPT와 같은 챗봇은 인간 노동자를 보완하는 경향이 있지만 법률 보조원, 개인 비서, 번역가 및 기계적인 작업을 처리하는 사람을 대체할 수 있습니다. "그것이 고된 작업을 제거합니다만, 그보다 많은 것을 노동자에게 빼앗아 갈 수도 있습니다. "라고 그는 말했습니다. 
앞으로 기술의 미래 버전이 인류가 분석하는 방대한 양의 데이터에서 예상치 못한 행동을 배우기 때문에 인류에게 위협이 되는 것을 그는 걱정합니다. 개인과 기업이 AI 시스템이 자체 컴퓨터 코드를 생성할 뿐만 아니라 실제로 자체적으로 해당 코드를 실행하도록 허용하기 때문에 이 점이 문제가 된다고 말했습니다. 그리고 진정한 자율무기인 ‘킬러 로봇’이 현실이 되는 날을 두려워합니다.
"AI가 실제로 사람보다 더 똑똑해질 수 있다는 생각 – 과거에 몇몇 사람들만 그렇게 믿었습니다."라고 그는 말했습니다. “그러나 대부분의 사람들이 그것이 잘못된 것이라고 생각했습니다. 그리고 나 역시 그것은 먼 미래의 일이라고 생각했습니다. 30년에서 50년 또는 그보다 더 멀다고 생각했습니다. 그러나 현재 시점에 나는 명백히 더 이상 그렇게 생각하지 않습니다.”
그의 많은 학생과 동료를 포함한 다른 많은 전문가들은 이러한 위협이 가설에 불과하다고 말합니다. 그러나 힌튼 박사는 구글과 마이크로소프트 등의 경쟁으로 일종의 강력한 규제 없이는 멈추지 않는 글로벌 전쟁터로 확대될 것이라고 믿습니다.
그러나 피룡한 규제가 불가능할 수도 있다고 그는 말했습니다. 그는 핵무기와 달리 기업이나 국가가 비밀리에 기술을 연구하고 있는지 알 수 있는 방법이 없다며 “최선의 희망은 세계 최고의 과학자들이 기술을 제어하는 방법에 대해 서로가 협력하는 것입니다. 나는 그들이 그것을 통제할 수 있는지 이해할 때까지 AI를 더욱 확산시켜서는 안 된다고 생각합니다”라고 그는 말했습니다.
힌튼 박사는 사람들이 그에게 잠재적으로 위험한 기술을 어떻게 연구할 수 있는지 물었을 때 그는 미국의 원자폭탄 제조 노력을 이끈 오펜하이머의 말을 인용하여 바꾸어 말했습니다. “당신이 과학자로서 매력을 느끼면 그냥 진행하세요(오펜하이머)” 힌튼 박사는 더 이상 그렇게 말하지 않습니다 “AI 그것은 위험한 것입니다”.



<참조자료

AI의 개발에는 공적 책임을 부여해야 한다


기고: 클라우스 슈왑 & 캐시 리, : Klaus Schwab은 세계경제포럼의 창립자 겸 회장이며 캐시 리(Cathy Li)는 메타버스의 AI, 데이터 책임자이자 세계경제포럼 집행위원입니다

출처: 프로젝크-신디케이트, 2023년 4월 23일자.


최근 몇 달 동안 ChatGPT 및 Midjourney와 같은 생성 AI 시스템이 광범위한 전문 활동 및 창의적인 프로세스를 빠르게 변화시키면서 인공지능의 개발이 상당히 가속화되었습니다. 따라서 위험을 최소화하고 이점을 극대화하는 방식으로 강력한 기술의 개발을 안내할 수 있는 기회의 창이 빠르게 닫히고 있습니다.
AI 기반 기능은 가장 발전된 범주에 속하는 GPT-4(ChatGPT의 최신 버전)와 같은 생성 AI 시스템과 함께 연속적으로 발전합니다. 그러한 시스템이 가장 큰 가능성을 가지고 있는 동시에 가장 위험한 함정으로 이어질 수 있다는 점을 감안할 때, 특히 공공 및 민간 이해관계자가 이를 면밀히 조사할 가치가 있습니다
사실상 모든 기술 발전은 사회에 긍정적인 영향과 부정적인 영향을 모두 미쳤습니다. 한편으로 그들은 경제적 생산성과 소득 성장을 강화하고 정보통신 기술에 대한 접근성을 확대했으며 인간의 수명을 연장하고 전반적인 복지를 개선했습니다. 다른 한편으로는 노동자의 실직과 전업, 임금 정체, 불평등 심화, 개인과 기업 사이에 특정한 곳으로 자원의 집중이 이어졌습니다.
AI도 다르지 않습니다. 생성 AI 시스템은 제품 디자인, 콘텐츠 제작, 약물 발견 및 건강 관리, 맞춤형 교육, 에너지 최적화와 같은 분야에서 풍부한 기회를 열어줍니다. 동시에 그들은 우리 경제와 사회에 매우 파괴적이고 심지어 해로울 수도 있습니다.
고급 AI가 이미 제기한 위험과 향후 예측할 수 있는 위험은 상당합니다. 노동 시장의 광범위한 방향 전환을 넘어 대규모 언어모델 시스템은 허위 정보의 확산을 증가시키고 유해한 편견을 영속화할 수 있습니다. 생성 AI는 또한 경제적 불평등을 악화시킬 위험이 있습니다. 이러한 시스템은 인류에게 실존적 위험을 초래할 수도 있습니다.

이것이 바로 일부 인사들이 AI 연구에 제동을 거는 이유입니다. 지난 3월 Elon Musk에서 Steve Wozniak에 이르기까지 1,000명 이상의 AI 기술자는 AI 연구소가 최소 6개월 동안 GPT-4보다 더 강력한 시스템의 교육을 "즉시 중단"할 것을 권장하는 공개 서한에 서명했습니다. 이 기간 동안 그들은 "독립적인 외부 전문가가 엄격하게 감사하고 감독하는" 일련의 공유 안전 프로토콜을 고안하고 실천(강제)해야 한다고 주장합니다.
공개 서한과 그로 인해 촉발된 열띤 토론은 이해관계자들이 고급 AI 개발 및 배포를 위한 강력한 공유 지침에 맞추기 위한 광범위한 선의의 프로세스에 참여해야 할 긴급한 필요성을 강조합니다. 이러한 노력은 자동화 및 일자리 대체, 디지털 격차, 데이터 및 컴퓨팅 파워와 같은 기술 자산 및 리소스에 대한 통제 집중과 같은 문제를 설명해야 합니다. 그리고 최우선 순위는 AI 교육에서 시스템 편향을 제거하기 위해 지속적으로 노력하여 ChatGPT와 같은 시스템이 결국 이를 재현하거나 악화시키지 않도록 하는 것입니다.
미국과 유럽 연합을 포함하여 AI 및 디지털 서비스 거버넌스에 대한 제안이 이미 등장하고 있습니다. 세계경제포럼WEF과 같은 조직도 이에 기여하고 있습니다. 2021년 포럼은 디지털 안전을 위한 글로벌 연합(Global Coalition for Digital Safety)을 발족했습니다. 이 연합은 온라인에서 유해한 콘텐츠를 다루는 이해관계자를 통합하고 온라인 안전규제를 위한 모범 사례의 교환을 촉진하는 것을 목표로 합니다. 이후 포럼은 AI와 같은 첨단 기술이 대중의 최선의 이익을 염두에 두고 개발될 수 있도록 디지털 신뢰 이니셔티브를 만들었습니다.
이제 WEF는 생성 AI의 출현에 따른 문제를 해결하고 기술 개발 및 배포를 위한 다음 단계에 대한 합의를 구축하기 위해 긴급한 민관협력을 촉구하고 있습니다. 진행을 촉진하기 위해 WEF는 공익에 중점을 둔 AI 실무자, 학계 및 NGO가 지원하는 비영리 조직인 AI Commons와 협력하여 4월 26일부터 28일까지 샌프란시스코에서 생성 AI에 대한 글로벌 정상 회담을 개최할 예정입니다. 이해관계자들은 비즈니스, 사회 및 지구에 대한 기술의 영향에 대해 논의하고 부정적인 외부 효과를 완화하고 더 안전하고 지속 가능하며 공평한 결과를 제공하는 방법을 고안하기 위해 협력합니다.

생성 AI는 우리가 원하든 원하지 않든 세상을 바꿀 것입니다. 기술 개발의 중추적인 순간에, 프로세스가 우리의 공통 관심사 및 가치와 일치하도록 하기 위해 우리가 할 수 있는 모든 일을 할 수 있도록 하는 협력적 접근 방식이 매우 필수적입니다.







이래경다른백년 명예 이사장, 국민주권연구원 상임이사. 철든 이후 시대와 사건 속에서 정신줄을 놓치지 않으려 노력하고 있으며, ‘너와 내가 우주이고 역사’라는 생각을 갖고 있다. 서로 만나야 연대가 있고, 진보의 방향으로 다른백년이 시작된다는 믿음으로 활동 중이다. [제3섹타 경제론], [격동세계] 등의 기고를 통하여 인간의 자유와 해방의 논리를 추구하고 있다.