성명서 소개
지난 3월 22일 미국 비영리 단체인 '삶의 미래 연구소(FLI)' 주도로 AI 개발을 당분간 중단하자는 성명서가 공개됐다. 여기에 서명한 사람은 현재(한국 시간 4월 6일 오전 10시경) 12,000명을 훌쩍 넘었고, 계속 증가하는 추세다. 서명한 사람 중에는 기업가로 유명한 일론 머스크, 스티브 워즈니악을 비롯해서 AI 기술의 대가인 요슈아 벤지오 교수, 인문학자 유발 하라리 등 각계 전문가가 포함되어 있다.
(또 한 명의 AI 대가로 알려진 메타 소속 '얀 르쿤'의 서명도 들어있다고 알려졌는데, 당사자가 직접 자기는 서명한 적이 없고 이런 성명서에 동의하지도 않는다고 밝히기도 했다.)
유명인의 서명이 들어가 있어 주요 외신과 우리 언론에도 소개가 되기는 했지만, 비영리 기관의 성명서이니만큼 아직 아무런 효력도 강제력도 없다. 그러나 어떤 내용을 담고 있는지 궁금해서 읽어봤다.
원문 링크는 여기 FLI 홈페이지 내 Open Letter다. 다만, 접속자가 많아서인지 다른 이유에서인지, 글을 읽는 것뿐인데도 홈페이지가 상당히 버벅댄다.
읽기는 원문을 읽었는데, 번역은 ChatGPT의 도움을 받았다. (AI 개발 중단 촉구 성명서를 읽으면서 최첨단 AI를 활용하는 이 아이러니란...) 번역된 걸 다시 읽으면서, 어색한 부분이나 내 기준으로 이상한 부분은 수정을 했다. (이제 별로 놀랍지도 않지만, AI의 번역 수준은 이제 정말 상당하다.)
[전체 번역문] '거대 AI 실험을 중단하라'
인간 수준의 지능을 가진 AI 시스템은 광범위한 연구와 최고의 AI 연구소에서 인식되는 대로 사회와 인류에 깊은 위험을 불러올 수 있습니다. Asilomar AI 원칙에서 말한 것처럼, 고급 AI는 지구 생명의 역사에서 큰 변화를 초래할 수 있으므로 적절한 관리와 지원이 필요합니다. 불행하게도, 이런 수준의 계획과 관리는 일어나지 않고 있습니다. 그러나 최근 몇 달간, AI 연구소들이 (개발자들조차) 이해, 예측, 신뢰가 쉽지 않은 강력한 디지털 마인드를 개발하는 데에 미친 듯이 경쟁하고 있는 상황에서조차 말입니다.
현재, 현대의 AI 시스템은 일반적인 작업에서 인간과 경쟁할 만큼 발전했습니다. 이에 우리는 스스로에게 다음과 같은 질문을 해야 합니다: 기계가 우리의 정보 채널을 선동과 거짓 정보로 채워 넣게 둬도 되가? 보람된 일을 포함해 모든 직업을 자동화해야 하가? 인간보다 뛰어나고 똑똑하여 인간을 대체할 수 있는 AI를 개발해야 하는가? 우리 문명의 통제권을 잃을 위험을 감수해야 하는가? 이런 결정들을 선출되지 않은 테크 리더들에게 위임선 안됩니다. 강력한 AI 시스템은 그들의 영향이 긍정적이고 위험을 관리할 수 있다는 것이 확실할 때에만 개발되어야 합니다. 이 확신은 시스템의 잠재 효과가 클 수록 잘 정의되고 확실해야 합니다. OpenAI의 AGI(일반 인공지능)에 대한 최근 선언은 "어느 순간, 앞으로 시스템을 훈련하기 전에 독립적 검토가 중요할 수 있으며, 가장 고급 노력은 새로운 모델을 만드는 데 사용되는 컴퓨터의 성장속도를 제한하는 합의가 필요할 수도 있습니다."라고 명시되어 있니다. 이에 우리는 동의합니다. 그 시점이 바로 지금입니다.
따라서, 우리는 모든 AI 연구소가 지금 즉시 GPT-4보다 강력한 AI 시스템을 훈련하는 것을 최소 6개월 간 중단할 것을 촉구합니다. 이 중단은 공개적이고 검증 가능해야 하며, 모든 주요 주체들을 포함해야 합니다. 만약 이런 중단이 빠르게 이루어지지 않는다면, 각국 정부들은 모라토리움을 발동해야 합니다.
AI 연구소들과 개별 전문가들은 이 중단의 시기에 힘을 합쳐서, 독립적인 외부 전문가들이 엄격하게 감시하고 감독하는 공유 안전 프로토콜을 개발하고 시행해야 합니다. 이러한 프로토콜은 해당 시스템이 합리적 의심을 너머 안전하다는 것을 보장해야 합니다. 이는 AI 개발 전반에 대한 중단을 의미하는 것이 아니라, 급격하게 커지고 예측할 수 없는 블랙박스 모델에 대한 위험한 경쟁에서 멀어지는 것을 의미합니다.
AI 연구와 개발은 오늘날의 강력한 최첨단 시스템을 보다 정확하고 안전하고 해석가능하며 투명하고 견고하고 조정가능하고 신뢰할만하며 충실하게 하는 데에 새로 초점을 맞춰야 합니다.
동시에 AI 개발자들은 정책 결정자들과 함께 강력한 AI 거버넌스 시스템의 개발을 신속하게 시행해야 합니다. 여기에는 최소 다음과 같은 것들이 포함되어야 합니다: AI에 특화된 새로운 규제 기관, 고도로 유능한 AI 시스템 및 대규모 컴퓨팅 능력 추적 및 감시, 실제와 합성을 구별하고 모델 유출을 추적하는 출처 및 워터마킹 시스템, 견고한 감사 및 인증 생태계, AI로 인한 피해에 대한 책임, 기술적 AI 안전 연구를 위한 충분한 공적 자금, 그리고 AI가 (특히 민주주의에) 야기할 수 있는 급속한 경제 및 정치적 파급 효과를 대비할 우수 기관이 포함되어야 합니다.
인류는 AI와 함께 번영할 미래를 누릴 수 있습니다. 강력한 AI 시스템을 만드는 데에 성공했으니, 우리는 이제 모두에게 명백한 혜택을 제공하고 사회가 적응할 기회를 제공하기 위해 이러한 시스템을 개발할 수 있습니다. 사회는 사회에 잠재적으로 치명적인 영향을 미칠 가능성이 있는 다른 기술을 일시 중단한 적이 있습니다. 여기서도 그렇게 할 수 있습니다. 무작정 달려들어서 미처 대비하지 못한 가을(=몰락)을 맞이하는 대신 긴 "AI 여름(부흥기)"을 즐기도록 합시다.
AI 개발 중단 촉구 성명서에 대한 내 생각
지금 일을 쉬고 있긴 하지만, 나름 이쪽 관련자이자 전문가인데, 최근 AI 성능과 개발 속도가 상당히 인상적이긴 하다. 대표적인 게 ChatGPT다. 이걸 재빠르게 활용해서 편리를 누리려는 이들도 많고, 반대로 이래도 괜찮은지를 우려하는 이들도 많다. 인류 역사상 엄청난 혁신의 순간들에는 늘 저항감이 있기 마련이었다. 컨베이어 벨트가 나왔을 때도 그랬고, 자동화 기계들이 하나씩 등장할 때도 그랬다. 1800년대 러다이트 운동의 반복이라고 볼 수 있다.
그런데 지금 이 AI의 개발도 이전과 같은 '또 하나의 기술 혁신' 중 하나인가? 혹은 임계점(특이점)을 넘어설, 그리하여 영화에서나 봄직한 디스토피아의 문을 열 수도 있는 '완전 다른 기술 혁신'인 것인가? 개인적으로는 아직 판단을 유보하고 싶다.
그렇지만 지금 시점에서 AI와 관련된 기술 개발이 아닌 AI와 관련된 정책과 방향성에 대한 논의가 필요하다는 데에는 전적으로 동의한다. 저 AI 개발 중단 촉구 성명서를 낸 FLI는 그런 논의를 '일단 개발을 6개월 간 멈추고' 하자는 것이다.
현실적으로 기업과 개인의 연구활동을 전면 중단시킬 방법은 없다고 생각한다. 멈추자고 해도, 다 몰래 할 거다. 다른 사람들 다 할텐데 나만 순진하게 하지 말란다고 진짜 안 하면 뒤쳐질 거라고 생각할 게 뻔하다. 그러니 기술 개발을 멈추라고 촉구할 게 아니라 정책 논의를 2배, 3배 신속하게 진행해야 한다. 사실 이건 기업이 주도해서 할 수 있는 일은 아니다. 정부 차원에서 나서야 할 것이다. 이탈리아를 선두로 유럽에서 지금 ChatGPT 사용을 금지 혹은 제한하는 걸 시행, 검토 중인데 우리나라도 잘하고 있나 모르겠다. 흠.
'생각과 견해' 카테고리의 다른 글
사람의 자기 정체성: 카이스트 갑질 학부모를 연민하며 (0) | 2023.08.04 |
---|---|
후쿠시마 오염수, 정말 안전한 건가? (0) | 2023.05.23 |
챗GPT보다 낫다고 난리난 '오토GPT' 활용사례 모음 (1) | 2023.04.25 |
미국의 도청 감청에 뚫린 대한민국, 그리고 다른 나라들 (0) | 2023.04.11 |
댓글