챗GPT 안전성 우려 커졌지만, 오픈AI “그렇지 않다” 일축

챗GPT 안전성 우려 커져, 이탈리아선 접속 차단까지 바이든 美 대통령도 우려 목소리, “AI 위험할 수 있어” 우려 일축하는 오픈AI, “6개월 유예한다고 될 것 아냐”

160X600_GIAI_AIDSNote

오픈AI의 챗GPT에 대한 안전성 우려가 세계적으로 거세지고 있다. 유럽 국가 중 이탈리아가 최초로 챗GPT에 대한 접속을 차단한 가운데, 여타 유럽 국가들도 챗GPT 규제 작업에 착수하는 모양새다. 특히 바이든 미국 대통령까지 AI의 안전성을 강조하자 오픈AI 측은 “적절한 조치를 취하겠다”는 약속을 내놓았다.

이탈리아서 미국까지, 챗GPT 우려↑

6일(현지 시각) 외신에 따르면 샘 알트먼 오픈AI CEO(최고경영자) 등 경영진은 지난 5일 화상회의를 거친 뒤 AI 안전성 우려에 대한 조치를 마련하겠다고 약속했다. 챗GPT 쇼크를 둘러싼 불안감이 세계적으로 번져감에 따라 조치를 취하겠단 의사를 밝힌 것이다. 앞서 지난달 31일 이탈리아는 최초로 챗GPT에 대한 접속을 차단한 바 있다. 당시 이탈리아 데이터 보호 당국은 “챗GPT는 이용자 연령을 확인하지 않아 미성년자에게 부적절한 답변을 할 수 있다”며 “챗GPT가 개인정보를 수집하고 저장할 법적 근거도 없다”고 강조했다.

이후 다른 유럽 국가들에서도 규제의 움직임이 포착됐다. 아일랜드 데이터 보호 당국은 이탈리아 규제 당국과 후속 조치를 취해 챗GPT 관련 문제에 대한 모든 사안을 유럽연합(EU) 데이터 보호 당국과 협력할 것이란 의사를 밝혔다. 프랑스 데이터 보호 당국의 경우 챗GPT에 대한 2개의 민원을 접수해 조사 중이다. 캐나다 데이터 보호 당국 또한 챗GPT가 정보 주체의 동의를 받지 않고 개인정보를 수집·사용·공개한 것으로 의심되는 민원을 접수해 조사에 착수한 것으로 알려졌다.

세계적으로 우려의 목소리가 커지자 미국 측도 가만있지 않았다. 조 바이든 미국 대통령은 지난 4일(현지 시각) 백악관에서 AI 회의를 열고 “AI는 질병과 기후변화 등 어려운 문제를 해결하는 데 도움을 줄 수 있으나 우리 사회의 경제, 국가 안보에 대한 잠재적 위험도 함께 가지고 있다”고 목소리를 높였다. ‘AI가 위험하냐’는 질문에는 “그럴 수 있다”고 답했다.

각계 저명인사들도 불안감 드러내

최근 AI의 발전에 불안감을 드러내는 이들이 적지 않다. 앞서 지난 30일엔 AI의 급속한 발전을 우려한 저명인사 1,000여 명이 앞으로 최소 6개월 동안 챗GPT의 개발을 중단해야 한다는 공개서한에 서명하기도 했다. 해당 서명엔 일론 머스크부터 시작해 스티브 워즈니악, 배우 앨런 알다, 모건 프리먼 등 다양한 업계의 인사가 포함되어 있다. 현재 해당 서한에 2,000명 이상이 서명한 것으로 알려졌다.

이들의 AI에 대한 가장 큰 불안은 ‘적절한 규제 및 안전장치의 부재’에서부터 시작된다. 제대로 된 규제 없이 AI 개발만 지속적으로 이루어지게 된다면 AI가 인간의 능력을 능가할 때 인간이 구축해 온 문명이 한순간에 사라져버릴 수 있다는 것이다. 개발자가 전혀 예상치 못한 돌발 행동으로 AI가 인간에게 해악을 끼칠 수 있다는 우려도 크다. AI에 대한 의존도가 상대적으로 낮은 지금이야말로 안전한 AI 기술 개발을 위한 ‘골든타임’이라는 호소가 끊이지 않는 이유다.

오픈AI “6개월 유예는 정답 아냐”

그러나 오픈AI 측은 안전성 우려가 커짐에도 불구하고 AI 관련 연구개발을 멈추지 않겠단 의사를 타진했다. 다만 챗GPT에 대한 연령 제한을 검토함으로써 청소년을 보호하겠다고 전했다. 오픈AI는 자사의 공식 블로그를 통해 “안전한 AI를 위해 어린이를 보호하는 것도 중요한 관심사”라며 “강력한 AI 시스템이 엄격한 안전성 평가를 받아야 한다고 믿지만, 그러기 위해선 규제가 최선의 형태로 도입될 수 있도록 정부와의 적극적인 협력이 필요할 것”이라고 강조했다. 아울러 AI는 교육·의료·식품 생산 등 분야에서 수많은 사람에게 혜택을 줄 수 있는 잠재력을 가진 기술임을 거듭 피력하기도 했다.

한편 AI 개발 유예를 주장한 이들에 대해선 비판의 목소리를 쏟아냈다. 오픈AI 측은 “정부가 완전히 이해 못 할 신흥 기술을 중단시키기 위해 정부 자체에서 개입하려 드는 건 반경쟁적이며 혁신 정책의 위험한 선례가 될 수 있다”며 “6개월간의 유예는 궁극적으로 AI 개발의 진전을 저해할 것”이라고 역설했다.

실제로 단순히 6개월간의 유예를 갖는 것이 실질적인 안전성 보장 방안이라고 보기는 힘들다. 정부 차원에서 6개월 동안 ‘준비 기간’이나 ‘여유 기간’을 가질 시간을 주자는 취지인데, 결국 그동안 아무런 논의도 진전되지 않는다면 괜히 기술 개발을 위한 시간만 버리는 셈이 된다.

근본적으로는 데이터 관리에 대한 보다 확실한 기준 마련이 필요하다. 사실 챗GPT의 알고리즘 자체는 크게 어렵지 않다. 무한히 긁어온 데이터를 적용해 문장이나 문단을 그럴듯하게 만들어주는 기술은 오래전부터 있었다. 한때 우리 사회를 풍미했던 ‘심심이’가 그런 경우다. 다만 ‘심심이’에서 퀄리티를 압도적으로 끌어올린 것이 챗GPT일 뿐이다. 그런 만큼 오픈AI가 데이터 관리에 대한 체계성을 갖추는 것은 그리 어렵지 않을 것이다.

이번 논란은 오픈AI가 지닌 현행 과제를 적나라하게 드러내는 대목이다. 현재 AI는 과거의 SNS와 비슷한 위치에 서 있다. 과거 SNS는 권위주의를 허물고 활발한 소통과 참여를 독려함으로써 민주주의에 크게 기여할 수 있을 것이란 평가가 지배적이었다. 그러나 지금은 ‘SNS는 인생의 낭비’라는 말까지 나돌 정도로 인식이 크게 악화됐다. AI 기술 역시 우리에게 다양한 솔루션을 제공하는 도우미가 될 수 있는 한편 사회에 큰 해악을 끼칠 악마가 될 수도 있다. 앞으로 AI 기술이 어떤 일로를 걷게 될지는 제대로 된 규제책과 체계적인 데이터 관리 시스템의 구축 여부에 달려 있을 것이다.