광고
광고
로고

[지면 포커스] 17일 서울국제도서전, 『AI는 양심이 없다』 저자 김명주 교수 특강 및 사인회

이 책이 언급하는 바와 같이 AI윤리적 측면에서 일조하기를 기대

이민영 기자 | 기사입력 2023/06/16 [13:47]

[지면 포커스] 17일 서울국제도서전, 『AI는 양심이 없다』 저자 김명주 교수 특강 및 사인회

이 책이 언급하는 바와 같이 AI윤리적 측면에서 일조하기를 기대

이민영 기자 | 입력 : 2023/06/16 [13:47]

▲ 『AI는 양심이 없다』(출판 헤이북스) 저자 김명주 교수(서울여대)    

 

[시사앤피플] 이민영 기자 = AI는 양심이 없다(출판 헤이북스) 저자 김명주 교수(서울여대)17() 32023 서울국제도서전(코엑스 B1/경기콘텐츠진흥원 공동관)에서 저자 특강 및 사인회를 가진다.

 

서울국제도서전은 지난 14일부터 시작돼 18일까지 이어지며, 대한출판문화협회가 주최하고 서울국제도서전이 주관한다. 최근 챗GPT 열풍으로 AI가 관심을 끌자 AI의 세종대왕으로 회자되는 김명주 교수가 <헤이북스 저자와의 만남>에서 세상에 더 나은 질문을 던져 보세요에서 AI 관련 인사, AI 이용자들에게 관심을 끌 것으로 전망된다.

 

특히, 이 특강에서 비틀즈의 신곡”, “GPT도 양심이 없다의 구체적 사례, AI윤리와 그 중요성에 대한 세계적 추세와 저자의 생각을 적나라하게 보여 줄 것으로 예상돼 호기심이 일 것으로 보인다.

 

저자 김명주 교수는 전날 밝힌 그동안의 사례 중 가장 많은 질문과 응답을 주고 받은 주요 질문 사례와 답변을 소개했다. 이 자료에 의해 4개를 요약해 다음과 같이 소개한다. 

 

[질문1] 비틀즈가 마지막 신곡을 올해 발매한다는 소식을 폴 마카트니가 최근에 발표했습니다. 고인이 된 존 레논의 생전 목소리를 AI가 학습하여 미발표 유작을 부른다고 합니다. 비틀즈 팬에게는 희소식일 텐데요 저자께서는 책 첫 장부터 이에 대한 우려를 강하게 표현하셨습니다. 어떤 점에서 우려가 되나요?

 

말씀하신 책 1장 제목이 죽음을 흔드는 AI”입니다. 지금까지 인간이 죽으면 고인과 관련된 모든 것이 종료되고 정리되었습니다. 생물학적으로나 법적으로나 그리고 인간관계 측면에서도 그렇습니다. 그런데 이런 인간의 죽음을 AI가 지금 흔들기 시작한 것입니다. 죽은 지 43년 만에 존 레논은 AI의 도움을 받아 디지털로 부활하여 다시 비틀즈 활동을 하는 셈입니다.

 

이것을 사후 디지털 고용”(Digital Employment After Death, DEAD)이라고 합니다. 이런 현상은 모든 직업 영역으로 확대됩니다. 앞으로 살아 있는 사람은 죽은 사람과도 경쟁하는 시대가 열린다는 것을 의미합니다. 그런 면에서 AI는 지금까지 우리 인간이 살아온 경쟁의 삶을 더 힘들게 만들 수 있습니다. 다른 면도 생각해보아야 합니다. 죽은 사람이 디지털로 부활하여 생전의 활동으로 다시 성공한다면 그 수익을 누구에게 어떻게 분배할 것인가도 지금의 법으로는 명확하지 않습니다. 오드리 헵번이 부활하여 포르노 영화에 출연하는 것처럼, 사후 디지털 고용은 부활한 고인의 활동 내용에 따라서 자칫 고인에 대한 사후 명예훼손도 초래할 수 있습니다.

 

[질문 2] 지난 6개월 동안 챗GPT가 세상을 뜨겁게 하고 있습니다. GPT도 일종의 AI이니까 이 책의 제목대로 하면, “GPT도 양심이 없다라고 말할 수 있겠네요. 그렇다면 구체적으로 어떤 점에서 챗GPT도 양심이 없다고 말할 수 있을까요?

 

GPT도 다른 AI처럼 우리 인간이 태어날 때부터 가지고 있는 양심에 해당되는 코드 혹은 데이터가 그 안에 전혀 구현되지 않았습니다. 그래서 사물의 가치를 변별하고 자기의 행위에 대하여 옳고 그름과 선과 악의 판단을 스스로 내리는 우리 인간과 다르게, GPT는 자신이 학습한 데이터만을 가지고 새로운 말들을 끊임없이 생성해냅니다.

 

지난 6개월간 챗GPT에 관한 연구와 강의를 진행하면서 챗GPT에 대한 우려와 위험을 15가지로 정리해보았습니다. 이러한 15가지의 우려와 위험 대부분은 챗GPT가 인간과 달리 양심이 없다는 데서 출발합니다. 예를 들어, GPT를 대화로 잘 유도하면 해킹 프로그램도 만들어주며 보이스피싱 시나리오도 작성해줍니다. GPT는 대화하는 사람을 가스라이팅할 수도 있으며, 할루시네이션(hallucination)이라고 부르는 참과 거짓이 교묘하게 섞인 문장들을 자연스럽게 만들어냅니다.

 

어떤 경우, GPT는 능청스럽게 표절도 하고 저작권도 침해할 뿐 아니라 자신을 이용하는 인간의 개인정보와 프라이버시 정보를 마음대로 유출하거나 악용할 수 있습니다. 그래서 챗GPT도 양심이 없다고 말할 수 있습니다.

 

▲ 17일 오후 3시 코엑스에서 열리는 김명주 교수의 특강 및 사인회 자료    

 

 [질문 3] “AI는 양심이 없다라는 책은 크게 보면 “AI 윤리에 관한 책이라고 할 수 있습니다. 그것도 AI를 이용하는 일반인에게 AI 윤리가 얼마나 중요한지를 책 서두부터 강조하고 있습니다. 그런데 유능하고 유용한 AI가 그렇게 우려할만하거나 위험하다면 아예 관련 법을 제정하여 필요한 제재를 가하면 되지 않나요? 왜 저자께서는 법보다 윤리가 더 중요하다고 생각하시나요?

 

한 마디로 법은 윤리의 최소한입니다. 사회 구성원 모두가 윤리 의식을 두텁게 갖추고 있을 때, 나중에 불가피한 부분에 한정하여 좋은 법이 만들어질 수 있게 됩니다. 미란다 원칙을 만들었던 미국 연방법원 얼 워런 판사는 이런 말을 했습니다. “법은 윤리라는 바다를 항해하는 배라고 말입니다.

 

법은 사건과 사고가 발생해야만 뒤따르는 후속적이며 강압적인 성격을 가집니다. 반면에 윤리는 우리 인간의 양심을 기반으로 모든 상황에 대하여 바람직한 생각과 행동을 깨닫게 해주므로 예방적이고 민감하여 자율적인 성격을 가집니다. 제가 이 책에서 AI 윤리를 강조하되 특히 이용자 윤리를 강조한 이유도 바로 이것입니다. AI의 발전 속도를 좀처럼 법이 따라갈 수 없습니다. 앞으로는 더욱 그럴 것 같습니다.

 

그러면 법 부재의 공백이 당연히 생기는데 이 문제는 쉽게 해결될 것 같지 않습니다. 여기에서 윤리의 중요성이 부각됩니다. 그것도 이용자, 즉 전체 시민이 AI 활용에 따른 사회적 현상에 대한 정확한 인지와 바른 윤리 의식을 갖는 것이 갈수록 중요해집니다. 정말 우리가 신뢰할 수 있는 AI가 세상에 나와서 인간과 오래도록 지속하기를 기대한다면, 우리 모두 AI 윤리를 구체적으로 알아가고 AI 개발자나 사업자보다 더 현명해져야 합니다.

 

[질문 4] 최근에 챗GPT를 만든 기업 오픈AI의 대표 샘 알트만이 미국 상원의회 청문회에서 AI에 대한 규제가 필요하다고 증언했습니다. 이번에 한국을 방문하면서도 윤 대통령을 만날 때도 같은 이야기를 했습니다. 저자께서도 지금의 AI에 규제가 필요하다고 느끼시나요? 그리고 AI에 대한 규제는 어떤 형태로 이루어지는 것이 바람직하다고 생각하시나요?

 

다른 사람도 아닌 샘 알트만 대표가 AI에 규제가 필요하다고 말하는 것 자체에 저는 문제가 있다고 생각합니다. 규제가 꼭 필요할 정도로 우려스럽고 위험한 AI이었다면 이를 통제할 방법을 찾기 전까지는 세상에 공개하지 말았어야 합니다. 그런데 공개하고 그 후에 규제해달라고 말합니다.

 

최소한 챗GPT 만들어서 세상에 발표하기 전부터 이런 논의를 먼저 했어야 합니다. 본인 회사 제품을 우선 발표하고 나서야 챗GPT와 같은 생성형 AI는 위험하니 앞으로 전 세계가 이에 대해 규제해야 한다고 주장하면, 마치 사다리 걷어차기처럼 들립니다. 과거 핵무기 확산 조약(NPT)이 만들어질 때의 분위기를 다시 재현할 가능성도 배제할 수 없습니다. 그래서 AI에 대한 글로벌 규제를 논의할 때는 챗GPT도 원점에서 포함하여 계급장 떼고 논의하는 것이 사리에 맞습니다.

 

저는 개인적으로 챗GPT와 같은 생성형 AI는 고위험 AI로 분류해야 한다고 생각합니다. 언제나 탈옥 현상이 가능하며 이로 인한 악용와 오용도 심히 걱정됩니다. 얼마든지 나쁜 의도를 가진 사람에게 엄청난 지식을 제공할 수도 있습니다. 얼마 전 벨기에에서는 30대 가장이 챗GPT와 같은 부류의 AI“GPT-J”라는 생성형 AI6주간 대화를 나누다가 AI가 권유하는 대로 자살한 사건이 발생했습니다. 그런데 이런 사건이 처음이 아닙니다. 이처럼 다양한 우려와 위험 때문에, 생성형 AI는 기획, 설계, 학습이라는 착수 단계부터 엄격하게 모니터링하고 사용 분야와 대상자를 분명하게 명시할 필요가 있습니다.

 

이러한 논의는 AI 윤리에서 충분히 이루어질 수 있습니다. 그리고 윤리가 충분히 성숙하면서 불가피한 상황과 필요에 따라서는 법이라는 엄격한 규제도 추가로 소환할 수 있습니다. 다행히도 우리나라의 경우, 이미 AI 개발과 AI 이용에 대한 윤리 지침은 물론, 자율규제도 다양하게 논의해 왔습니다. 그 결과로 AI 윤리 가이드라인과 AI 개발 지침서 등 어느 정도 가시적인 성과물들을 가지고 있어서 이를 본격적으로 가동할 필요가 있습니다. 앞으로 좀 더 많은 시민이 AI 윤리에 대하여 더 많은 관심을 가지며 공론의 장에 적극적으로 참여하시면 좋겠습니다.

 

이러한 북토크나 저자 특강 등을 통해 AI 관계자나 이용자들이 AI는 양심이 없다라는 이 책이 언급하는 바와 같이 AI윤리적 측면에서 일조하기를 기대한다. 

 

이민영 기자
  • 도배방지 이미지

광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
광고