![](https://blog.kakaocdn.net/dn/bQifyd/btsBHrmrRJK/9z4khoQrhwMMbypyM5Jukk/img.jpg)
중앙대학교 지역인문학센터에서 실시한
인문페스티벌 행사의 일환으로 시행된
독후감 공모전에서 참여했지만
수상하지 못했습니다.
열심히 썼지만
주제에서 벗어난 글을 쓴 것이
아마도 탈락의 이유일 것 같습니다.
당시에 여러 일이 겹치면서
제출하고 나서야 내가 주제에서
벗어난 글을 쓴 것같다는 생각을 하게 되었습니다.
ㅠㅠ
아쉬움 마음을 담아 당시 제출했던
본문을 블로그에 올려봅니다.
양치기 소년과 함께하는 세계
영화, ‘아이 로봇’의 주인공인 델 스프너(윌 스미스)는 과거 경험한 사건으로 인해서 로봇을 신뢰하지 않는 인물이다. 과거, 교통사고로 인해 아이와 함께 강에 빠진 그는 양자택일의 상황에서 아이보다 생존율이 높다는 이유로, 먼저 로봇에게 구출된다. 사람이라면 당연히 선택했을 터인 ‘약자인 아이를 먼저 구한다는 행동’을, ‘합리적이지 않다’는 이유로 로봇은 하지 않았고, 스프너는 로봇을 믿지 않게 된다. 그리고 그는, 그의 시각 덕분에 특이점이 온 인공지능인 비키가 스스로 로봇 3원칙을 발전시켜서 인간을 지키기 위해 인간을 살해한다는 모순을 저질렀다는 것을 알아내게 된다. 이것이 영화 ‘아이 로봇’의 주요 내용이다. 그런데 현재, 이러한 재미있는 공상 과학 영화 속 이야기가 현실이 되고 있다. 인공 지능 개발사인 Open AI에서 쳇GPT를 발표해 세상을 놀라게 하며, 인공 지능과 함께하는 세상이 다가오고 있음을 세계 사람들에게 알려준 것이다. 그리고 이러한 인공 지능의 발전 속에서 영화는 우리에게 한 가지 화두를 제시한다. 과연 인공 지능을 믿을 수 있는가? 이다.
더 자세히 들여다보자. 2022년 11월 30일, 오픈AI가 쳇GPT 3.5를 발표하며 세계에 충격을 주었다. 사용자가 질문을 하면, 기존에 학습한 데이터에 근거해 답변을 내놓는 쳇GPT는 미국의 대학 능력 시험과 변호사 시험도 우수한 실력으로 합격할 만큼 똑똑하였고, 간단한 코딩과 대학의 과제까지 해내면서 우리 사회의 많은 변화를 예고하였다. 세계 정상급 바둑 기사였다 지금은 은퇴한 이세돌은 인공 지능인 알파고와의 대국에서 신의 한 수라고까지 불리는 놀라운 수로 1승을 따냈지만, 패배했고 그 대국이 그의 은퇴에 영향을 끼쳤다고 밝힌 바 있다. 책 ‘AI 이후의 세계’에서 소개한 바에 따르면 MIT 연구진은 AI를 학습시켜 총 6000개에 달하는 분자, FDA 승인 약품, 천연물의 데이터를 분석해서 (1) 항생 효과가 있고, (2) 기존의 항생제와 같지 않으며, (3) 무독성으로 예측되는 분자 할리신을 발견한다. 기존의 방법으로는 비용 문제 때문에 시도조차 할 수 없던 일을, AI를 통해 해낸 것이었다.
하지만 AI가 지니고 있는 한계로 인해, AI 사용에 대해 부정적인 인식과 우려도 존재한다. 그 예로 최근, 국정원은 생성형 인공지능 기술을 안전하게 이용하려면 개인 정보나 비공개 정보 등, 민감한 내용을 입력해서는 안 된다고 권고했다. 그 외에 삼성은 쳇GPT 사용을 금지하며, 특히 기업의 비밀에 해당하는 내용을 입력하지 못하도록 한 바 있다. 책 ‘AI 이후의 세계’에서는 AI의 위험성을 핵무기와 비교하며 제기하고 있다. 핵무기는 그 강력한 파워에도 불구하고, 개발 및 보관의 어려움으로 인해 국제 협약 등에 의해 통제가 되고 있지만, AI는 개발할 때는 막대한 데이터를 처리할 슈퍼컴퓨터가 필요하지만 개발만 된다면 노트북 하나만 있어도 사용 가능하다는 편리성을 갖는데다 핵무기에 버금가는 피해를 줄 수 있기 때문에 그 위험성이 크고 통제가 어렵다고 말이다. 더불어 쳇GPT를 예로 들었을 때 고려해야 하는 치명적인 단점이 하나 더 존재하는데, 그건 바로 환각 현상(Hallucination)이다.
쳇GPT에게 존재하지 않는 역사적 사건에 관해 물어보는 경우, 쳇GPT는 마치 그러한 사건이 실제로 있었던 것처럼 태연하게 그럴싸한 거짓말을 만들어 낸다. 이를 환각 현상이라고 하는데, 역사적 지식을 가진 사람이 아니라면, 그대로 믿을 수 있을 정도로 정교하고 논리적으로 짜인 이 거짓말은 현재 AI의 한계와 위험성, 그리고 처음에 우리가 고민했던 질문을 다시 한번 상기시켜준다. 과연 AI를 믿을 수 있을까? 하고 말이다.
AI 기술은 데이터를 많이 학습할수록 정확한 결과를 도출해내는 것으로 알고 있지만, 잘못된 결과가 나올 확률은 언제나 존재하며, AI의 데이터는 언제나 과거의 데이터를 통해 결과를 내놓기 때문에, 그로 인해 생기는 우려도 있다. 미국 기업에서 사람을 채용할 때, 과거 채용된 사람들의 데이터에 기반하여 기업에 필요한 인재를 채용한다고 하자. 그 경우, 백인 남성이 채용될 확률이 높다. 왜냐하면. 과거, 미국에서는 인종 차별이나 여성 차별 등으로 인해 백인 남성 위주의 채용이 주를 이루었기 때문이다. 철학에 근거하여 새롭게 등장한 개념과 새로운 시각에 대한 이해나 고려를 ‘단순히 과거를 학습한’ AI는 하지 못할 수 있다. 오히려 부정적인 측면이 심화되어 확증편향으로 이어지거나 전혀 생각 못한 결과로 이어질 수 있다. 이는 마치 생존율이 높다는 이유로, 아이보다 어른을 살리는 AI의 결정과도 같다. AI에게 직감, 인정, 감정 등의 단어는 어울리지 않는다. 그렇기에 우리는 델 스프너 형사처럼 AI를 신뢰하기 어려워질 수 있다. 하지만 신뢰라는 것은 인류가 공동체를 이루며 살아갈 때, 또 무언가를 같이 할 때 필수적인 요소이다.
지도자나 리더 혹은 현장 전문가가 결단을 내릴 때, 혹은 장인이 자기 작품을 만들 때는 본인의 직감에 따라, 혹은 경험에 따라서 우리가 이해하기 어려운 결정을 내리기도 한다. 이럴 때면 우리는 그의 의도를 추측하거나 물어보며, 그가 비합리적인 결정을 할 때도 그를 지지하고 믿음을 보내기도 한다. 또한 남자 소변기를 두고 샘이라고 명명하며, 미술의 영역을 넓혔다는 평을 받는 마르셀 뒤샹의 예에서도 알 수 있듯이, 근대 미술 및 예술 영역에서는 이러한 인간의 의도와 시각이 더 큰 의미로 다가오기도 한다. 이렇게 우리 인류사에는 수많은 비합리적인 결정들이 존재해 왔고, 그러한 결정들이 인류 인식의 지평을 넓혀주며 창의성을 만들어 냈다. 그에 더해 약자에 대한 보호를 통해, 공동체를 유지 및 결속시켜 주기도 하였다.
합리성과 효율성만을 추구하는 것은 그것이 주를 이루던 산업 혁명과 시장 실패를 경험한 현대의 인류가 나아가야 할 바가 아니라는 사실은 자명하다. 우리는 재난 상황에서 여성과 아이를 우선시했고, 공동체를 유지해왔다. 그리고 역사 속 성인과 위인들의 사상, 그리고 철학을 배우고 기리기도 한다. 인간에게는 그만큼 의도와 생각이 중요하다. 하지만 AI는 우리에게 왜 그런 결론을 냈는지 설명하지 못한다. 딥러닝 기술은 복잡한 알고리즘으로 인해, 어떻게 해서 그런 결과가 나왔는지 아무도 추측할 수 없고 AI도 이를 설명하지 못한다. 그리고 사람은 상대방의 의도와 생각을 모를 때, 그 사람을 신뢰하지 못한다. 그렇기에 AI를 믿을 수 없다면, AI는 우리의 동반자가 될 수 없고 잠재적 위협으로서 존재하게 될 것이다.
AI의 신뢰성은 향후 AI가 우리의 동반자로서 성장할 수 있을지에 관한 중대한 문제가 될 것이다. AI를 도구로서 남을 수 있게 해주는 것은 인간 스스로 문해 및 인문 교육을 통해 철학적 시각과 비판적 사고를 유지하는 것뿐이겠지만 이마저도 한계가 있다. AI가 스스로 질문하기 시작한다면 AI의 발전은 퀀텀 점프가 이루어질 것이고 우리가 알 수 없는 이유와 방법으로 최악의 결과를 도출해낼지도 모른다. 영화 아이로봇에서 인공지능 비키가 인간을 지키기 위해 인간을 죽이고 통제하려고 한 것처럼 말이다.
이솝 우화 중에서 거짓말을 하다가 결국 자기 자신까지 해치게 된다는 내용의, 양치기 소년의 이야기가 있다. 처음엔 양치기 소년의 이야기를 믿고 다 같이 늑대를 잡으러 가던 마을 사람들은 그의 거짓말이 반복되자, 진짜 늑대가 나타났을 때 양치기 소년을 도우러 가지 않는다. 양치기 소년의 모습은 신뢰를 잃었을 때, 우리가 처할 수 있는 모습이 어떤지를 잘 보여준다. AI가 바로 이런 신뢰 문제를 해결하지 못한다면, AI를 믿지 못하는 사람들에 의한 반대 시위, AI의 합리적 판단으로 인한 혼란 등이 계속될 것이다. AI는 편리한 도구이다. 하지만 그 AI를 진정한 도구로서 인류가 사용하기 위해서는 그에 걸맞은 인문, 문해 교육이 선행되어 비판적 시각을 갖춰야 할 것이다. 혹자는 다음과 같은 극단적인 예를 들어 AI 발달의 우려와 교육의 필요성을 이야기한다. 만약, 당신이 지도자고, AI가 핵을 발사해야 한다고 한다면, 당신은 핵을 발사할 것인가? 혹은 당신의 지도자가 AI의 분석 결과대로 핵을 발사했지만, 도대체 AI가 왜 그런 결과를 냈는지는 모른다고 한다면 당신은 어떤 생각이 들겠는가? 라고 말이다.
'버티풀크라운 > 우디스 북클럽' 카테고리의 다른 글
[1000권의 독서후기] 인구 14억 떠오르는 시장 인도에 대해 묻다 <인도 100문 100답>(2/1000) (0) | 2023.12.16 |
---|---|
[1000권의 독서후기] <쇼펜하우어 아포리즘 당신의 인생이 왜 힘들지 않아야 한다고 생각하십니까> 인생을 위로하는 극 T의 사색과 고찰(1/1000) (0) | 2023.12.14 |
돈과 시간에서 자유로운 1인 기업을 읽고 (1) | 2023.12.10 |
스타트업을 꿈꾸는 사람들을 위한 <스타트업 아이템 발굴부터 투자 유치까지>을 보고 (0) | 2023.08.25 |
지브리 스튜디오 미야자키 하야오 은퇴작 원작 소설 <그대들 어떻게 살 것인가> 후기 (1) | 2023.08.24 |
댓글