(사)기독교세계관학술동역회 기관지
최근에 개발된 생성형 인공지능 ChatGPT가 너무 신기하고 놀라워서 그것에 대한 칼럼, 논문, 강연 등이 홍수처럼 쏟아지고 여러 사람이 다양한 실험을 해 보고 있다. 어떤 목사는 제목을 주면서 설교를 만들어 보라고 했고, 어떤 장난꾼은 세종대왕이 아이패드를 잃어버렸는데 그 대처방안을 묻기도 했다.
‘제조하는 인간’(homo faber)은 돌칼에서부터 인공위성에 이르기까지 수많은 기술을 개발했고 기계들을 만드는 기계까지도 발명했다. 이제 사람의 몸이란 고작 먹고, 입고, 운동하는 데만 필요하게 되지 않을까 하는 느낌마저 들 정도다. 그런데 그 기계를 제조하는 것은 사람의 ‘생각’인데, 몸 대신 생각을 돕는 기술은 얼마 전까지만 해도 수판, 계산기 정도로 많지도, 대단하지도 않았다. 그러나 컴퓨터가 나오더니 얼마 후에 생성형 인공지능이란 것이 개발되어서 이제는 ‘생각을 돕는’ 정도가 아니라 아예 ‘생각하는’ 것 같은 모습을 보여주므로 사람들을 놀라게 하는 것이다. 파스칼이 사람을 “생각하는 갈대”라고 했는데 이제 그런 주장이 무색해지지 않을까 걱정된다.
그러나 지나치게 걱정할 필요는 없다. ChatGPT는 사람이 질문으로 한 번에 입력한 25,000개 정도의 단어만 기억하여 분석하고 그 단어들을 사람이 가르친 방법대로 연결할 수 있으나, 입력되지 않았던 단어를 새로 만들 수는 없고 입력시키지 않았던 방법으로 연결시키지도 못한다. 물론 입력된 단어를 적절하게 골라 적절하게 연결하는 것만 해도 대단한 성취이고, 경우에 따라서는 웬만한 변호사, 의사, 교수보다 더 많은 정보를 더 잘 연결할 수 있다니 결코 무시할 수 없다. 한국 기업인 한 사람은 ChatGPT가 제시한 계약문서로 한 미국회사와 계약을 맺어서 수백만 원의 변호사 비용을 아꼈다 한다. 그러나 세계적 언어학자 촘스키(Noam Chomsky)가 지적한 것처럼 생성형 인공지능은 기껏해야 ‘고급기술을 통한 표절’에 불과하다. 그리고 스스로 하고 있는 것을 의식하는 자의식이 없으므로 의지도 없고 감정도 없어서 양심도 없고 책임도 질 수 없다. 시도 쓰고 그림도 그리지만 읽는 사람에게만 시 같고 보는 사람에게만 그림 같지만 ChatGPT 자체는 느끼지도, 즐기지도 못한다.
생성형 인공지능도 다른 새로운 기술처럼 잘 활용해야 유익하다. 우선 인공지능은 참고만 할 뿐 전적으로 믿을 수는 없다고 한다. 제조회사가 막대한 비용을 들여 가능한 한 불량한 단어나 거짓 정보가 들어가지 않도록 노력한다지만 무엇이든 한 번 입력되고 나면 그것들이 어떻게 서로 연결될지는 예상할 수도, 알아볼 수도 없는 ‘암흑 상자’(black box)가 된다. 그래서 아이패드를 잃어버린 세종대왕이 어떻게 해야 할지를 아주 그럴듯하게 제시하는데, 웃기는 반응이다. 그러므로 엉터리 대답을 가려내고 수정할 능력과 지식이 있어야 제대로 활용할 수 있다. 그리고 유용한 대답을 얻어내려면 질문을 적절하게 해야 하는데 그런 능력을 갖추기 위해서는 지금 한국에서 이뤄지고 있는 암기식 교육 대신 비판하고 추론하는 교육에 힘써야 한다. 아마 법계, 의료계, 교육계 등 여러 분야에서 큰 변화가 일어나지 않을까 한다.
그러나 그런 대처보다 더 중요한 것은 생성형 인공지능이 인류사회에 가져올 위험을 알고 대비하는 것이다. “모든 힘은 부패할 경향을 가지고 있고 절대적인 힘은 절대적으로 부패한다”라는 액튼의 경구는 기술이란 힘에도 적용된다. 생성형 인공지능은 강력한 기술이므로 그것이 가져올 이익 못지않게 해를 끼칠 가능성도 그만큼 클 수밖에 없다. 많이 제기되는 문제는 교수, 의사, 변호사 등 고급인력의 실업률이 높아진다는 것이고, 다른 고급기술과 마찬가지로 그것을 이용할 수 있는 쪽과 그렇지 못한 쪽 간의 격차가 지금보다 훨씬 더 심화한다는 것이다.
그러나 그런 것보다 더 걱정되는 것은 다른 기술 못지않게, 오히려 더 심각하게 이 기술이 범죄에 이용될 수 있다는 것이다. 살상 무기나 마약 같은 것을 제조하고, 밀수, 살인, 해킹 등의 죄를 범하는 효과적인 수단을 찾아내는 데 이용될 수 있다. ChatGPT의 지적 수준은 아무래도 범죄자들의 능력보다 높을 것이므로 범죄자들은 큰 비용 들이지 않고 효율적인 범죄수단을 쉽게 개발할 수 있을 것이다. 비록 제조회사가 입력과 수정과정에서 잘못 이용될 위험 요소들을 가능한 한 많이 걸러낸다고 하지만 그 자체로 전혀 흠이 없는 정보라도 ‘암흑 상자’ 속에서 예상하지 못했던 해로운 결과를 만들어 낼 가능성은 얼마든지 있다. 엉터리 대답을 사용자가 판별해야 한다는 것은 부정적인 결과에 대해서 제조회사가 책임질 수 없다는 것을 뜻한다. 그런 점에서는 입력한 것을 그대로 찾아주는 검색엔진만큼도 믿을 수 없다.
기술은 계속 발전한다. 그것은 기술이 점점 더 큰 힘, 더 큰 영향력을 행사할 수 있게 된다는 것을 뜻한다. 그런데 사용자들은 대부분 이익을 위하여 기술을 이용하기에 급급하기에 그 기술이 일으킬 부정적인 결과에 대해서 예민하고 강한 책임감을 갖게 될지는 큰 의문이다.
이럴 때일수록 기독교 공동체의 역할이 중요하고 책임이 무거워진다. 현대 과학 문명 발전에 매우 큰 영향을 행사했으면서 동시에 이웃의 생존과 안전에 대해서도 책임을 져야 할 사랑의 사명을 받았으므로 그리스도인들은 개발된 고급기술을 이용하는 것보다 오히려 그 부작용의 위험을 예방하고 축소하는데 더 큰 관심을 기울이고 책임의식을 확산시켜야 하지 않을까 한다.
이용약관 | 개인정보 취급방침 | 공익위반제보(국민권익위)| 저작권 정보 | 이메일 주소 무단수집 거부 | 관리자 로그인
© 2009-2024 (사)기독교세계관학술동역회 [고유번호 201-82-31233]
서울시 강남구 광평로56길 8-13, 수서타워 910호 (수서동)
(06367)
Tel. 02-754-8004
Fax. 0303-0272-4967
Email. info@worldview.or.kr
기독교학문연구회
Tel. 02-3272-4967
Email. gihakyun@daum.net (학회),
faithscholar@naver.com (신앙과 학문)