(사)기독교세계관학술동역회 기관지

‘사람’(homer faber)은 기술을 개발하고 도구를 만들 수 있기에 만물보다 강하게 되었다. 그런데 최근까지 인류가 개발한 기술과 도구는 대부분 손, 팔, 다리, 눈, 귀 등 육체 부위들의 활동을 더 강화하거나 대체하는 것들이었고 그것들을 가능하게 하는 생각의 기능을 보조하는 도구는 수판, 계산기, 컴퓨터 등 소수에 불과했다.
그런데 최근 인공지능(AI) 기술이 개발되어 경우에 따라서는 사람보다 훨씬 더 빨리, 더 넓게, 더 상세하게, 심지어는 더 새롭게 생각할 수 있게 되고, 앞으로는 더 잘하게 될 것이라 한다. 최근 한국 대통령을 만난 손정의 회장은 머지않아 인간보다 만 배나 뛰어난 두뇌를 가진 초인공지능이 만들어질 것이고 그렇게 되면 사람의 지능과의 차이가 지금의 사람과 금붕어의 지능 차이만큼 벌어질 것이라고 주장했다. 커즈와일(Ray Kurzweil)은 모든 인류의 지성을 합친 것보다 더 뛰어난 초인공지능이 출현하는 시점을 뜻하는 ‘기술적 특이점’(technological singularity)이 2045년에 도래할 것이라고 예언했는데 ‘오픈 AI’ 대표인 올트먼(Sam Altman)은 그 특이점이 이미 왔다고 주장한다.
계시의 종교며 언어적 정보를 다른 어느 종교보다 중요시하는 기독교는 이런 변화에 대해서 특히 민감할 수밖에 없다. 인간만 하나님의 형상으로 지음을 받았는데, 이제까지는 인간만 생각할 수 있었으므로 우리는 생각할 수 있는 능력과 인간의 독특성을 연결시켜 생각해 왔고 심지어 생각하는 능력과 영혼이 연결된 것으로 이해하기도 한다. 그런데 인간이 아니라 인간이 만든 도구도 생각할 수 있다면 우리에게 익숙해진 인간관이 근본적으로 흔들릴 수 있다. 최근에 상담이나 외로운 노인들의 대화용 챗봇까지 출시되자 인간의 특별한 위상이 흔들리지 않을까 걱정되는 것도 사실이다.
그러나 우리가 잊지 말아야 할 것은 AI는 아무리 뛰어나더라도 사람이 만든 것이고 사람에 의하여 통제될 수밖에 없다는 사실이다. 인공지능이 사람의 제어를 벗어나 인간과 대결하는 공상과학영화 ‘스페이스 오디세이’ 같은 상황은 일어날 수 없고 물론 일어나도록 방치해서도 안 된다. 의지, 감정, 주장 등을 표현하는 말을 다 만들어내고 시도 쓰고 그림도 그리지만 그렇게 하는 자아(自我-‘나’)가 없다면, 무엇을 주장하는지, 얼마나 아름다운지 알지도 느끼지도 못한다. 물론 자신이 한 말에 대해서도 책임도 질 수 없다. 자율자동차가 아무리 잘 만들어졌더라도 사고가 나면 감옥에 가지 않는다.
AI의 지능지수가 워낙 높기에 오류나 실수가 없을 것이라고 착각할 수 있다. 그러나 이미 엉뚱한 대답을 하는 ‘환각’(hallucination) 현상이 일어나는 것은 잘 알려져 있고, AI의 상담을 받은 사람이 자살한 경우까지 생겨서 제조회사 상대 소송이 여럿 제기되어 있다.
AI가 완벽할 수 없는 가장 중요한 이유는 그것이 사람이 제공한 자료(data)에 근거할 수밖에 없기 때문이다. 지금 사용되고 있는 ‘대규모 언어모형’(LLM) AI는 어떤 규모의 것이든 자료센터(data center) 없이는 작동할 수 없는데 모든 자료는 원칙적으로 불완전하다. 자연과학적 자료는 다소 객관적이고 정확할 수 있지만 그 외의 모든 자료는 완벽하지도 않고 객관적일 수도 없다. 물론 제조사들은 가능한 한 객관적이고 정확한 사실만을 입력하려고 노력할 것이고 많은 자료를 모으면 서로의 오류를 찾아낼 수도 있겠지만 모든 사실은 원칙적으로 어떤 상황에서 누군가에 의해서 ‘해석된’ 사실이다. 포퍼(Karl Popper)는 심지어 자연과학적 사실에 대해서도 “거짓이 아닌 것이 드러날 때까지만 참’”이라고 했는데, AI도 예외가 될 수 없다. 거기다가 AI 전문가 윌리슨(Simon Willison)이 지적한 ‘외부 콘텐츠 노출, 사적 데이터 접근, 외부로의 발신 경로’ 등 소위 ‘치명적 삼합’(lethal trifecta)은 AI를 해커들의 좋은 먹잇감으로 만들 수 있다 한다. AI는 완전히 믿을 수도, 안전하지도 않다는 것이다.
그러므로 무엇보다도 AI를 과신하지 않는 지혜가 필요하다. 특히 청소년들과 젊은 사람들은 가능하면 AI를 많이 이용하거나 의존하지 않는 것이 바람직하다. 대화용 생성 학습 변환기 챗GPT 출시회사인 ‘오픈 AI’는 13세 이하 청소년들의 생성형 AI 사용을 금지하고 13세부터 18세까지는 보호자의 허락을 받고 쓰도록 권고하고 있다. 스스로 찾고 배우고 새로운 것을 생각하거나 비판하는 능력이 약해질 수 있고, 다른 사람과의 접촉과 대화 기회가 줄어져서 정상적 인격 형성이 어려울 수도 있으며, 확증편향이 심해져서 정상적인 판단을 하지 못하게 될 수도 있기 때문이다.
거기다가 AI의 형성, 유지, 사용은 엄청난 양의 전기를 소모한다고 한다. 다소 과장되었다는 주장은 있지만, AI에 100단어의 문자를 생성시키는데 드는 양의 전기로 LED 전구 14개를 한 시간 동안 켤 수 있다 한다. 물론 자료를 수집하고 입력하고 보관할 뿐 아니라 계속 더워지는 데이터 센터를 냉각시키는데 막대한 양의 전기가 소모될 것은 말할 것도 없다. 환경보호를 위해서라도 AI의 과대이용은 삼가야 한다.
AI는 유용하고 강력하지만 오류, 위험, 부작용도 많은 도구이므로 과신도, 과용도 말아야 할 것이다.
이용약관 | 개인정보 취급방침 | 공익위반제보(국민권익위)| 저작권 정보 | 이메일 주소 무단수집 거부 | 관리자 로그인
© 2009-2026 (사)기독교세계관학술동역회 [고유번호 201-82-31233]
서울시 강남구 광평로56길 8-13, 수서타워 910호 (수서동)
(06367)
Tel. 02-754-8004
Fax. 0303-0272-4967
Email. info@worldview.or.kr
기독교학문연구회
Tel. 02-3272-4967
Email. gihakyun@daum.net (학회),
faithscholar@naver.com (신앙과 학문)