닫기

글로벌이코노믹

[ESG 워치] 국가 ESG시대 챗GPT의 실상과 허상

공유
1

[ESG 워치] 국가 ESG시대 챗GPT의 실상과 허상

이혜주 국가ESG연구원 공동대표
이혜주 국가ESG연구원 공동대표
미국 WIPO 매거진에서 인공지능(AI)을 ‘새로운 전기(the new electricity)’라고 정의했듯이 우리의 삶에 AI가 스며 있다. 거대 컴퓨터로 변한 비행기에 구글의 알고리즘, 유통망, 정보 제공도 AI가 담당한다. 지난 15일 일론 머스크는 두바이에서 개최된 ‘세계정부 정상회의(WGS)’에서 “규제받지 않은 AI는 규제를 받는 자동차·비행기보다 더 위험하다. 안전한 사용을 위해 정부가 함께 규제해야 한다”고 AI의 위험성을 일깨워 주었다. 그는 챗GPT 열풍을 몰고온 ‘오픈AI’ 스타트업의 초기 투자자로서 테슬라 전기차에 ‘오토파일럿’ AI 기능을 탑재한 대표였기에 AI에 대한 비판적 발언은 큰 주목을 끌었다. '인터넷의 아버지'라 불리는 빈트 서프(Vint Gray Cerf) 구글 수석전도사도 챗봇GPT의 성급한 투자 유치에 대해 경고한 바 있다.

그럼에도 최근 챗GPT의 치솟는 인기는 인터넷 발명에 버금가는 혁명적 역사를 써 내려가고 있다. 이미 1억 명 이용에 서버가 마비될 정도로 폭발적인 챗GPT의 매력은 무엇인가. 챗GPT는 대규모 언어모델(LLM, Large Langue Model)을 기반으로 만든 AI 시스템에 방대한 정보를 투입해 사람이 사용하는 문장·문법을 이해시키는 ‘학습하는(learning)’ 과정을 거치는데, 인간의 촘촘한 두뇌 구조의 원리를 따르기 때문에 이를 ‘신경망’이라 부른다. ‘오픈AI’가 구축한 LLM을 GPT-n이라고 표현하는데 챗GPT에서 사용된 엔진에는 GPT-3.5 모델이 사용됐다.
그 결과 AI 기계와 인간의 상호 대화가 가능한 ‘유저 인터페이스(user interface)’의 혁신을 이루었다. 다시 말하면 소프트웨어를 통해 AI가 언어 추론 능력이 가능해졌으며 챗GPT는 단어나 문장의 연결방법까지 학습되어 논리적인 답변은 물론 민감한 사안에도 센스 있는 대화가 가능해졌다. 챗GPT는 대화 과정에서도 주제와 관련된 맥락적 흐름을 맞추면서 모르거나 잘못 답변하면 사과까지 하는 겸손한 ‘인간상’을 보여준다. 유저는 기계와 단순한 접속, 연결이 아닌 ‘기계와의 친근한 대화’가 가능해졌다. 특히 유저가 작업할 때 굳이 많은 웹사이트를 조사하지 않아도 AI 기술이 비서처럼 빠르게 일목요연하게 정리해주니 여기서 발생하는 시간 절약은 AI 기술의 최고 강점이다. 더욱이 AI와 인간의 대화 내용이 지속적으로 축적되면서 LLM을 풍요하게 하는 강화학습(RLHF: Reinforcement Learning from Human Feedback)이 추가되면서 동시에 AI 학습도 강화된다.

창의성 엔진(Creativity Engine) 시대에는 AI를 잘 다루는 능력이 개인의 경쟁력이 된다. 챗GPT의 폭발적인 인기에 힘입어 오픈AI는 요금제를 다양화하는 범용적 요금, 기업용 요금 그리고 데이터팩과 응용프로그램 인터페이스(API) 등을 출시하는 등 구체적 방안을 모색하고 있다. 챗GPT가 유료로 전환돼도 산업계에서는 챗GPT의 구독 요청이 쏟아지고 있다. 이에 대해 CNN은 미국 부동산 중개업체들이 챗GPT를 활용해 소셜미디어 홍보, 고객 응대, 주택담보대출(모기지) 계산까지 도움받을 뿐 아니라 매물 소개 글도 5초 만에 작성해주는 AI 서비스이기에 한 달 20달러를 기꺼이 지불할 의사가 있다고 보도했다.

일론 머스크는 초기부터 오픈AI가 오픈 소스(open source) 개방형 비영리 회사가 되기를 기대했었기에 이윤 추구에 혈안이 된 오늘의 오픈AI가 클로즈드 소스(closed source)로 변질됐다고 비난한다. 또한 AI에 방대한 정보를 투입해도 AI 시스템의 한계로 오류가 발생하기에 섣부른 투자를 비판한다. AI 시스템에는 엄청난 양의 정보가 저장되지만, 표절·대필 문제, 결과물의 신뢰성 문제, 학습능력 저하 등으로 우려가 크기 때문이다.

이와 같이 AI의 활용은 무한한 잠재력과 함께 인류를 위협하는 부정적 요소가 공존한다. 챗GPT가 출시된 지 겨우 두 달여 지났음에도 특히 사회적 갈등, 표절 문제, 젠더 갈등, 인종차별 문제, 정치 성향, 국가 간 대립이나 편파적 여론 몰이 등이 발생할 가능성이 높아 총체적 윤리 문제로 대두하고 있다. 챗GPT의 속성상 인터넷에 떠돌아다니는 쓰레기 정보들까지 흡수하니 철두철미한 신뢰성을 담보하기 어렵다. 생성 AI의 구조적 한계인 ‘할루시네이션(hallucination·환각)’으로 인해 AI가 데이터의 오류까지 학습해 틀린 답변이 많은 편이다. 챗GPT는 출처가 없이 ‘타인이 작성한 텍스트를 자기가 한 것처럼 속이는 행위’가 많고 사실과 거짓을 혼용해 답변하기 때문에 ‘AIgiarism(AI+plagiarism(표절))’으로 저작권 문제까지 제기될 수 있다.

또한 챗GPT는 여론 조작에 악용되도록 사람들을 현혹하는 어휘를 사용할 위험성이 높다. 여론 조작에 이용되도록 짧은 시간 안에 유혹적 댓글을 수만 개씩 양산할 수 있어 혼란을 야기할 수 있다. 한국을 둘러싼 미국·중국 간 패권 경쟁에서 펼쳐지는 각종 선전·심리전은 물론 다양한 문화공정을 목표로 편향된 심리적 전파가 가능해 정치·외교적으로 민감한 국제정세와 관련 학습을 위한 대처 방안이 요구된다. 학생들이 챗GPT의 대답을 무분별하게 받아들이면 지적 학습에 치명적이므로 학교 통신망에서 챗GPT 접속을 차단하거나 ‘GPT 제로’, ‘디텍트 GPT’, ‘클래시파이어’ 등의 프로그램을 활용할 수 있다.

AI 산업이 2024년 700조 규모로 성장할 것으로 예상되기 때문에 현재 챗GPT의 문제로 AI산업의 발전을 저해한다면 거대한 혁명의 흐름에서 뒤처질 수 있다. 따라서 대학에 ‘AI 리터러시(문해력)’ 교육과정을 설치해 교육과정에서 비판적 사고를 배양하고 챗GPT 같은 AI 기술, AI 저작물과 윤리 검토, AI 기술이 가져올 풍선·나비 효과에 대한 예측과 대응 방안을 연구해 집단지성을 발휘하는 계기를 마련해야 할 것이다.

이혜주 국가ESG연구원 공동대표