책임있게 쓰고, 부지런히 원문 확인
성큼 다가온 AI
9년 전, 알파고가 바둑으로 인간을 이기면서 딥러닝의 파도가 일렁이기 시작했다. 그 파도는 이제 AI(Artificial Intelligence, 인공지능) 쓰나미가 되어 전 세계를 덮치고 있다. 이 쓰나미는 워낙 강력해서, 휩쓸리고 나면 세계 지형이 바뀔 수도 있다는 긴장감이 높다. 새 정부는 100조를 들여 독자적인 AI 기술을 확보하겠다고 밝혔다. 광주는 거대 규모 GPU를 기반으로 그 첨병을 자처했고, 울산도 데이터센터를 장착하고 뛰어들었다. 대학들은 부지런히 학과 이름에 ‘인공지능'을 넣고 있고, 기업들은 ‘AI서비스’를 도입하고 있다. AI 깃발을 들지 않으면 더 이상 전진할 수 없다는 위기의식 속에, 우리나라를 포함한 전세계가 태세를 정비하고 있다.
딥러닝과 AI가 원래부터 모두에게 익숙한 것은 아니었다. 김연아가 피겨스케이팅 대회에 나가면 온 국민이 ‘트리플악셀’의 전문가가 되듯, 이세돌이 알파고에게 한 수 가르쳐주었을 때, 모두가 딥러닝과 AI에 대해 박사가 되었다. 사람들은 SF소설을 쓰듯이 상상할 수 있는 다양한 기대와 우려를 이야기했다. 창조와 창의는 인간 고유의 영역이라며 AI를 거부하는 목소리도 있었다. AI를 어떻게 받아들여야 할지 물었지만, AI가 어떤 모습으로 올지 알 수 없기에, 딱히 할 수 있는 것도 없었다.
ChatGPT의 등장은 모든 것을 선명하게 했다. 거대언어모델(Large Language Model, LLM)을 기반으로한 생성형AI 서비스가 본격적으로 시작되면서, 비로소 우리는 AI를 실감하기 시작했다. ‘세종대왕 맥북 프로 던짐 사건’을 비웃던게 불과 얼마전인데, 이제는 “ChatGPT 없으면 일을 못한다”는 소리가 나온다. 다양한 AI서비스를 흔쾌히 유료 구독하는 사람도 주변에 흔하다. 일하는 방식이 달라진 사람도 많다. 일상, 직장, 대학, 연구, 교육에 AI서비스는 빠르게 침투했고, 어떻게 쓸 것인가를 정하기도 전에, AI는 이미 우리 주변에 파고들었다.
좋아지는 에이 아이(AI), 약아지는 우리 아이
사람처럼 일을 해주는 AI*를 만들었더니, 반드시 사람이 해야하는 일에 AI를 사용하면서 문제가 생기기 시작했다. 최근 학계에 큰 반향을 낳은 사건이 보도되었다. 몇몇 연구자들이 본인의 논문 안에 부정적인 평가를 하지 말도록 요구하는 문장을 사람에게는 보이지 않은 글씨로 삽입해둔 것이 밝혀졌다.[1] ChatGPT등을 통해서 논문을 평가하고자 할 때, 좋은 평가를 하도록 AI를 향해 일부러 명령어를 넣어둔 것이다. 논문에 대한 평가를 왜곡시키려고 의도된 꼼수를 부린 것도 문제지만, 논문을 직접 검토하지 않고 AI로만 내용을 평가하는 것도 문제다. AI가 점점 일을 잘하게 되다보니, 사람의 손길이 필요한 곳까지 AI의 일손을 은근슬쩍 쓰기 시작한 것이다.
가장 달라진 곳은 역시 교실 안이다. AI 완성도가 높아질 수록, 교실 안의 불신도 커져간다. 학습에 AI를 사용하지 않는 학생은 없다. 이전까지는 주관식 문제만 활용해도 학생의 사고를 엿볼 수 있고, 암기식 학습의 폐해를 어느 정도 극복할 수 있었다. 그러나, 이제는 에세이 작문이든 직접 코딩하여 해결하는 프로젝트든 모두 프롬프트 몇 줄이면 끝낼 수 있다. 제출한 과제가 훌륭하면 학생에게 감탄하는 것이 아니라, 실제로 학생이 한 부분은 어디까지인지 궁금해진다. 시대의 흐름을 역행할 수는 없는 일이니 AI 사용을 막을 수는 없을테지만, 학생들이 정말 학습을 하고 있는지, 유사 학습 행위를 하고 있는지는 알 길이 없다.
AI로 과제를 ‘선방한’ 학생들에게 도덕적인 죄책감을 갖기를 바라는 것은 순진한 생각이다. 오히려, 최신 도구를 활용해 시간을 절약한 스스로가 ‘스마트’하다고 생각하는 것이 현실이다. 학생들에게 AI기반 서비스는, 마치 계산기가 있는데 굳이 손계산을 할 필요가 없는 것처럼 당연한 도구일 뿐이다. AI의 침투와 신뢰 상실로 인해, 오히려 과거의 전통적인 평가 방식으로 돌아가는 수업도 등장하고 있다. 최근 뉴요커지의 기사에 따르면, 미국의 교실에서는 즉석에서 백지에 주관식으로 답을 써내려가는 유형의 시험을 다시 채택하고 있다고 한다[2]. 각종 SNS에는 어떻게 AI를 사용한 것을 들키지 않는지 팁을 알려주는 쇼츠(Shorts)가 올라온다. 학업을 학습으로 인식하지 않고 과제로 받아들이는 이상, 어떻게든 손쉽게 끝내려는 학생과 어떻게든 학생이 아는 것을 평가하려는 교사 사이에 보이지 않는 싸움은 피할 수가 없다. 불신이 만들어낸 불필요한 신경전이다.
AI가 우리를 자유케하리라?
AI를 도입하며 우리가 품는 가장 긍정적인 희망은 AI가 쓸데없는 일을 대신 해주기고 인간은 여유를 되찾아 정신적인 활동에 집중할 수 있게 될 것이라는 전망이다. 왠지, AI 덕분에 비로소 우리 삶에 저녁이 생길 것 같은 기분이 든다. 그러나, AI의 도입으로 생산성이 높아지면서, 우리는 점점 성과 경쟁 속에서?업무 쓰나미의 파국으로 빠져들지도 모를일이다.
연구 분야를 예를 들어 살펴보자. 전통적으로 연구 활동은 매우 느린 고도의 정신 활동이었다. 토론과 사색 속에서 만류 인력이 발견되고, 상대성 이론이 피어나는 것이다. 기술의 발전은 연구를 하는 모습 자체를 바꿔왔다. 인터넷이 발달하기 이전에 연구자들은 학교 도서관에서 책꽂이에 꼽혀있는 논문을 실제로 찾아서 복사해봐야했다. 도서관에 없는 논문은 출판사에 요청해 팩스나 우편으로 받아보았고, 이를 받아보는데 몇 달의 시간이 걸리기도 했다. 논문 검색도 종이 인덱스나 마이크로 필름을 사용해서 찾았다. 하지만, 인터넷이 발달하면서 논문 검색은 1초도 안걸려 끝낼 수 있게 되었다. 온라인으로 수 많은 논문을 앉은 자리에서 순식간에 원본까지 확인할 수 있다.
연구 활동 자체가 기술의 도움으로 용이해지자, 양적인 산출물도 급격이 많아졌다. 물리학 분야 기준, 1990년대 까지는 연구 활동과 출판 프로세스가 모두 느렸기에, 대부분의 연구자가 평균 1년에 0.5~1.5편의 논문을 출판하고 공동 저자 수도 적었다. 인터넷이 발달하면서 2000년대 이후에는 1인당 논문 출판이 2~4편까지 늘었다. 공동 연구자도 늘고 1년에 논문을 3~4편 발표하는 연구자도 있다. 인터넷 시대 이전의 과학은 좀 더 느린 걸음을 걷고 있었을지 모르겠다. 그치만, 그 발걸음 사이는 사색과 토론으로 채워졌을 것이다. 그것이 물리학의 비약적인 발전을 이끌었다.
그림(연도별 연구자의 평균 논문 출판 편수, 기사 상단)은 언뜻보면 인터넷 등장 이후 과학이 빠르게 발달해가는 것 같아서 좋아보인다. 그러나, 과연 질적으로도 그런가 묻는다면 답하기 쉽지 않다. 양적 증가는 대부분 질적 하락을 동반한다. 그 안에 휩쓸려가는 연구자는 어떠한가?
학계가 어떻게 나아가는지 예의 주시하며 연구를 해야하는데, 쏟아지는 논문을 모두 소화하기도 벅찬 지경에 이르렀다. 남들과 비슷한 양의 논문을 출판해야만 스스로가 증명된다는 압박속에서, 깊은 분석과 숙고가 필요한 연구보다는 빠르게 결론을 내릴 수 있는 주제를 선택하게 된다. 연구자가 인터넷 기술의 발달로 인해 더 행복해졌는지를 묻는다면, 연구자의 삶 관점에서는 답하기 쉽지 않다. 분명한 것은, AI의 등장으로 연구 흐름이 빨라지면서 이러한 양적 증가는 더 심해질 것이고, 연구자에게 요구되는 산출물도 결국 기준이 더 높아질 것이다.
나를 지혜롭게 하는지, 똑똑한 착각 하고 있는지
우리는 아직 AI 사용법을 모른다. ChatGPT가 처음 등장했을 때, 자연스러운 발화를 마치고 ‘사실 이것은 ChatGPT로 쓴겁니다.’라고 밝히며 씨익 웃는게 고작이었다. 이제는 한쪽에서는 ChatGPT로 열심히 콘텐츠를 포장하고, 저쪽에서는 ChatGPT로 다시 포장지 제거하고 알맹이만 가져간다. 글을 쓰는 사람은 아이디어만 ChatGPT에 넣어주고 글을 완성한다. 독자는 전체 글을 ChatGPT에 넣어주고, 핵심만 요약해달라고 하여, 정리된 요점만 읽는다. 글도 AI로 쓰고 읽는 것도 AI로 읽는다. 그럴 바에야, 차라리 AI빼고 핵심 아이디어만 서로 주고 받는게 차라리 더?자연스러워 보이기도 한다.
최근에는 소위 오피니언 리더라는 사람들이 만들어내는 콘텐츠도 독특한 양상을 보인다. 장문의 해외 자료를 번역해 올리면서 한 두 마디 의견을 덧붙인다. 요약된 내용에는 평소에 쓰지 않던 이모티콘이 소제목 마다 붙어있다. 의견을 말한다라기 보다는 ‘이렇다더라’하는 리포터의 모습이 많이 보인다. 생성형AI로 요약한 내용에 오류가 많다는 지적이 많고[3], 실제로 잘못된 내용으로 정리해주는 경우도 여전하다[4]. 하지만, 자료 접근성을 확장시켜준 AI의 효용은 이미 우려를 압도하고 있다.
낭만이 사라졌다. 생각을 어떻게 전달할지 속으로 이리저리 곱씹으며 숨을 담는 과정이 사라졌고, 문장 한 줄 한 줄에서 행간에 담긴 표정을 느낄 여유도 없다. 내 감상이 필요하다? 걱정할게 무엇인가. 내 성향을 메모리에 기억하고 있는 ChatGPT가 써줄텐데.
자, 그래서? 어떻게 하자는 것인가? AI는 필요하다. 좌충우돌이 있겠지만, 되돌아가야 한다는 것은 아니다. 잘 걸어가야 한다는 말이다. 자칫하면 뒤쳐진다는 위기의식 속에 온 나라가 AI 먹방을 시작하고 있다. 전력(電力)을 다해 먹어야 하다보니 체할까 걱정한다. AI를 키울 것도 걱정이고 AI를 쓸 것도 걱정이다. 다행인 것은 어떻게 써야하는지는 이미 잘 알고 있다. 책임있게 써야하고, 부지런히 원문을 확인해야한다. 과연 AI가 나를 지혜롭게 하는지, 똑똑한 착각을 하고 있는지 스스로를 잘 돌아봐야한다.
덧붙이며
필자에게 주어진 감사한 지면에 벌써 몇 차례 마감 기한을 놓쳤다. 이런 저런 일들이 이어지다보니 항상 시간이 부족하고, 하고 싶은 말은 있지만 차분히 앉아서 글로 정리할 여유가 부족했다. ChatGPT에 주요 사례와 스토리를 넣어주고, 칼럼을 써달라고 해볼까 하는 생각을 해봤지만, 책임있는 AI의 활용에 대한 글을 AI로 생성해낸다는 것이 어쩐지 마음이 편하지 않았다. 그래서, 이 글은 처음부터 끝까지 필자가 중얼거리며 직접썼다. 아차, 그런데 여기서도 어쩔 수 없네. 본문에 삽입한 그림은 ChatGPT에게 부탁해서 만들었다**. 대략적으로 알고 있던 내용과 크게 다르지 않고, 별도로 전수조사를 할 여력이 없으니 옳게 조사되었다고 ‘믿고 싶다’. 그렇지만, 자료과 그림에 오류가 있다면, 그것은 전적으로 필자의 책임이다.
김희태 한국에너지공과대학 교수
[주석]
*AI는 포괄적인 개념이고, 본문에서 다루는 ChatGPT 등은 생성형AI 서비스이다. 일반적으로 익숙한 “AI”를 ‘생성형AI’와 ‘AI’에 모두 혼용해서 사용했다.
**사용한 프롬프트: ”인터넷이 발달하지 않았던 옛날, 논문을 보려면 학교 도서관에서 빌려보거나 외국 출판사에서 팩스로 받아서 봐야했다고 들었어. 인터넷이 발달하고 난 뒤에서야 컴퓨터로 pdf로 논문을 손쉽게 볼 수 있게 되었지. 이 두 시기를 시간적 기준으로 나눠서 각각 몇년대인지 알려주고, 그 시기에 물리학 분야 또는 이공계 연구자의 1년 동안 출판 논문수의 평균을 구해줘.” “연도별 그래프를 그려줘.”. 그러나 ChatGPT는 이미 필자에게 적응된 상태이므로, 동일한 프롬프트로 같은 결과를 얻지 못할 수 있다.
[출처]
[1] 이지은, “AI, 오직 긍정 평가만 해..논문 속 비밀 ‘명령문'", MBC뉴스, 7월11일, 2025년
https://imnews.imbc.com/replay/2025/nwdesk/article/6731198_36799.html
[2] Hua Hsu, “What Happens After A.I. Destroys College Writing?” The New Yorker, 6월 30일, 2025
https://www.newyorker.com/magazine/2025/07/07/the-end-of-the-english-paper
[3]?Peters Uwe and? Chin-Yee Benjamin, “Generalization bias in large language model summarization of scientific research”, Royal Society Open Science12241776, 2025
http://doi.org/10.1098/rsos.241776
[4] Jehyun Lee, Facebook 게시글, 5월31일, 2025
https://www.facebook.com/share/p/19Cun7SWrV/?
