Techniques for supercharging academic writing with generative AI
학술용 글쓰기를 비약적으로 강화하는 생성형 AI 활용 기법
원문 : https://doi.org/10.1038/s41551-024-01185-8
출처: Nature Biomedical Engineering, 2024년 3월호, DOI: 10.1038/s41551-024-01185-8
저자: Zhicheng Lin (University of Science and Technology of China)
서론
학술용 글쓰기는 많은 연구자들에게 시시포스적 고난을 연상시킨다. 마땅히 “과학을 실제로 수행하는 데” 더 투자될 수 있는 귀중한 시간과 정신적 여유를 빼앗기기 때문이다. 프란츠 카프카는 이를 다음과 같이 간명하게 표현했다. “시간이 어떻게 흐르는지 모를 정도다. 열흘이 또 지나갔는데, 나는 아무것도 이루지 못했다. 작업이 진전되지 않는다. 아주 가끔 페이지 하나 정도가 잘 쓰이지만, 그 뒤로는 이어갈 힘이 없다.”
Grammarly, QuillBot, Wordtune 같은 디지털 글쓰기 도구들은 맞춤법이나 문법 검사, 문장 재구성, 문체·어조·명료성·일관성에 대한 제안 같은 기본적인 언어 작업에 도움을 줌으로써 글쓰기 부담을 어느 정도 덜어준다. 하지만 이 도구들은 대개 뉘앙스가 부족하거나, 보다 본질적이고 심도 있는 글쓰기 지원이 필요한 경우에는 충분치 않다. 전문적인 교정·번역·대필 서비스를 이용하면 고급 편집과 재작성, 심지어 텍스트를 처음부터 대신 써주는 작업도 가능하지만, 재정적 여유가 없거나 비영어권·저소득 지역 연구자들에게는 접근성이 떨어진다. 이는 과학의 진전을 가로막는 ‘커뮤니케이션 병목’을 심화시킨다는 지적이 있다(각주 1, 2).
그러나 생성형 인공지능(AI), 특히 범용 대형 언어모델(LLM)을 활용한 도구들은 글쓰기 보조로서 실질적인 활용 가치를 제공한다. LLM은 전 세계적으로 널리 접근 가능하며, 다재다능하고, 매우 협업적이고 인내심이 많으며, 비교적 비판이나 평가에 있어서 감정적 편견이 적게 드러난다(각주 3). 하지만 이를 효율적이고 책임감 있게 활용하기 위해서는 단순한 자동 교정 도구에 비해 훨씬 높은 수준의 숙련이 요구된다. 예를 들어 적절한 AI 시스템을 선택하고(4–6), 효과적인 프롬프트를 구성하는 역량이 중요하다. 이 글에서는 연구자들이 AI의 잠재력을 활용해 학술 글쓰기의 질과 효율을 높이는 동시에, 글쓰기에 따르는 ‘고역’을 조금이라도 줄일 수 있도록 안내하고자 한다. 구체적으로는 AI와의 협업을 위한 프레임워크를 소개하고, 효과적인 활용 루틴과 프롬프트 기법, 그리고 AI 윤리·정책 차원에서 주의해야 할 점들을 논의한다. 생물·행동과학 분야 연구자들을 염두에 두었지만, 여기서 소개하는 방법은 전반적인 학술 글쓰기에 보편적으로 적용 가능하다.
A writer–AI collaborative framework
저자–AI 협업 프레임워크
Rationale (협업의 필요성)
ChatGPT, Gemini, Claude 등 널리 알려진 AI 챗봇의 기반에는 LLM이 있다. 이들은 방대한 텍스트 코퍼스(일부 모델은 시각·음성·텍스트 등 멀티모달 데이터 포함)로 학습되어, 사용자의 질의(프롬프트)에 대해 언어 기반 작업을 이해하고 대응하는 데 뛰어난 성능을 보인다. 과학 및 교육 영역에서 이를 어떻게 올바르게 활용할지가 여러 관점에서 치열하게 논의되고 있지만(각주 3,4,7–11), LLM이 학술 연구를 바꿔놓을 것이라는 사실은 부정하기 어렵다(각주 3,12).
본 절에서는 학술 글쓰기에서 AI를 활용하기 위한 협업 프레임워크를 제안한다. 이 프레임워크는 다음 세 측면에 주목한다.
- AI를 활용하려는 단기/장기적 동기와 그 기반이 되는 메커니즘, 그리고 잠재적 한계점
- 협업 글쓰기에서 AI가 담당하는 역할(‘두 단계’ 모델)
- 학술 글쓰기에 있어 AI가 제공할 수 있는 다양한 지원의 종류와 수준
단기적, 장기적 동기
AI 활용의 중요한 동기를 크게 단기적 목표와 장기적 목표로 구분해볼 수 있다. 먼저 단기적으로는 특정 프로젝트의 글쓰기 생산성, 품질, 창의성을 높이기 위한 목적이 있다. LLM을 활용하면 글쓰기를 더욱 빠르고 나은 방식으로 진행할 수 있으며, 작가가 콘텐츠와 아이디어에 집중하도록 도와주어 ‘소통 비용’을 줄여주고, 글의 창의성과 품질을 높이는 데 기여할 수 있다(각주 9,13–15).
이를 가능케 하는 핵심 메커니즘은 크게 ‘인지적 오프로딩(cognitive offloading)’과 ‘창의적 자극(imaginative stimulation)’ 두 가지이다.
- 인지적 오프로딩은 계산기나 통계 패키지가 수치 계산을 대신해주는 것과 비슷한 원리다. 맞춤법·문법 수정부터 단어 선택, 명명, 요약 등 일부 정신적 작업을 AI에 위임함으로써, 작가의 인지 자원을 다른 작업에 쓸 수 있게 한다. 이는 전반적 퍼포먼스를 높이고 실수 발생 가능성을 줄이는 효과를 낳는다.
- 창의적 자극은 작가와 AI 간의 상호작용을 통해 시너지가 생기는 과정을 가리킨다(르네상스 시대 예술가, 과학자, 후원자 간 협업을 떠올리면 비슷한 원리를 찾을 수 있다). LLM은 새로운 관점과 아이디어, 서술 방식을 제시해 작가에게 영감을 줄 수 있으며, 반론이나 비판을 제기해주거나(브레인스토밍) 원고의 논점을 다듬는 피드백을 제공함으로써 작가의 사고 폭을 넓혀줄 수 있다. 작가는 이를 재차 검토하고 수정하는 과정을 통해 더 균형 잡힌 주장, 새로운 통찰이나 해결책 등을 도출할 수 있다.
장기적으로는, 글쓰기 능력을 기를 수 있다는 교육적 측면도 크다(각주 16,17). 이는 “직접 해보면서 배운다”라는 고전적인 교육 철학과 맞닿아 있다. LLM은 이를 ‘적응형 상호작용(adaptive interactivity)’과 ‘즉시성(on-demand)’이라는 두 측면에서 극대화한다.
- 적응형 상호작용: LLM은 일대일 과외처럼 학습자의 필요와 속도, 스타일에 맞춰 개인화된 피드백을 준다.
- 즉시성: 24시간 언제든, 필요할 때마다 즉각적인 피드백을 받을 수 있다. 온라인 무료 교육자료가 학습 접근성을 넓힌 것처럼, LLM은 글쓰기 학습의 즉시성과 실습 기회를 확장한다.
물론, AI 활용에는 단점과 한계도 존재한다. LLM이 그럴듯하고 전문적인 문장을 만들어낸다고 해도, 그 정보가 사실인지 여부는 사용자가 확인해야 한다(각주 3,11,18). 또한 글쓰기의 전 과정을 AI에 지나치게 의존하면, 작가 자신의 글쓰기 역량이 약화될 수 있다는 우려도 있다.
더 나아가, 훌륭한 글쓰기의 핵심인 통찰·독창성·창의성은 아직 AI가 완전히 구현하기 어렵다. AI는 요약, 설명, 아이디어 발상 등에서 인간을 크게 도울 수 있지만(각주 3,14,15), 본래 연구 자체의 완성도까지 보장하지는 못한다.
Two-stage collaborative writing (2단계 협업 글쓰기 모델)
학술 글쓰기에 LLM을 어떻게 활용하면 가장 좋을까? 글쓰기 과정은 일반적으로 (1) 논문의 핵심 이야기(메시지)와 가치를 구상하고, 전체 구조를 잡은 뒤(20–22), (2) 원고를 구체적으로 작성·수정하는 흐름을 거친다.
- AI 영감 단계: 먼저 글의 핵심 스토리, 가치 제안(value proposition), 구조적 개요를 정리한다. 예컨대 본 논문의 사례에서, “학술 글쓰기는 늘 어려웠고, LLM을 쓰면 이를 개선할 수 있다”라는 핵심 스토리를 잡고, “시의적절하고 유용한 협업 프레임워크 및 활용 기법 제공”이라는 가치 제안을 설정했다. 그런 뒤 구조(협업 프레임워크, 도움 수준을 요약한 표, 윤리 및 정책 문제 등)를 잡았다. 이때 LLM과의 ‘대화’를 통해 새로운 관점을 얻거나, 놓치고 있던 아이디어를 발견하기 쉽다.
- AI 보조 단계: 원고 초안을 여러 번 작성하고 다듬는다. 문법, 어휘, 문장 구조, 전체 논리 전개 등을 점검하는 데 LLM의 언어적 역량을 활용할 수 있다. 예컨대 LLM이 제시하는 비판적 피드백을 참고해 문단별 독해성을 높이거나, 지나친 반복을 줄이는 식으로 협업한다.
- 이때 통계 프로그램이나 그림·도표 작성 툴도 함께 활용할 수 있으며, 일부는 AI 코딩 보조 기능을 활용해 문제 해결 과정을 가속할 수 있다(각주 3,9,23).
결국 LLM은 글쓰기 전 과정에서, **고차원적(창의성, 비판적 피드백)**과 저차원적(맞춤법, 어휘 선택) 작업 모두를 지원하는 파트너로 자리할 수 있다. 작가는 이 과정에서 AI가 제안한 내용을 취사선택하며, 인간의 통찰과 AI의 보조적 역량이 결합된 글을 완성해 간다.
Types and levels of writing assistance (글쓰기 지원의 유형과 수준)
학술용 글쓰기를 지원하는 AI 보조에 대한 핵심 쟁점은 “어떤 종류, 어느 수준까지 AI가 지원해야 하는가?”라는 물음이다(각주 3,14).
- 간접 지원(indirect assistance): LLM이 ‘글쓰기 코치’ 역할을 수행한다. 예컨대 사용자가 작성한 문서를 읽고 피드백을 주거나, 아이디어·구조를 평가하고 개선안을 제안한다. 궁극적으로 수정·반영 여부는 사람이 결정한다. (이는 고대 소크라테스식 문답법 같은 교육 전통, 혹은 현대 글쓰기 센터에서 튜터가 초고를 보며 지도하는 방식과 유사하다. AI가 ‘디지털 개인 교정가’가 되는 셈이다.)
- 직접 지원(direct assistance): LLM이 ‘공동 저자’처럼 텍스트를 직접 작성·수정한다. 이 과정은 역사적으로도 협업 집필이 만들어낸 성공 사례들(예: 공쿠르 형제의 소설 공동 저술, 다윈과 월리스의 편지 교류로 탄생한 진화론 등)을 확장하는 디지털 버전이라고 할 수 있다.
이러한 지원 정도는 크게 다섯 가지 수준으로 구분할 수 있다(표 1). 각 수준마다 LLM이 작가의 텍스트에 개입하거나, 아이디어를 생성하는 정도가 점점 커진다.
- 수준 1: 기본 편집(Basic editing)
맞춤법·문법 검사, 단어 선택, 반복어 수정 등. - 수준 2: 구조적 편집(Structural editing)
문장·단락을 좀 더 명확하고 일관되게 다듬고, 필요하면 번역·패러프레이즈를 제안한다. - 수준 3: 파생 콘텐츠 생성(Creating derivative content)
이미 존재하는 텍스트를 요약·변환, 예를 들어 초록 또는 제목 생성, 요약본 작성 등이 해당한다. - 수준 4: 새로운 콘텐츠 생성(Creating new content)
예를 들어 작가가 구상한 아이디어를 확장해 문단을 작성하거나, 새로운 관점을 제시해 논리를 보강하는 작업이다. - 수준 5: 평가 및 피드백(Evaluation or feedback)
텍스트를 비판적으로 읽고, 어떤 부분이 부족하고 어떤 부분이 더 보완되어야 하는지 구체적으로 제안한다.
직접 지원(수준 1~4)을 요청할지, 혹은 간접 지원(수준 5) 형태로 도움을 받을지는 프롬프트를 어떻게 구성하느냐에 달려 있다(표 1 참조).
표 1 | LLM이 제공하는 다섯 가지 글쓰기 지원 수준, 예시 프롬프트
수준 예시 프롬프트
(1) 기본 편집 | |
(맞춤법·문법 검사, 반복어 대체 등) | “이 문단의 맞춤법과 문법을 검사하고, 반복되는 단어가 있으면 유의어를 제안해줘.” |
(2) 구조적 편집 | |
(재서술, 번역, 글 구조/흐름 개선 등) | “이 길고 복잡한 문장을 더 명확하고 자연스럽게 바꿔줘. 읽기 좋게 다듬고, 불필요한 중복을 줄여줘.” |
(3) 파생 콘텐츠 생성 | |
(요약, 제목·초록 생성, 유사비유 작성 등) | “이 문서를 요약해줘. 그리고 학술지에 제출하기에 적합한 짧고 임팩트 있는 제목도 제안해줘.” |
(4) 새로운 콘텐츠 생성 | |
(문단 이어쓰기, 아이디어 확장 등) | “이 텍스트의 다음 내용을 이어서 작성해줘. 핵심 질문이 무엇인지 설명하고, 왜 중요한지 유사 비유나 예시를 들어가며 부연해줘.” |
(5) 평가 또는 피드백 | |
(원고 품질 평가, 논리적 빈틈 찾기 등) | “이 서론을 리뷰해봐. 논리적 비약이나 보완이 필요한 부분이 있으면 찾아서 지적해줘.” |
주: 본문에서 언급한 것처럼, (1)~(4)는 ‘직접 지원’ 형태이며, (5)는 ‘간접 지원’에 가깝다. 다만 같은 수준의 작업이라도, 예: “제안만 해줘. 실제 수정은 내가 할게.”라고 프롬프트를 주면 간접 지원으로, “바로 문장을 수정해줘.”라고 하면 직접 지원 형태가 될 수 있다.
Routines and techniques
AI를 활용한 글쓰기 루틴과 구체적 기법
학술 글쓰기 전 과정에서, LLM을 활용해 단기적·프로젝트별 효용과 장기적·교육적 효과 모두를 거둘 수 있다. 예컨대 글을 직접 수정(직접 지원)하거나, 수정 제안만 하고 작가가 최종 수정을 맡도록(간접 지원) 설정할 수도 있다. 이러한 세부 차이는 프롬프트 구성에 달려 있다(각주 6).
글쓰기 상황은 다양하고, 학문 분야·장르·독자층·개인 선호 등에 따라 많이 달라진다(각주 24–27). 하지만 대체로 다음 세 가지 과정을 반복하며 글을 완성해간다.
- 개요(아웃라인) 잡기: 논문의 골격과 핵심 메시지를 수립.
- 본문 작성하기: 개요를 토대로 초안을 쓰고 확장·보충.
- 초안 편집하기: 구조·논리·문체·어휘 등을 재점검·수정.
이 세 과정에서 LLM을 어떻게 활용할지, 박스 1에 예시 프롬프트들을 모아 두었다. 각각의 과정마다, 어떤 수준의 지원이 필요한지를 판단해 적절한 프롬프트를 조합해 사용할 수 있다.
본 논문(원문)을 예로 들면, 저자는 이미 전체 틀과 서사를 어느 정도 명확히 구상했기 때문에 개요 단계에서는 AI를 거의 쓰지 않았다. 대신 초안 작성과 편집(특히 수준 1의 ‘기본 편집’)에 ChatGPT 4와 Claude 2를 광범위하게 활용했고, 글이 막힐 때는 수준 4(“새로운 콘텐츠 생성”) 기법으로 제안받은 문장을 참고해 진행 속도를 높였다.
윤리 관련 부분에서 편집자와 리뷰어 코멘트를 반영해야 했을 때는, 먼저 포함해야 할 윤리적 포인트들을 정리해두고 ChatGPT에게 이 포인트들의 구조를 재검토해달라고 했다(박스 1 예시 1.2). AI의 제안을 토대로 순서를 조금 바꾸고, 실제 집필 과정에서 일부 항목들을 통합해 글을 다듬었다. Perplexity AI로 추가적인 자료 검색을 했지만, 텍스트를 직접 사용하기보다는 사실관계나 추가 정보 점검 차원에서만 활용했다.
현재 학술 출판 분야에서 AI 사용에 대한 규정은 급변하고 있다. 대부분의 학술단체나 출판사, 저널은 대체로 (1) AI가 “가독성·문법 개선” 등 편집 지원 목적으로 쓰이는 것은 허용하되(Elsevier, The Lancet 그룹 등), (2) AI를 저자로 명시하는 것은 불허한다거나, (3) AI로 작성된 텍스트에 대해서는 보다 명확한 의사표시를 요구하는 추세다(2023년 1월 26일 Science의 가이드라인, 같은 해 11월 16일 개정판 참조). 향후 이와 같은 가이드라인은 계속 바뀔 가능성이 높으므로, 목표 저널의 공식 정책에 유의해야 한다.
Outlining the manuscript (개요 작성)
개요는 글의 골격이자 로드맵이다. 길이는 다양할 수 있으나, 최소한 “무엇을 이야기하려는지”와 “대상 독자에게 어떤 가치를 줄 것인지”는 명확히 담겨야 한다(각주 25,26). 구체적으로, 가치 제안(왜 이 글이 중요한가?), 스토리텔링 방식(어떤 흐름으로 전개할 것인가?), 각 섹션에서 다룰 핵심 포인트 등을 고민하는 과정이다.
이 단계에서 LLM은 브레인스토밍(수준 4)이나 피드백(수준 5)을 통해 개요의 논리, 포인트, 독자 가치 등을 검토·보완해줄 수 있다(박스 1 예시 1.1, 1.2). 또한 초안 형태의 개요를 정리된 문장으로 매끄럽게 다듬는 작업(수준 1, 2, 3)도 가능하다(박스 1 예시 1.3).
Writing the content (본문 작성)
개요가 어느 정도 정리되면, 본문을 실제로 채워나간다. 물론 글쓰기 과정에서 개요가 수정되는 일은 흔하다.
이 단계에서 LLM은 (1) 이미 존재하는 텍스트를 다시 작성·요약·번역하는 ‘파생 콘텐츠 생성(수준 3)’, (2) 새로운 문단이나 아이디어·문장을 만들어내는 ‘새로운 콘텐츠 생성(수준 4)’ 등으로 크게 나뉜다.
예컨대 논리 전개가 막힐 때 LLM에 “다음 문단을 이어서 써 달라”고 요청해(박스 1 예시 2.2) 일단 초안을 받고, 사람이 다시 검토·수정할 수 있다. 또는 특정 부분의 문장 전환이나 주제 문장을 여러 대안으로 생성해달라고 해서(2.3) 자연스러운 흐름을 살릴 수도 있다. 초록이나 제목을 작성할 때도 유용하다.
이때 예시나 구체적 지침을 함께 제공해주면 더 정교한 결과물을 얻기 쉽다. 예: “현재 초록 예시 2개를 첨부하니 이와 유사한 톤으로 3가지 제목을 만들어달라.”
Editing the draft (초안 편집)
좋은 논문은 흔히 엉망인 초안에서 시작하지만, 제대로 된 재작성 과정을 거쳐야만 탁월한 결과물이 나온다. LLM은 (1) 기초적인 편집(수준 1, 맞춤법·문법 검사, 단어 제안 등), (2) 고급 편집(수준 2~4, 스타일·논리·비유·예시 등 개선), (3) 조언자·동료 리뷰어·비전문가 독자 역할로 피드백(수준 5) 제공 등으로 이 과정을 도울 수 있다(박스 1 예시 3번 섹션).
- 기본 편집: 맞춤법·문법 점검, 중복어 교체, 독자의 가독성 향상 등.
- 고급 편집: 핵심 포인트 요약, 텍스트에 추가 예시·비유 삽입, 특정 스타일(예: 학술지 문체)에 맞게 재작성, 첫·끝 문단을 새롭게 바꾸기 등.
- 조언자·동료 리뷰: 논리 구조나 독자의 이해도를 점검하고, 기술적 용어(전문어)를 지적해주거나 개선안을 제시한다.
Box 1
학술 글쓰기에 LLM을 활용하기 위한 예시 프롬프트
아래 예시들은 각 글쓰기 과정에서 LLM에게 맥락과 예시, 명확한 지시를 어떻게 전달하면 되는지 시연한다. 원하는 문체·역할·목표 등을 구체적으로 적어주면 더 적절한 결과를 얻을 수 있다.
1. 개요 잡기(Outlining)
1.1 브레인스토밍
“{제목/주제}에 대해 논문을 쓸 때, 다룰 수 있는 잠재적인 섹션과 하위 섹션을 제안해줘.”
“{주제}를 다룰 때 꼭 짚어야 할 핵심 포인트는 무엇인지 알려줘.”
“{아이디어}를 더 확장해줘. 특히 {구체 항목}을 구체적으로 다뤄줘.”
“{주제} 연구가 {독자층}에게 줄 수 있는 가치 제안을 몇 가지 관점에서 살펴봐줘.”
1.2 평가 및 피드백
“{섹션들}이라는 제목 아래 나열된 핵심 포인트들이, 이 글의 중심 메시지({메시지})와 얼마나 잘 연결되는지 평가해줘. 그리고 각 포인트의 깊이나 관련성을 살펴본 뒤 개선 방안을 제안해줘.”
“{제목/주제} 논문을 위한 다음 개요를 검토하고, 명료성과 논리 흐름, 누락된 부분이 없는지 종합적으로 피드백을 부탁해. 개요: {개요 내용}.”
“이 논문의 가치 제안(가장 중요한 독자 가치는 무엇인지)에 초점을 맞춰 개요를 봐줄래? {독자층}에게 더 매력적으로 보이도록 각 포인트를 조정하거나 추가할 부분이 있는지 알려줘.”
“개요를 스토리텔링 관점에서 살펴봐줘. {제목/주제} 논문에서 전달하려는 메시지가 효과적으로 드러나는지, 더 흥미로운 전개 방식을 제안해줄 수 있는지 평가해줘.”
1.3 재작성 및 편집
“다음 개요 초안을 간결하게 다듬어줘. 논문 주제: {주제}, 개요 초안: {초안 내용}.”
“{핵심 포인트}, {가치 제안}을 어떻게 서술 구조에 배치하면 독자에게 논리적이고 매력적인 흐름을 줄 수 있을지 제안해줘.”
2. 본문 작성(Writing content)
2.1 텍스트 변환
“최상위 학술지 에디터처럼 행동해줘. 내가 텍스트를 줄 테니, 이를 패러프레이즈해줘. 3가지 다른 버전으로 부탁해. 이해했으면 ‘OK’라고 답해줘.”
“최상위 학술지 에디터처럼 행동해줘. 아래 텍스트를 요약해줘. 요약에 대한 요구사항: {예: 100단어 내외, 핵심 포인트만 포함}. 텍스트: {텍스트}.”
2.2 문장 이어 쓰기
“최상위 학술지 에디터처럼 행동해줘. 내가 {…} 부분이 비어 있는 문장을 줄 테니, 그 부분에 들어갈 내용을 5가지 버전으로 작성해줘. 그리고 결과물에는 그 부분만 출력해줘. 알겠으면 ‘OK’라고 답해.”
“프롬프트1: ‘최상위 학술지 에디터처럼 행동해줘. 내가 텍스트를 줄 테니, 지시에 따라 텍스트를 이어 써줘. 3가지 버전으로 부탁한다. 알겠으면 OK라고 답해.’
프롬프트2(지시사항): ‘다음 문장 {문장}에서 이어서 글을 써줘. {어떤 내용을} 설명하고, {논점}을 제시해줘. 유사비유나 예시를 곁들이면 좋겠어. 마지막은 {어떤 방식}으로 끝내줘. 텍스트: {텍스트}.’”
2.3 일부 구간 작성
“최상위 학술지 에디터처럼 행동해줘. 아래 각 문단의 주제문을 3가지씩 제안해줘. 각 문단의 중심 아이디어와 논문 전체 주제에 부합하도록.”
“아래 두 문단 사이에 자연스럽게 이어지는 전환문을 3가지 제안해줘.
문단1: {문단 내용}, 문단2: {문단 내용}.”
“최고의 연구자가 학술지에 기고하듯이, 이 원고({저널명} 제출 예정)에 맞는 초록(또는 제목)을 3가지 버전으로 작성해줘. 요구사항: {예: 글자 수 제한, 특정 키워드 포함 등}. 이미 예시 2개를 첨부할 테니 참고해서 써줘. 예시1:…, 예시2:…”
3. 초안 편집(Editing the draft)
3.1 기본 편집
“Nature, Science 같은 톱 저널의 전문 에디터 역할을 해줘. 내가 줄 텍스트를 명확성과 흐름 측면에서 개선해줘. 아주 중요하니 신중히 부탁해! 세 가지 버전으로 고쳐 쓰고, 각 버전에서 어떤 변화가 있었는지 간단한 설명을 덧붙여줘.
첫 번째 버전은 최소한의 수정(필요한 부분만)만 해줘.
두 번째와 세 번째 버전에서는 작문 교본(‘The Elements of Style’, ‘On Writing Well’ 등)의 권고사항을 적극 반영해 문장을 매끄럽게 다듬되, 두 버전이 서로 다른 스타일로 나오게 해줘.
내 텍스트는 길 수 있으니, 문단별로 차근차근 교정하되 너무 압축하지 말아줘.”
“다음 두 표현 중 어느 것이 더 적절한지 비교해줘: (1) ‘But they fall short in more substantive tasks.’ (2) ‘But they fall short of more substantive tasks.’”
3.2 고급 편집
“아래 텍스트 각 문단의 핵심 포인트를 먼저 요약하고, 이 포인트들이 어떤 논리로 연결되는지 설명해줘. 그리고 이 포인트들을 더 논리적으로 배열할 수 있는 방안을 제안해줘.”
“연구자가 원고에 예시와 비유를 추가해 가독성을 높이고 현실적 맥락과 연결 짓고자 한다고 치자. 아래 텍스트에서 주요 아이디어 3가지를 뽑아, 각 아이디어마다 3개의 예시/비유를 제안해줘.”
“다음 텍스트를 {특정 스타일}에 맞춰 다시 써줘. 텍스트: {텍스트}.”
“아래 {문단}을 {특정 스타일}에 맞춰 재작성해줘. 논문의 주요 목적이 {목적}이므로, 이 문단이 그 목적과 연구의 중요성을 좀 더 강조하도록 해주었으면 해.”
“아래 {마지막/처음} 문단을 {특정 효과}를 주도록 재구성해줄래? 5가지 대안을 부탁해.”
“연구의 더 광범위한 의미가 {의미}라고 할 때, 이를 더 잘 드러내기 위해 아래 결론을 재작성해줘. 핵심 발견과 분야에 주는 가치를 강조해주되, 명료하고 간결한 문체로 마무리해줘.”
3.3 평가 및 피드백
“톱 저널의 꼼꼼한 리뷰어가 되어 이 텍스트를 평가해줘. 각 약점을 지적하고 구체적 예시를 들어 개선점을 제시해줘.”
“비전문가 독자 입장에서, 이 원고에 사용된 전문용어나 복잡한 개념을 찾아서 지적해줘. 전체적으로 어디가 헷갈릴 수 있는지 알려주고, 좀 더 명확하게 쓰는 방법을 제안해줘.”
“유명 저널의 엄정한 리뷰어처럼 아래 원고에 대해 심사평을 작성해줘. 다음 구조를 따라줘:
- 독창성과 중요성
- 수락을 지지하는 이유
- 거부 사유: 중요한 사유를 열거하고, 각 사유에 대해 구체적으로 설명
- 개선 제안: 핵심적인 개선안 여러 개 제시, 구체적 근거를 포함
전체적으로 건설적인 태도를 유지해줘.”
Ethical and policy considerations
윤리적·정책적 고려 사항
학술 연구에서 생성형 AI 사용이 급증함에 따라, 윤리적 문제가 쟁점이 되었다. 글쓰기 측면에서 보면, 맞춤법·문법 검사나 경미한 편집 같은 전통적인 글쓰기 보조는 오래전부터 보편적으로 받아들여져 왔으므로(수준 12), AI로도 동일한 작업을 수행하는 것은 대체로 논란이 덜하다.
하지만 AI가 만들어낸 결과물(수준 35)을 논문에 그대로 반영하고도 적절한 출처 표기나 기여 고지를 하지 않는다면, AI 결과를 자칫 ‘인간 저자의 독창적 산물’처럼 오인시킬 위험이 있다(표절, 저작권 등). 많은 출판사가 “AI를 저자로 적시해서는 안 된다”고 못박고 있으며(각주 28 참고), AI가 원고 대부분을 작성한다면 저자성(authorship) 개념 자체를 뒤흔드는 문제도 생길 수 있다(각주 29).
현재로서는 AI 활용 범위를 일일이 제한하는 것은 사실상 어려우며, 결국 연구자 개개인이 책임감 있게 사실관계 검증과 윤리적·정책적 가이드라인 준수를 해야 한다.
한편 LLM 출력물의 저작권은 법적으로 애매한 상태다. Microsoft, Google 등은 자사 AI 툴 사용 시 사용자를 보호하는 정책을 내놓고 있지만, OpenAI는 기본적으로 생성된 텍스트에 대한 소유권을 사용자에게 넘긴다. 하지만 기본 설정대로라면 대부분의 AI 모델이 사용자의 프롬프트를 재학습에 활용할 수 있기 때문에, 여기에 저작권 보호 자료(논문 전문, 환자 정보 등 민감 데이터 등)를 그대로 입력하는 경우 저작권·개인정보 침해 문제를 일으킬 수 있다. 해결책으로는 ChatGPT의 “Chat history & training” 옵션을 끄거나, Perplexity AI의 “AI Data Usage”를 비활성화하여 사용자 데이터가 모델 재학습에 활용되지 않도록 하는 방법, 혹은 ChatGPT Team/Enterprise처럼 보안·프라이버시를 강화한 버전을 쓰는 방법이 있다.
LLM은 아직 확률적 특성과 ‘환각(hallucination)’ 문제 때문에, 생성 텍스트가 항상 재현 가능하지 않고, 폐쇄형 모델이 대부분이라 내부 바이어스나 오류를 완전히 파악하기 어렵다. 따라서 사용자는 모델 선정 단계에서부터 이를 충분히 감안하고, 결과물을 사실 검증하면서 사용해야 한다.
학술 논문에서 AI 사용을 어떻게 밝힐지에 대해선, 편집 서비스 수준의 간단한 수정(수준 1,2)은 굳이 의무적으로 고지하지 않는 게 일반적이었다. 그러나 AI 활용도가 넓어지면서, 투명성·재현 가능성 원칙에 따라 “기본 편집 범위를 넘는 경우에는 적절히 밝혀야 한다”는 가이드라인이 늘고 있다. 예컨대 2023년 12월, International Association of Scientific, Technical, and Medical Publishers는 “기본 저자 지원(refining, correcting, formatting, editing) 범위를 넘어가는 AI 활용은 공개를 요구해야 한다”는 내용의 백서를 발표했다(각주 30).
Outlook
미래 전망
많은 연구자는 “결과 데이터만 잘 설명해주면 되지, 매 문장마다 이토록 힘들게 글 쓰는 과정을 거쳐야 하나?”라는 바람이 있을 것이다. 본 논문에서는 학술 글쓰기에 LLM을 접목하기 위한 협업 프레임워크, 구체적인 활용 예시, 유의점 등을 논의했다. 제안된 프레임워크는 LLM이 아이디어 발굴부터 언어적 보조까지 전 과정을 지원한다는 점을 강조하며, 박스 1의 예시 프롬프트들은 ‘기본 편집’부터 ‘고차원 창의·비판적 작업’에 이르는 다양한 활용 단계를 실제로 적용하는 방법을 보여준다.
생성형 LLM을 과학 커뮤니케이션에 도입함으로써 생기는 효익 중 하나는 ‘소통 병목’이 완화되어 과학 발전이 더 빨라질 가능성이다.
결국 작가는 AI를 적절히 활용하면서도, 인간 특유의 창의성과 판단력을 유지·발전시키는 균형점을 찾아야 한다. 이 글이, AI가 제공하는 이점을 잘 살리면서도 윤리적·정책적 함정을 피하고, 더 풍부하고 완성도 높은 과학적 글쓰기를 실현하는 데 도움이 되길 바란다.
Acknowledgements (감사의 글)
이 글을 쓰는 동안, 중국 국가 중점 R&D 프로그램 STI2030 주요 과제(2021ZD0204200), 중국 국가자연과학재단(32071045), 선전(深圳) 기초연구 프로그램(JCYJ20210324134603010)의 지원을 받았다. 저자는 GPT-4(https://chat.openai.com)와 Claude(https://claude.ai)를 사용해 원고 초안 작성 및 편집(위 박스 1의 프롬프트 활용)을 진행했으며, 이후 저널 측의 Chief Editor가 Claude를 이용해 기본·구조 편집을 추가했고, 저자가 최종 검수했다.
References (참고 문헌)
- Amano, T. et al. PLoS Biol. 21, e3002184 (2023).
- Lin, Z. & Li, N. Perspect. Psychol. Sci. 18, 358–377 (2023).
- Lin, Z. R. Soc. Open Sci. 10, 230658 (2023).
- Birhane, A., Kasirzadeh, A., Leslie, D. & Wachter, S. Nat. Rev. Phys. 5, 277–280 (2023).
- Thirunavukarasu, A. J. et al. Nat. Med. 29, 1930–1940 (2023).
- Lin, Z. Nat. Hum. Behav. (인쇄 예정) https://doi.org/10.1038/s41562-024-01847-2.
- Milano, S., McGrane, J. A. & Leonelli, S. Nat. Mach. Intell. 5, 333–334 (2023).
- White, A. D. Nat. Rev. Chem. 7, 457–458 (2023).
- Golan, R., Reddy, R., Muthigi, A. & Ramasamy, R. Nat. Rev. Urol. 20, 327–328 (2023).
- Casal, J. E. & Kessler, M. Res. Meth. Appl. Linguist. 2, 100068 (2023).
- Lin, Z. Preprint at https://arxiv.org/abs/2401.15284 (2024).
- Wang, H. et al. Nature 620, 47–60 (2023).
- Dergaa, I., Chamari, K., Zmijewski, P. & Ben Saad, H. Biol. Sport 40, 615–622 (2023).
- Hwang, S. I. et al. Korean J. Radiol. 24, 952–959 (2023).
- Bell, S. BMC Med. 21, 334 (2023).
- Nazari, N., Shabbir, M. S. & Setiawan, R. Heliyon 7, e07014 (2021).
- Yan, D. Educ. Inf. Technol. 28, 13943–13967 (2023).
- Semrl, N. et al. Hum. Reprod. 38, 2281–2288 (2023).
- Chamba, N., Knapen, J. H. & Black, D. Nat. Astron. 6, 1015–1020 (2022).
- Nat. Biomed. Eng. 2, 53 (2018).
- Croxson, P. L., Neeley, L. & Schiller, D. Nat. Hum. Behav. 5, 1466–1468 (2021).
- Luna, R. E. Nat. Rev. Mol. Cell Biol. 21, 653–654 (2020).
- Merow, C., Serra-Diaz, J. M., Enquist, B. J. & Wilson, A. M. Nat. Ecol. Evol. 7, 960–962 (2023).
- Yurkewicz, K. Nat. Rev. Mater. 7, 673–674 (2022).
- King, A. A. J. Manag. Sci. Rep. https://doi.org/10.1177/27550311231187068 (2023).
- Patriotta, G. J. Manag. Stud. 54, 747–759 (2017).
- Gernsbacher, M. A. Adv. Meth. Pract. Psych. 1, 403–414 (2018).
- Lin, Z. Trends Cogn. Sci. 82, 85–88 (2024).
- Lin, Z. Preprint at https://doi.org/10.31234/osf.io/s6h58 (2023).
- Generative AI in Scholarly Communications: Ethical and Practical Guidelines for the Use of Generative AI in the Publication Process (STM, 2023).
'인공지능과 오토메이션 > ChatGPT' 카테고리의 다른 글
“A Comparative Study of ChatGPT, Gemini, and Perplexity” (0) | 2025.02.24 |
---|---|
연구학습 역량강화를 위한 생성형 AI 활용(2024.12) (0) | 2025.02.24 |
'푸딩클럽' 일러스트 프롬프트 역추정? 해보기 (2) | 2025.02.09 |
OpenAI says it has evidence China’s DeepSeek used its model to train competitor (1) | 2025.01.29 |
o1은 전통적인 “대화형 모델(Chat Model)”이 아니라, “리포트 생성(report generator)형 모델”에 가깝다. (0) | 2025.01.17 |