You are here

AI가 하지 못하는 것 – 학술 출판에서 인간의 통찰력이 왜 중요한가

Nisha Nair | 2025년6월27일 | 조회수 529
AI와 인간 – 학술 출판에서 인간 상호작용의 역할

예상대로 AI는 놀라운 속도로 다양한 산업과 워크플로에 통합되고 있습니다. 학술 출판계도 예외는 아니죠. AI 기반 시스템은 단 몇 분 만에 연구 논문을 스캔하여 잠재적으로 의심스러운 데이터를 놀라운 정확도로 발견합니다. 다양한 요구 사항에 따라 맞춤형으로 시스템을 설계할 수도 있죠.

이렇듯 시스템의 효율성은 놀랍고 능력도 무한해 보입니다. 그런데 이것만으로도 충분한 걸까요? 단순히 연구 논문의 데이터 강건성(robustness)을 평가할 수 있는 것만으로는 충분하지 습니다. 출판된 내용이 기술적으로 단순히 ‘정확’한 것뿐 아니라, 학술적 논의 속에서 진정한 의미와 중요성을 지니는지 확인해야 하기 때문입니다.

 

변화의 물결 속에서 구원자로 등장한 AI

최근 수년간 제출된 연구 논문의 양이 전례 없이 급증하는 추세를 보임에 따라 학술 출판사들은 여러 새로운 도전 과제와 마주하게 되었습니다. 증가한 업무량과 이것이 에디팅 업무와 피어리뷰에 미치는 영향을 관리하는 것이 아주 중요해졌죠. 더불어 윤리적 딜레마로 가득한 환경에서 연구 출판물의 질과 신뢰성을 유지해야 하는 필요성도 중요하고요. 특히 논문 공장(paper mill) 같은 비윤리적 관행의 위협이 증가하고 있는 요즘은 더욱더 그러하죠.

여러 우려가 늘어남에 따라 AI의 활용이 학술 출판 분야에서 빠르게 확산하고 있습니다. 이에 따라 많은 출판사가 효율성을 높이고, 서비스에서의 혁신을 추구하며, 투고 과정을 간소화하고, 피어리뷰 프로세스의 유효성을 높이기 위해 AI를 기반으로 하는 도구와 워크플로를 단순히 탐색하는 것을 넘어 적극적으로 도입하고 있죠. 이는 편집부가 더 구체적인 정보에 기반하여 의사 결정을 할 수 있게 해 주며 출판사가 경쟁력을 유지할 수 있도록 돕습니다. AI를 통해 학술 출판사들은 저자와 독자에 대한 지원을 확대하고자 출판 워크플로에 대한 전반적인 접근 방식의 변화를 고민하고 있습니다.

 

하지만 큰 그림에서 바라보면…

학술계에서 AI의 능력을 적극적으로 활용하기 시작함에 따라 우리는 이러한 질문을 던져봐야 합니다.

‘지금 우리는 효율성과 인간 통찰력의 가치를 교환하고 있는 건 아닐까?’

예컨대 최근의 피어리뷰를 생각해 보면, 피어리뷰는 연구 출판의 핵심 요소가 되었지만 최근 수년 동안 해당 프로세스에 대한 비판 여론이 점점 커지고 있죠. 제출되는 논문의 수가 증가함에 따라 피어리뷰 프로세스에 가해지는 부담도 점점 커지고 있고요. AI 도구는 표절 탐지나 윤리 준수 서약 등 특정 작업의 속도를 높여 피어리뷰 프로세스를 개선할 잠재력을 지니고 있습니다. 특정 작업을 자동화하면 인간 리뷰어는 더 깊이 있고 건설적인 피드백을 제공하는 데 집중할 수 있습니다.

하지만 AI에 과도하게 의존하면 ‘자동화 편향(automation bias)’과 같은 문제를 초래할 수 있습니다. 리뷰어가 AI의 결과물에 과도하게 의존하여 리뷰 능력이 저해되는 현상을 말합니다. 이렇듯 중요한 작업이 인간의 충분한 개입 없이 자동화 시스템에만 맡겨진다면 리뷰의 질과 엄격함이 떨어질 위험이 있으며 잠재적으로는 피어리뷰 시스템의 신뢰도를 해칠 수 있습니다.

연구 진실성(research integrity)은 학계 전반에서 논의되는 또 다른 주제 중 하나입니다. 논문의 과학적 엄격함을 평가하는 과정에는 잠재적 표절, 이미지 조작, 부적절한 표현 등 다양한 요소가 포함됩니다. 이러한 문제들을 찾아낼 수 있는 AI 기반 도구가 다수 있지만, 현재 AI에는 연구 진실성 위반 여부를 최종적으로 입증할 수 있는 능력이 없습니다. 그렇기에 각 우려를 평가하고 해당 문제가 즉각적인 거절 사유가 되는지 아니면 수정 가능한 경미한 위반 사항인지 판단하기 위한 인간의 개입은 필수적입니다.

고려해야 하는 또 다른 중요한 부분은, AI가 주로 훈련된 데이터에 기반 기능한다는 점입니다. 즉, 이미 알고 있는 데이터로만 처리할 수 있다는 뜻이죠. 반면 인간은 그 너머까지 사고할 수 있습니다. 연구를 평가할 때, 주제의 정성적 평가, 미묘한 차이들, 기존 문헌 및 해당 분야의 발전에 대한 기여는 무척 중요한 요소입니다. 여기에는 기계가 제공할 수 없는 창의성과 통찰력이 필요하죠. 따라서 AI는 많은 야에서 도움을 줄 수 있지만, 인간이 제공하는 경험과 이해의 깊이를 재현할 수는 없습니다.

편향은 또 다른 장애물입니다. AI 시스템에는 훈련에 사용된 데이터와 알고리즘에 내재한 편향과 결함이 반영될 수 있습니다. 훈련 데이터에 결함이 있거나 편향성이 있다면, AI가 생성하는 결과물에도 이것이 반영되어 편향되거나 잘못된 결정을 내놓을 수 있습니다. 또한 AI의 ‘블랙박스’적 특성, 즉 의사결정 과정이 투명하게 드러나지 않는 점도 무시할 수 없습니다. 투명성 부족은 책임 문제에 대한 심각한 질문을 부상시킵니다. 결국 AI 시스템이 오류를 낸다면 그 책임은 누구에게 있는 걸까요? 그리고 재현성 측면에서, AI의 데이터나 알고리즘에 발생하는 변화가 결과물에 어떤 영향을 미치는지 어떻게 알 수 있을까요?

 

경쟁 관계가 아닌 협력 관계에 있는 AI와 인간

AI는 출판 과정에서 그 가치를 성공적으로 입증하며 장기적으로 자리하게 될 것임을 보여주고 있습니다. 하지만 기술 발전과 인간의 감독 사이에서 균형을 찾는 일은 여전히 중요한 과제입니다. 이것을 ‘인간 대 AI’라는 대립적 구도로 보기보다는, ‘인간과 AI’로서 서로의 강점을 결합하는 협력 관계로 보는 것이 더 적절할 겁니다. AI는 반복적인 작업을 놀라운 속도와 정확성을 처리하는 효율성 측면에서 타의 추종을 불허하지만, 세심한 주의력과 통찰력 있는 관찰력과 같이 인간에게만 존재하는 특성은 없습니다. 이러한 특성들 덕분에 인간은 미묘한 차이를 인식하고, 창의적으로 생각하며, 복잡한 정보를 심도 있게 이해하며 혁신을 주도해 나갈 수 있는 것입니다.

 

더 읽어 보기

[인터뷰] 마리아 마차도 박사가 설명하는 AI 기술과 피어리뷰 동향

학술 논문에 AI 도구를 윤리적으로 사용하는 법

연구를 위한 AI 도구: 스마트하고 책임감 있게 연구에  AI 도구를 사용하는 방법

 

스크랩하기

해당 기사를 스크랩해보세요!

지식은 모두에게 함께 공유되어야 한다는 것이 에디티지 인사이트의 이념입니다. 해당 사이트에서 제공되는 모든 기사는 Creative Commons license로 재포스팅 및 스크랩이 가능합니다. 아래의 가이드라인만 유념해주신다면 언제든지 무료로 에디티지 학술 전문가의 지식을 가져가실 수 있습니다!


  • 주의 : 에디티지 학술 전문가들은 해당 콘텐츠를 만들기 위해 많은 시간과 노력을 쏟고 있습니다. 기사를 스크랩 및 재포스팅 하실 때는 명확한 출처를 남겨주시기 바랍니다.
  • 이미지 재사용: 이미지를 원본이 아닌 편집 재사용하실 때는 에디티지 인사이트의 허가가 필요합니다.

코드를 복사하셔서 기사 공유를 원하시는 사이트에 적용하시면 에디티지 인사이트 기사를 가장 쉬운 방법으로 공유하실 수 있습니다.
 
위 코드를 복사하시어 원하시는 곳에 다시 포스팅 하실 수 있습니다.

Comments