AI 챗봇 너무 자주 쓰면 바보 된다? 과학자들 우려 제기
- 7시간 전
- 2분 분량

대형 언어모델(LLM)인 챗봇을 사용하는 것이 인간 고유의 사고 방식과 표현의 다양성을 약화시킬 수 있다는 우려가 제기됐다.
최근 과학자들과 심리학자들이 공동 집필한 의견 논문에 따르면, ChatGPT와 같은 인공지능 챗봇의 확산이 사람들의 사고와 의사소통 방식을 점점 더 비슷하게 만들 수 있다는 지적이다.
논문의 제1 저자인 지바 수라티(USC 컴퓨터과학자)는 “사람들은 글을 쓰는 방식과 추론하는 방식, 세상을 바라보는 관점이 서로 다르다”고 설명했다. 이어 “그러나 이러한 차이가 동일한 LLM을 통해 중개될 경우, 개인 고유의 언어 스타일과 관점, 사고 전략이 점점 획일화될 수 있다”며 “결국 사용자들 사이에서 표현과 생각이 점점 표준화되는 결과를 낳을 수 있다”고 덧붙였다.
이 논문은 수억 명의 사람들이 전 세계적으로 동일한 소수의 챗봇을 사용하고 있는 현실이 개인의 개성과 사고 다양성에 어떤 영향을 미칠 수 있는지를 분석했다. 연구 결과는 학술지 'Trends in Cognitive Sciences' 최신호에 11일 게재됐다.
여론조사 기관 퓨 리서치센터에 따르면 지난해 미국인의 약 3분의 1이 ChatGPT를 사용한 경험이 있는 것으로 나타났다. 이는 2023년보다 두 배 증가한 수치다.
특히 청소년층에서는 챗봇 사용이 훨씬 더 일반적이다. 조사 결과 청소년의 약 3분의 2가 챗봇을 사용하고 있으며, 이 가운데 약 3분의 1은 매일 이용한다고 답했다.
기업들의 인공지능 도입도 빠르게 확대되고 있다. 스탠포드 대학 연구에 따르면 2024년 기업의 78%가 AI를 활용하고 있다고 답했으며, 이는 2023년의 55%에서 크게 증가한 수치다.
이처럼 AI 사용이 급증하는 가운데 연구진은 사람들의 사고 방식 다양성이 줄어들 수 있다는 점을 가장 큰 위험 요인으로 지목했다. 연구팀에 따르면 LLM이 생성하는 글은 인간이 스스로 작성한 글보다 표현의 다양성이 상대적으로 낮은 경향을 보인다.
논문 저자들은 이러한 획일화 현상의 배경으로 AI 학습 데이터의 특성을 꼽았다.
수라티 박사는 “LLM은 학습 데이터에 나타나는 통계적 패턴을 포착하고 재현하도록 설계돼 있다”며 “하지만 이 데이터는 지배적인 언어와 이념이 과도하게 반영된 경우가 많다”고 설명했다.
이어 “그 결과 AI가 만들어내는 내용 역시 인간 경험의 일부 편향된 단면만을 반영할 가능성이 있다”고 지적했다.
<김기춘 기자>





댓글