quick
menu

Re new
전문가 칼럼

챗GPT 편리함,
이면의 리스크를 묻다

이임복

2022년 11월 챗GPT가 출시되고 벌써 2년 넘는 시간이 지났다. 그동안의 변화는 놀라웠다. 친구처럼 대화하는 걸 넘어 자료 요약, 분석, 엑셀파일 생성, 작사, 다양한 글 작성에 이미지 생성과 영상 생성까지, 생각하는 거의 모든 것들을 챗GPT를 비롯한 생성형 AI들이 할 수 있게 됐다.
이렇다 보니 챗GPT를 잘 쓰는 사람들은 ‘GPT 없이는 일하는 걸 상상조차 할 수 없다’고 말할 정도다. 반면, 챗GPT와 간단한 인사말 말고는 해본 적 없는 사람들도 여전히 많다. 이렇게 AI 활용 격차가 벌어지다 보니, 지금이라도 따라가지 않으면 안 될 것 같은 불안감이 생긴다. 하지만 GPT가 주는 편리함에 빠지기 전에, 주의해야 할 점, 리스크부터 먼저 생각해야 한다.
이 리스크는 국가 단위의 AI 구축인 ‘소버린 AI’부터 기본소득 같은 거대한 주제까지도 연결되고, ‘어떤 AI를 써야 가성비가 좋을까’ 하는 아주 개인적인 고민까지 이어진다. 여기서는 챗GPT를 비롯한 생성형 AI를 사용할 때 꼭 생각해 봐야 할 3가지 리스크를 정리해 본다.

제대군인의 취업 고민은 무엇인가?

생성형 AI의 사용은 가성비 면에서는 최고다. 지금 이 글을 읽고 있는 여러분의 스마트폰이나 노트북이 아무리 오래된 기기라도, 우리는 최고 성능의 AI를 언제나 쉽게 이용할 수 있다.
그 이유는 간단하다. 우리가 쓰는 기기는 그냥 입력과 출력을 할 뿐이고, 진짜 연산은 저 멀리 있는 비싸고 좋은 AI 서버에서 이루어지기 때문이다.
문제는, 우리가 물어보는 어떤 질문이든 그 데이터가 전부 서버로 전송 된다는 데 있다. 그래서 기업은 물론이고 개인도 민감한 고객 정보나 개인정보를 AI에게 물어보는 건 절대 피해야 하고 조심해야 한다.

둘째, 할루시네이션(환각)이다

할루시네이션은 AI가 잘 알지도 못하면서 자신이 알고 있다고 착각하고 답하는 현상이다.
예를 들어, “퇴계 이황의 광선검에 대해 알려줘?”라고 물으면 AI는 진지하게 그럴싸한 답을 해준다. 너무 그럴듯해서 잘못하면 믿기 쉽다. 이런 할루시네이션은 완전히 없앨 수는 없지만, 줄일 수는 있다. AI 회사들이 더 비싼 컴퓨팅 파워에 투자하고 기술을 개선하면 가능하다. 그렇기에 요즘 챗GPT는 같은 질문을 던지면 “그런 건 없습니다”라고 답한다. 그럼에도 불구하고, AI가 주는 답은 언제든 틀릴 수 있다는 걸 전제로, 중요한 정보라면 반드시 크로스체크해야 한다.

셋째, 현재 상황에 대한 정확한 인식이 어렵다

대부분의 AI는 실시간으로 자신의 지식을 업데이트하지 않는다.
예를 들어 챗GPT에게 “너는 언제까지의 데이터로 학습됐어?”라고 물으면 “2024년 6월 까지의 데이터로 학습됐다”고 말한다. (물론 질문하는 시점에 따라 다르다.)
이렇게 되면, 지금 이 순간의 뉴스나 금리 변화 같은 최신 정보를 반영한 답을 받기는 어렵다. 그래서 2025년 초부터는 대부분의 생성형 AI들이 필요한 경우 직접 웹을 검색해서 정보를 가져오는 기능을 적용했다. 덕분에 최신 정보를 반영한 답변을 받을 수 있게 되었지만, 그럼에도 여전히 틀릴 가능성은 존재하므로 재확인은 필수다.

이 세 가지 외에도, 더 심각한 위기가 있다. 바로 ‘생각하지 않는 사람들’이 늘어나는 것이다. 사실 완전히 새로운 건 아니다. 인터넷이 처음 등장했을 때도, 구글 검색이 보편화됐을 때도, 위키피디아가 널리 퍼졌을 때도 한 번씩 겪었던 일이다.
지금은 챗GPT가 뭐든 해주니까, 검색도 GPT에게, 보고서 작성도 GPT에게, 칼럼 쓰기도 GPT에게, 심지어 간단한 이메일 작성까지 GPT에게 맡기는 경우가 많아지고 있다.
그러다 보니, 문의가 오면 GPT가 답변을 하고, 그 답변을 보고 또 다른 사람이 GPT에게 질문해서 다시 답변을 만드는, 일종의 GPT끼리의 대화가 벌어지는 웃지 못할 상황도 생긴다. 블로그 리뷰나 쇼핑몰 댓글도 점점 GPT가 쓴 글들로 채워지고 있다.
어떻게 해야 할까? 지금 당장 우리 모두가 GPT 사용을 멈춰야 할까? 그렇지는 않다.
이처럼 광적으로 확산되고 있는 AI의 생성물들은 언젠가는 한계에 다다르게 되어 있다.
그 이후엔 결국, 진짜 자기 생각을 담은 글을 쓸 수 있는 사람들, 자기만의 결과물을 만들어낼 수 있는 사람들, ‘오리지널리티’를 가진 사람들이 주목받게 될 수밖에 없다.
챗GPT가 나오기 전에도 많은 사람들이 학교 과제나 보고서를 인터넷에서 짜깁기했다. 어차피 검색하면 찾을 수 있는 답이라면, 문제를 바꾸면 된다. GPT의 도움을 받더라도, 그걸 스스로 이해했는지 확인할 수 있는 방식으로 질문을 바꾸면 된다

전문가 칼럼

그렇다면 GPT를 쓰는 사람들은 어떻게 해야 할까?

무작정 GPT에게 모든 걸 맡기면, 생각하고 판단하는 힘을 잃게 된다.
그래서 GPT에게 맡기기 전에, 먼저 스스로 한번 생각해 보고 정리해 보는 과정이 필요하다.
예를 들어 글을 쓰고 싶다면, 먼저 글의 뼈대를 스스로 만들고 전체 흐름을 생각해 본 뒤, 자료 검색이나 정리 같은 부분만 GPT의 도움을 받는 식이다.

챗GPT가 주는 편리함의 시대

정말 생성형 AI를 ‘잘 쓰는’, 그리고 스스로 생각할 줄 아는 사람이 되기 위해선, 지금보다 더 많이 경험하고, 더 많이 생각하고, 더 자주 써봐야 한다.
생각하는 힘은 결국, 스스로 써보고 부딪혀보는 데서 자란다.

글쓴이 소개 이임복
현) 세컨드브레인연구소 대표, 인터렉티브북스 대표, 한국경제인협회 MWC 모더레이터, 한국금융연수원 겸임교수, 유튜브 일상 IT 운영자

미디어 로그전자발찌 착용자를 24시간 밀착 감시하는
범죄 예방의 최전선
무도실무관
뜻있는 여정전쟁의 기억 위에 핀
삶과 평화의 동산, 마추픽추
부산