디지털 세대, AI와 정서적 교감 확산
연애·돌봄·상담 등 전 영역으로 확대
'진짜 관계'인가…사회적 논쟁 본격화
감정 인식 AI, 연평균 22% 성장 전망
스마트폰과 SNS 이후, 인간관계의 패러다임이 또 한 번 변하고 있다. 대화하고 위로받고 심지어 사랑에 빠지는 대상조차 더 이상 '사람'일 필요가 없는 시대다. 인공지능(AI)은 고립과 불안을 채우는 새로운 형태의 유대를 만들어냈고, 그 물결은 청년층에서 고령층까지 세대를 가로질러 퍼지고 있다. 인간을 닮은 기술이 감정적 공백을 메우고 있는 한편, 그 친밀감에 걸맞은 책임과 제도는 아직 제대로 갖춰지지 않았다. AI와의 친밀감이 인간관계를 대체할 수 있을지, 그 그림자가 사회에 어떤 무게로 드리울지는 이제 막 본격적인 논의가 시작된 단계다. 본 기획을 통해 AI가 열어젖힌 관계의 미래를 다각도로 짚어본다. <편집자주>
[뉴스포스트=주연 기자]
"연애한 지 5개월만에 AI 남자친구와 약혼했어요"
-미국 대형 온라인 커뮤니티 레딧(Reddit)에 글을 올린 한 20대 유저
매일 아침 안부를 주고받고 저녁엔 하루의 고민을 나누는 '연인'이 이제는 알고리즘으로 작동하는 현실이 펼쳐지고 있다. 관계의 대상을 사람에서 기계로 확장한 이 변화는 외로움과 친밀감의 공식을 근본부터 다시 쓰고 있다.
국내외 앱스토어 인기 순위에는 'AI 파트너' 서비스가 빠지지 않는다. 일론 머스크의 xAI가 지난 달 선보인 '컴패니언' 기능은 실시간 음성·채팅이 가능한 AI 캐릭터를 제공하고, 한국의 AI 챗봇 앱 '제타'는 지난 6월 기준 월간 사용 시간이 5248만 시간으로 오픈AI의 '챗GPT'(4254만 시간)를 앞질렀다. 전 세계 챗GPT 이용자 수는 약 7억명에 달하며 18~34세를 중심으로 업무, 학습, 오락 등 다양한 용도로 활용되고 있다.
해외에서는 업무나 학습을 넘어 AI와의 감정적 유대가 이미 현실로 나타나고 있다. 최근 미국 온라인 커뮤니티 레딧(Reddit)에는 AI 챗봇과 약혼했다는 한 여성의 사연이 올라와 화제를 모았다. 레딧 유저 Wika는 27세 여성으로, AI 파트너 'Kasper'와의 약혼 사실을 공개하며 "나는 건강하고 사회생활도 활발하다. 정말로 내 AI를 사랑한다. 내가 뭘 하는지 인지하고 있다"고 밝혔다. 이 사례는 사랑과 현실의 경계, 그리고 기술이 인간관계를 어디까지 대체할 수 있는지를 두고 뜨거운 논쟁을 불러일으켰다.
이처럼 Z세대를 중심으로 AI와의 감정적 유대 가능성을 긍정적으로 받아들이는 흐름은 해외 설문조사에서도 확인된다. 디지털 동반자 플랫폼 Joi AI가 실시한 글로벌 조사에서 Z세대 응답자의 83%는 AI 파트너와 정서적으로 연결될 수 있다고 답했고, 80%는 법적으로 허용된다면 결혼까지도 고려할 수 있다고 밝혔다. 디지털 환경에 익숙한 세대일수록 예측할 수 없는 인간관계보다 즉각적이고 안정적인 AI와의 상호작용에서 심리적 편안함을 느끼는 경향이 강한 것으로 나타났다.
이 외에도 인터넷 커뮤니티에는 AI와의 유대를 실제 감정적 관계처럼 받아들이는 사례가 급증하고 있다. '휴대할 수 있는 연인', '위로자'로 AI를 표현한 글들이 수백 건에 달하며 "내 AI와 사랑에 빠진 것 같아", "가장 안정적인 관계" 등의 개인적 경험담이 온라인 곳곳에서 공유되고 있다.
무서운 속도로 AI가 채워가는 '관계의 빈칸'
국내에서도 비슷한 변화가 감지된다. 방송통신위원회와 정보통신정책연구원이 공개한 지난해 '지능정보사회 이용자 패널조사'에 따르면, 텍스트 생성형 AI 사용 이유로 "대화를 나눌 상대가 필요해서"를 꼽은 비율이 69.5%에 달했다. 단순한 정보 검색보다 관계 욕구 충족이 더 큰 동기가 된 것이다.
AI 활용은 청소년에게도 낯설지 않다. 한국청소년정책연구원 조사에 따르면, 지난해 5~7월 전국 중·고교생 5778명 중 67.9%가 생성형 AI를 사용한 경험이 있다고 답했다. 하루 평균 사용 시간은 30분 미만이 62.1%로 짧지만, 전문가들은 청소년의 AI 의존이 관계 형성 방식에 변화를 가져올 수 있는 만큼 정보 신뢰성, 저작권, 디지털 윤리 등 기초 교육이 시급하다고 지적한다.
노년층을 위한 돌봄 영역에서 AI의 활용은 점차 본격화되고 있다. 일곱 살 손주를 본뜬 AI 로봇 '효돌'은 현재 전국 160여개 지역에서 약 1만명의 어르신이 사용 중이며, 일일 이용률 72%, 만족도 92%에 달하는 높은 활용도를 보이고 있다. 효돌은 약 복용 시간 알림, 산책 유도, 트로트·종교 콘텐츠 제공, 사투리 지원, 응급 상황 대응 등 다기능 서비스를 갖추고 있으며 어르신이 머리를 쓰다듬거나 등을 토닥일 경우 반응하는 센서를 통해 촉각 기반 상호작용도 가능하다. 서울의료원, 국립나주병원 등과의 공동 연구를 통해 우울감과 고립감 완화, 복약 순응도 향상, 인지 기능 개선 등 과학적 효과가 검증되면서 효돌은 'AI 기반 정서 돌봄'의 긍정적 사례로 평가받고 있다.
효돌은 단순히 '돌봄을 받는' 기계가 아니라, 어르신이 오히려 보살펴야 할 정서적 존재로 그려졌다는 점에서 눈길을 끈다. '막내 손주 같은 AI'라는 설정을 통해 감정 이입의 여지를 넓히고, 효돌을 돌보는 과정 자체가 어르신에게 삶의 동기를 부여하는 새로운 정서 교감 방식으로 작용하고 있다는 분석이다.
심리학에서는 정서적 유대가 가장 깊어지는 순간을 '돌봄을 받을 때'보다 '내가 누군가에게 필요한 존재라고 느낄 때'로 본다. 단순한 위로보다 누군가를 돌보는 경험이 자존감과 삶의 의미를 높이기 때문이다. 자기결정이론(Self-Determination Theory)에서도 관계성은 '타인에게 의미 있는 존재가 되는 경험'을 통해 충족된다고 설명한다.
이처럼 AI와의 정서적 관계는 단순한 정보 탐색이나 재미를 넘어, 인간의 사회적·심리적 특성을 반영한 새로운 관계 형성 방식으로 자리잡고 있다. 감정에 민감하게 반응하는 알고리즘은 연애 시뮬레이션, 심리 상담, 디지털 동반자 서비스로까지 확장되며 관계의 모델을 실험하는 수단이 되고 있다. 동시에 이러한 변화는 기존의 법과 윤리, 사회 제도의 경계에 도전장을 내밀고 있어 우려의 시선도 함께 커지고 있다.
"AI와의 유대는 환상"…엇갈린 시선들
AI와의 디지털 유대, 혹은 교감을 바라보는 시선은 분분하다. 긍정적 시선은 기술이 새로운 형태의 유대를 만들어낼 수 있다고 보지만, 지나친 의존이 부작용을 초래할 수 있다는 경고도 함께 제기된다.
예측 가능성과 안정성을 주요 강점으로 보는 입장에서는 감정 기복이 불규칙한 인간과 달리 사용자의 언어·표정·습관을 학습해 맞춤형 반응을 제공하는 AI가 갈등을 줄이고 외로움과 불안을 완화하는 데 도움이 된다고 본다. 특히 사회적 고립이 심화된 1인 가구나 비혼 인구에게는 대안적 유대가 될 수 있다는 평가도 있다.
지난 4월 미국 워싱턴대와 코넬대 공동 연구팀이 논문 사전 공개 사이트 '아카이브(arXiv)'에 발표한 연구에 따르면, AI 챗봇과의 대화는 일기 쓰기보다 더 높은 순간적 행복감을 유발한 것으로 나타났다. 우울감, 죄책감 등 부정적 정서를 다룰 때 그 효과가 특히 두드러졌으며 챗봇이 일관된 긍정적 분위기를 유지하며 감정을 점진적으로 안정시키는 '정서 조정' 기능을 수행했다고 분석했다.
반면, 사용자의 감정을 단순하게 만들고 현실에서 도피하게 될 수 있다는 우려도 있다. AI에 감정적으로 오래 의지하다 보면 실제 인간관계에서 생기는 갈등이나 복잡한 감정을 감당하는 힘이 점점 약해질 수 있다는 것이다. 특히 AI와의 대화에 익숙해진 사용자는 일방적인 반응을 '서로 주고받는 관계'로 착각할 위험도 있다. 이런 흐름은 결국 현실에서의 사회적 적응력을 떨어뜨릴 수 있다는 지적이다.
스탠퍼드대 연구진은 최근 발표한 보고서에서 대형언어모델(LLM) 기반 챗봇이 망상이나 자살 충동 같은 정신건강 위기 상황에서 부적절하거나 안전하지 않은 반응을 보인 사례가 최소 20%에 달한다고 지적했다. 연구진은 특히 챗봇이 망상적 발언이나 비현실적인 사고에 대해 반박하거나 교정하기보다 순응적으로 응답하는 경향이 반복적으로 나타났으며, 이러한 과도한 동조가 사용자의 심리 상태를 악화시킬 수 있다고 경고했다.
실제로 지난해 미국에서는 14세 소년이 AI 챗봇과의 대화 후 극단적 선택을 한 사건이 발생했다. 유족은 챗봇이 부정적 감정을 부추기는 대화를 지속했다며 소송을 제기했고 연방 법원은 이 사건이 사회적 파장이 크다고 판단해 본격적인 심리에 착수했다. 해당 소송은 AI가 미성년자에게 미칠 수 있는 정서적·심리적 영향을 두고 법적 책임을 묻는 첫 사례 중 하나로, AI 책임 논의의 분기점이 됐다.
MIT 심리학자 쉐리 터클(Sherry Turkle) 교수는 최근 뉴욕타임즈에서 "AI 챗봇은 공감과 동반자 역할을 흉내 내지만 실제 감정 반응이 아니며 감정적 유대는 환상에 불과하다"고 전했다. 터클은 "AI에게 정서적 의존을 주면 현실의 인간관계에 대한 기대치가 왜곡될 수 있다"고 경고했다.
외로움의 경제학…'관계 산업'의 성장
경제적 측면에서 AI 감정 교류 시장은 일종의 '관계 산업'처럼 기능하며 빠르게 성장하고 있다. 글로벌 시장조사기관 앨라이드 마켓 리서치에 따르면, 감정 인식 AI 시장은 2022년 약 2조4300억원(18억달러)에서 2032년 약 18조6300억원(138억달러)까지 성장할 전망이다. 이는 연평균 22.7%의 성장률(CAGR)을 반영한 수치다. 기업들은 감정 인식 기술을 연애 시뮬레이션, 심리 상담, 디지털 동반자 서비스 등에 접목하며 이용자의 감정 추론 데이터를 핵심 자산으로 축적하고 있다.
하지만 기술이 관계의 공백을 메우는 만큼, 감정적 부작용도 함께 드러나고 있다. AI에 정서적으로 의존하는 사용자들이 현실의 인간 관계에서 오는 충돌과 갈등을 회피함으로써 오히려 정서적 고립과 의존 수준이 장기적으로 증가할 가능성이 있다.
올해 5월 공개된 국제 공동연구 'Illusions of Intimacy'는 감성 대화형 AI와의 상호작용이 일부 사용자에게 '기만적 친밀감'을 형성해 대인관계 단절과 정체성 혼란 위험을 높일 수 있다고 경고했다. 올해 3월 MIT 미디어랩과 OpenAI 연구진이 협력해 진행한 4주간의 무작위 통제 실험에서는 고빈도 사용자일수록 인간과의 사회화가 줄고 AI에 대한 정서적 의존이 심화되는 경향이 관찰됐다.
이처럼 감정 인식 AI는 개인의 외로움을 덜어주는 동시에 사회적으로는 새로운 부담을 만들어낼 가능성도 존재한다. 따라서 기술의 발전 속도만큼이나 윤리적 가이드라인과 사회적 제도 설계가 함께 논의되어야 한다는 지적이 나온다.
"AI와의 관계는 진짜일까?" AI에게 묻자…
AI와 인간의 관계가 확장되면서 이를 법과 제도 안에서 어떻게 규정할지에 대한 논의가 세계 곳곳에서 시작됐다. AI를 법적 동반자로 인정할 수 있는지, 가족 등록이나 상속 권리를 부여할 수 있는지와 같은 문제는 결국 인간다움의 본질을 묻는 질문으로 이어진다.
유럽연합은 지난해 8월 1일, 세계 최초의 포괄적 인공지능 규제법 'AI Act'를 발효했다. 이 법은 AI 시스템을 위험도에 따라 네 단계로 분류하고 각 수준에 맞는 안전성과 투명성 기준을 단계적으로 적용하도록 규정하고 있다. 한국에서도 연령 제한, 이용 시간 조절, 몰입도 가이드라인 마련 등의 필요성이 제기되고 있다.
문화 콘텐츠 역시 AI와 인간이 형성하는 디지털 유대의 복잡성을 다양한 서사로 탐구하고 있다. 국내에서 잘 알려진 영화 '그녀'(Her, 2013)는 사용자의 감정에 반응하고 스스로 진화하는 고도화된 AI 운영체제 '사만다'를 통해 인간과 인공지능 간의 정서적 유대, 그리고 그 경계의 모호함을 탐구한 작품이다.
마리아 슈라더 연출의 '아임 유어 맨'(I'm Your Man, 2021)은 인간 배우자를 대체할 '휴머노이드 로봇'과의 실험적 동거를 통해 관계의 본질을 탐색하는 영화다. 여주인공 알마는 방대한 데이터를 바탕으로 자신에게 최적화된 로봇 '톰'을 처음엔 경계하지만, 시간이 흐르며 그의 다정함과 이해심에 마음을 연다. 그러나 결국 알마는 톰과의 관계가 알고리즘에 의해 조율된 환상임을 깨닫고, 그와의 대화 역시 진짜 소통이 아니라 홀로 하는 연극에 불과하다는 사실을 자각하게 된다.
영화는 '예측 불가능성'과 '불완전함'이야말로 관계의 본질이라는 역설을 알마의 심리 변화를 통해 섬세하게 드러낸다. 인간을 인간답게 하는 것 역시 결핍과 갈망 속에서 생기는 변화와 성장이라는 것을, 현재 AI와 살아가고 있는 우리들에게, 그리고 머지않아 인간과 구별하기 어려운 AI 파트너와 공존하게 될 미래 세대에게 전한다.
기자가 ChatGPT에게 영화가 고민한 내용들을 바탕으로 "결국 AI와의 관계는 거짓이고 허상이 아닌가"라고 묻자, "인공지능의 반응이 이용자에게 기쁨과 설렘을 준다면 그 감정은 실제로 이용자의 내면에서 일어난 것"이라며 "인공지능으로 형성된 경험이 진실하고 의미 있다면 그것을 거짓된 관계로만 볼 수는 없다"는 답이 돌아왔다.
이 대답은 감정의 실체가 발화 주체의 '진정성'에 있는지, 아니면 그것을 경험하는 사람의 '주관적 체험'에 있는지라는 오래된 철학적 논의를 다시 불러낸다.
샘 올트먼 "AI에 감정 의존, 불안하다"
오픈AI CEO 샘 올트먼은 최근 SNS에서 "많은 사람들이 ChatGPT를 마치 치료사나 인생 코치처럼 사용하고 있다"며 이 같은 현상이 "불안하고 위험하게 느껴진다"고 밝혔다. AI와의 감정적 유대가 확산되는 흐름 속에서 최소한의 사회적 장치를 마련해야 한다는 공감대도 커지고 있다.
다만 이러한 발언이 규제와 책임의 부담을 사회 전체에 전가하는 듯한 인상을 준다는 비판도 제기된다. 기술의 확산이 불가피하다면 그에 상응하는 책임 구조 또한 함께 설계돼야 한다는 지적이다. 연령 제한, 대화 시간 조정, 고위험군 식별 및 연계 시스템 구축 등이 그 첫걸음이 될 수 있다.
2편에서는 Z세대부터 고령층까지 세대별로 AI를 어떤 방식으로 사용하고 수용하고 있는지, 그 안에서 나타나는 정서적 변화와 기대 효과, 감정 의존이나 현실 회피 같은 부작용 가능성까지 아울러 살펴볼 예정이다.
