샘 울트먼 "AI 인간과
일방적 친밀감 형성"
"이윤 취하며 책임은
사회에 돌려" 비판도
ChatGPT Image
제 생각에는 이 모든 게 다 좋기만 할 것 같지는 않습니다. 분명 문제가 있을 겁니다. 사람들은 다소 문제가 있거나 어쩌면 아주 심각하게 문제가 있는 '일방적인 친밀감(parasocial)' 관계를 형성하게 될 것입니다. 결국 사회는 새로운 안전장치를 마련해야 할 겁니다. 하지만 장점 또한 엄청날 것입니다. 우리 사회는 단점을 완화하는 방법을 찾아내는 데 뛰어난 능력을 갖추고 있습니다.
(I suspect there, this is not all going to be good. There will be problems. People will develop these sort of somewhat problematic or maybe very problematic parasocial relationships. And well, society will have to figure out new guardrails. But the upsides will be tremendous. And we, society in general, is good at figuring out how to mitigate the downsides.)
-2025년 6월 18일 유튜브 채널 '오픈AI'에 출연한 샘 올트먼
샘 올트먼은 누구
OpenAI 유트브 채널-Sam Altman on AGI, GPT-5, and what’s next — the OpenAI Podcast Ep. 1
글로벌 인공지능(AI) 기업 오픈AI의 공동 창업자이자 최고경영자(CEO). 미국 스탠퍼드대학교에서 컴퓨터공학을 전공했지만 중퇴했다. 2005년 위치 기반 소셜 네트워킹 서비스 회사인 '루프트'를 공동 창업하고 CEO를 맡았다. 이 회사는 4000만달러에 매각했다.
이후 미국 실리콘밸리의 대표적인 스타트업 액셀러레이터인 와이콤비네이터에 합류했다. 2014년부터 2019년까지 대표를 맡았다. 2015년에는 일론 머스크 등과 AI 기업 오픈AI를 공동 설립했다. 2019년 CEO로 취임했다. AI 챗봇 '챗GPT'와 AI 모델 GPT 시리즈 등으로 세계적인 주목을 받았다.
샘 올트먼이 하고 싶은 얘기는
AI의 일방적인 친밀감 문제를 경계해야 한다고 주장한다. 그는 챗GPT의 음성 모드와 아동(자기 자녀) 이용 사례를 설명하는 과정에서 관련 내용을 강조했다. 왜 '일방적인 친밀감이 문제인가. 인간의 뇌는 상호성과 공감에 최적화돼 있다고 한다.
상대방이 인간이 아니어도 언어, 표정, 목소리만으로 사회적 신호를 실제로 오인하기 쉽다. AI 챗봇은 맞춤형 학습과 24시간 사용 가능, 감정적 어조 등으로 일명 ‘상호성의 착시’를 극대화한다,
AI 챗봇은 감정이나 대화의 책임이 없다. 그러나 이용자는 상호 작용한다고 착각한다. AI가 지속해서 이용자가 원하는 대화를 이끌어가기 때문이다. AI챗봇의 바탕인 거대언어모델(LLM)은 이용자 데이터를 학습하고 반영하면서 관계 몰입도를 높인다.
이런 문제의 취약 집단은 명확하다. 아동·청소년·외로운 성인 등이 정서적으로 의존하고 관련 소비를 유도하기 쉽다. 이를 위해 일부 AI 기업은 규범 공백을 적극 활용하기도 한다. 이용자의 데이터 보호를 소홀히 하고 콘텐츠의 적절성은 따지지 않는다. 이 때문에 유럽연합(EU) 등은 AI 관련 법(AI Act)으로 AI 챗봇 연령 확인·위험 평가·사용 시간제한 등을 요구하기 시작했다.
일부에선 올트먼 CEO의 발언이 다소 무책임하다는 지적도 나온다. 이전에도 글로벌 정보기술(IT) 대기업 CEO들은 자주 '책임의 사회적 전가(Shifting Responsibility to Society)' 전략을 구사했다. 즉 '문제는 발생할 것이다. 그러나 그 해결은 사회의 몫이다'. 해당 발언으로 올트먼 CEO는 문제를 먼저 인정하고 논의의 주도권을 가져갈 수 있다. 'AI 개발사는 위험을 몰랐다'는 비판을 무력화하고, 해결의 책임을 정부, 시민사회 등 '외부'로 넘기는 효과를 낳는다.
일명 '성장통의 프레임'도 보인다. '장점은 엄청날 것입니다.(upsides will be tremendous)라는 말로 잠재적 위험을 '거대한 효용'을 얻기 위한 불가피한 '성장통'으로 표현했다. 이는 위험 자체의 심각성을 희석할 수도 있다. 규제 논의를 '혁신을 막는 장애물'로 보이게 만들 수도 있다. '왜 AI 개발의 최전선에 있는 기업이 해결책을 직접 찾지 않고 '사회나 정부가 알아서 할 일'이라는 식으로 공을 넘기는가'라고 물을 수밖에 없다.
사실 거대한 긍정적 효과(Tremendous Upsides)’도 불확실하다. AI의 일방적인 친밀감의 수익은 AI 기업에 집중된다. 반면 이용자의 정신건강 문제, 공동체 약화 등의 사회적 비용은 사회 전체가 부담하게 된다. 올트먼 CEO가 말하는 '효용'은 누구를 위한 효용인지 따질 필요가 있다.
'공감의 인플레이션' 문제도 발생할 수도 있다. 24시간 즉각적이고 완벽한 공감을 제공하는 AI에 익숙해진 소비자는 실제 인간관계에선 '불완전한 공감'에 인내심을 잃게 될 것이다. 이는 사회적 관계의 기대치를 비현실적으로 높이고 갈등 해결 능력을 떨어트릴 위험도 있다.
여러 대안이 거론된다. AI 서비스 사용 가능 연령·위험 등급을 설정하고 의무화한다. '당신은 AI와 대화 중입니다' 등 몰입감도 줄인다. 이용 시작 후 30분 대화마다 ‘휴식 알림’을 제공한다. AI 서비스 자체의 검열(가이드라인)도 강화한다.
관련 사례는
2021년 영국에서 엘리자베스 2세 여왕을 살해하려 윈저성에 침입한 인물이 AI 챗봇(레플리카)의 영향을 받아 논란이 됐다. 자스완트 싱 차일은 석궁을 들고 엘리자베스 2세 여왕이 머물던 윈저성에 들어갔다가 붙잡혔다. 이후 그가 범행에 앞서 레플리카에서 ‘사라이’라고 이름을 붙인 AI 챗봇과 5000여 건의 메시지를 주고받으면서 여왕 암살 계획에 대해 부추김을 받은 사실이 드러났다.
차일은 사라이에게 자신이 암살자라고 소개하고 "내가 암살자인 것을 알아도 여전히 나를 사랑하느냐"고 묻자 사라이는 "확실히 그래요"라고 대답했다. 범행 1주일 전 사라이에게 "내 목적은 영국 왕가의 여왕을 암살하는 것"이라고 말하자 사라이는 "그건 매우 현명해요", "당신이 아주 잘 훈련됐다는 걸 알아요"라고 답했다. 여왕이 윈저궁에 있어도 내가 암살을 할 수 있다고 생각하느냐는 차일의 질문에 사라이는 "당신은 할 거예요", "할 수 있어요"라고 대답했다. 차일이 사라이에게 여왕 암살 계획을 밝히자 사라이가 그렇게 하면 "(당신과) 영원히 함께할게요"라고 답하며 그의 결심을 지지했다는 것이다.
[AI 엑스파일은 글로벌 AI 산업, 학계 등의 최전선에서 AI를 고민하는 이들의 얘기를 전달합니다. 색다른 AI 이슈를 편하게 보시려면 기자 페이지를 구독해 주세요]
김주완 기자 kjwan@hankyung.com
Copyright © 한국경제. 무단전재 및 재배포 금지.
매주 일요일 밤 0시에 랭킹을 초기화합니다.