
[이코노믹데일리] 챗GPT 개발사 오픈AI가 청소년 보호를 위한 칼을 빼 들었다. 18세 미만 사용자를 위한 전용 챗GPT를 이달 말 출시하고 부모가 자녀의 챗봇 사용을 직접 관리할 수 있는 강력한 보호 기능을 도입한다. 이번 조치는 최근 미국 규제 당국의 조사와 이용자 소송 등 AI가 청소년에게 미치는 유해성에 대한 사회적 압박이 거세지는 가운데 나온 선제적 대응으로 AI 시대의 ‘책임’에 대한 중대한 이정표가 될 전망이다.
오픈AI는 16일(현지시간), 미성년자로 확인된 사용자를 자동으로 연령에 맞는 챗GPT 환경으로 안내하는 새로운 시스템을 도입한다고 밝혔다. 이 보호 모드에서는 선정적이거나 폭력적인 콘텐츠가 원천 차단되며 사용자가 심각한 위기 상황에 처한 것으로 판단될 경우 법 집행 기관이 개입할 수 있는 안전장치까지 마련된다.
이번 업데이트의 핵심은 부모의 직접적인 개입과 통제가 가능해졌다는 점이다. 부모는 자신의 챗GPT 계정을 자녀의 계정과 연결해 △자녀가 챗봇을 사용할 수 없는 시간(취침 시간 등)을 설정하고 △챗봇이 너무 단정적이거나 인간적인 감정을 표현하지 않도록 응답 방식을 유도할 수 있다. 특히 자녀가 심각한 정신적 고통을 겪고 있다고 AI가 판단할 경우 부모에게 즉시 알림을 보내는 기능까지 포함돼 AI를 통한 자녀의 심리 상태 모니터링이라는 새로운 차원의 보호 기능을 제공한다.
오픈AI의 이번 조치는 최근 거세진 외부 압박과 무관하지 않다. 미국 연방거래위원회(FTC)는 지난 8월 오픈AI를 포함한 주요 기술 기업들을 대상으로 AI 챗봇이 어린이와 청소년에게 미치는 잠재적 악영향에 대한 대대적인 조사를 시작했다. FTC는 이들 기업이 “챗봇의 안전성을 평가하기 위해 어떤 조치를 취했는지 파악할 필요가 있다”며 자료 제출을 요구한 바 있다.
여기에 지난달에는 챗GPT와 수개월간 상호작용한 아들의 사망에 오픈AI가 책임이 있다며 한 학부모가 제기한 소송에 피고가 되는 등 AI의 유해성에 대한 법적 책임 문제까지 불거진 상황이다.
샘 올트먼 오픈AI 최고경영자(CEO)는 이날 블로그를 통해 이번 결정이 쉽지 않았음을 인정하며 회사의 입장을 투명하게 밝혔다. 그는 “우리는 10대들의 사생활이나 자유보다 안전을 우선시한다”며 “이것은 새롭고 강력한 기술이며 미성년자에게는 상당한 보호가 필요하다고 믿는다”고 적었다.
이어 “(18세 미만 전용 챗GPT는) 어려운 결정이지만 전문가들과 논의한 결과 이것이 최선이라고 생각하며 우리의 의도를 투명하게 밝히고 싶다”고 덧붙였다.
결국 오픈AI는 ‘혁신의 자유’보다 ‘사용자 보호’라는 사회적 책임을 선택한 셈이다. AI 기술의 선두 주자인 오픈AI가 내놓은 이번 청소년 보호 대책은 향후 구글, 메타 등 다른 AI 개발사들의 정책에도 상당한 영향을 미칠 것으로 보인다.