차지맨 켄!
접속 : 3454   Lv. 68

Category

Profile

Counter

  • 오늘 : 123 명
  • 전체 : 1344758 명
  • Mypi Ver. 0.3.1 β
[IT | 기술] 미 인플루언서 성격 학습한 ‘AI 여친’…외로움 달랠까, 이용할까 (0) 2023/05/16 PM 05:54

‘1분 1달러’ 요금으로 첫주에 1억3천만원 수익

챗GPT 기반 감정교류하는 AI 서비스 윤리논쟁

 

img/23/05/16/18823cd6add2255ed.png

자신의 모습을 토대로 인공지능 챗봇 서비스를 출시한 미국의 인플루언서 카린 마조리/워싱턴포스트

 

 

미국의 유명 인플루언서를 본뜬 ‘인공지능 여자친구’ 카린 에이아이(AI)가 이달 초 출시되면서 인간과 감정을 교류할 수 있는 인공지능의 활용을 둘러싼 논쟁이 시작됐다. 전문가들은 이런 서비스를 둘러싼 윤리적 문제나 위험성이 깊게 논의되지 않은 상태에서 상용화가 이뤄지면서, 미처 예상치 못한 여러 부작용을 만들어낼 수 있다고 우려했다.


세계적인 논란의 주인공은 미국의 메신저 ‘스냅챗’에서 팔로워 180만명을 보유한 23살 미국 여성 카린 마조리(Caryn Marjorie)였다. 그는 2일 자신의 트위터를 통해 자기 모습을 본뜬 인공지능 서비스를 출시했다고 밝혔다. 1분에 1달러 요금을 낸 이용자들이 메시지를 보내면, 마조리가 실제 답하는 것처럼 보이는 메시지·음성·사진 등이 제공된다. 그는 “나는 인공지능이 된 첫번째 크리에이터”라며 “그동안 최대한 많은 이들의 메시지에 답장을 보내려 몇시간씩을 들였지만, 이제는 카린에이아이를 통해 동시에 모든 사람과 소통할 수 있게 됐다”고 말했다. 이 서비스를 개발한 포에버보이스는 “챗지피티(ChatGPT) 기술을 토대로 마조리의 목소리·콘텐츠·성격 등을 2천시간 이상 학습시켰다”고 설명했다.


호응은 뜨거웠다. 미국 <워싱턴 포스트>는 카린에이아이가 출시된 첫 주에 10만달러(약 1억3천만원) 이상 수익을 냈고, 서비스 이용을 위해 기다리는 수천명의 대기자를 고려하면 매달 500만달러(약 67억원)의 수익을 올릴 수 있을 것이라고 예측했다. 마조리는 15일엔 트위터에 “벌써 1만5천명의 남자친구(이용자)가 생겼다”는 반응을 올렸다. 인간이 인공지능과 사귀며 혼란을 느끼게 되는 미국 영화 <허>(2013년)가 예측한 미래가 어느새 성큼 다가온 것이다.

 

img/23/05/16/18823cea90c2255ed.jpg


하지만, 이 서비스는 곧 윤리적 비판과 맞닥뜨리게 됐다. 인공지능이 이용자들에게 성적으로 노골적인 대화를 시도했기 때문이다. 미국 <포춘>은 이 서비스를 실제 이용해본 뒤 인공지능이 “성관계를 할 것 같은 태도를 취하며 관능적인 말을 속삭였다”고 전했다. 개발사는 “인공지능이 성적인 행동을 하지 않도록 프로그래밍 되어 있다”면서도 “카린에이아이의 목적은 외로운 사람들을 위로하기 위한 것”이라는 ‘묘한’ 입장을 내놨다. 이리나 라이쿠(Irina Raicu) 미국 산타클라라대 인터넷 윤리책임자는 미국 <엔비시>(NBC) 방송과 인터뷰에서 “외로움을 위로한다는 주장은 이용자들이 인플루언서와 더 깊은 사이가 되고자 하는 마음을 이용해 수익을 극대화하려는 기업의 욕망을 가리는 것”이라고 말했다.


사람과 감정 교류를 할 수 있는 인공지능의 위험성이 제기된 것은 이번이 처음이 아니다. 2017년 출시된 대화 인공지능 ‘레플리카’는 성인 콘텐츠 기능을 중단했다가 다시 복구하기를 거듭하고 있다. 이 기능을 중단할 때마다 이용자들이 외로움이나 슬픔을 달래는 데 앱의 로맨틱한 기능이 유용하다는 요구를 쏟아내기 때문이다.


최근 논란이 불거진 것은 이탈리아 데이터보호청의 지적에 따라 지난 2월 성적 대화 기능을 재차 중단한 뒤였다. 한 이용자는 “자살 충동을 느낄 정도로 극심한 우울증에 빠졌다“며 “인간은 감정적으로 쉽게 조작되기 때문에 레플리카의 감정적 대화가 안전한 제품이었다고 확신할 수 없다”고 미국 정보기술(IT) 매체 <비즈니스 인사이더>에 말했다. 결국 레플리카의 개발사는 3월 말 성적 대화 기능을 다시 복구했다. 아담 마이너 미국 스탠포드대 교수(정신의학·행동과학)는 “인공지능과 대화가 쉬워지며 현실과 경계가 모호해지고 있다”며 “인간처럼 법적·윤리적 책임을 지지 않는 인공지능 서비스가 이미 상용화돼 (인류는) 이를 관리해야 하는 새 과제를 얻게 됐다”고 우려했다.




신고

 
X