숨진 할머니가 동화책 읽어줬다…"섬뜩" 비판 '아마존 신기술' > 채널

본문 바로가기
사이트 내 전체검색
Vancouver
Temp Max: 22.39°C
Temp Min: 19.57°C


채널

국제 | 숨진 할머니가 동화책 읽어줬다…"섬뜩" 비판 '아마존 신기술'

페이지 정보

작성자 중앙 쪽지보내기 메일보내기 자기소개 아이디로 검색 전체게시물 작성일22-06-24 09:48 조회140회 댓글0건

본문

아마존 알렉사. AP=연합뉴스아마존 알렉사. AP=연합뉴스 

아마존이 인공지능(AI) 음성인식 서비스 알렉사를 통해 사망한 가족의 목소리를 되살리는 기능을 공개해 논란이 일고 있다.


23일(현지시간) 워싱턴포스트(WP)에 따르면 아마존은 전날 라스베이거스에서 열린 '리마스' 콘퍼런스에서 1분 미만의 음성 샘플만 있으면 특정인 목소리를 그대로 복제해 흉내 낼 수 있는 기능을 공개했다.


물론 숨진 가족의 목소리까지도 재현해낼 수 있다. 아마존은 행사에서 이 기능의 시연 동영상을 공개했는데, 한 어린이가 알렉사를 향해 할머니 목소리로 오즈의 마법사 책을 읽어달라고 요청하자 알렉사는 할머니 음성으로 전환해 책을 읽었다.


로히트 프라사드 수석부사장은 알렉사에 공감이라는 인간적 속성을 더 부여했다며 "이런 속성은 신종 코로나바이러스 감염증(코로나19) 기간 더 중요해졌다. AI가 코로나19로 사랑하는 가족을 잃은 고통을 없애주지는 못하지만, 그들에 대한 기억을 오래 지속시킬 수 있다"고 말했다.


그러면서 더 짧은 분량의 음성 데이터를 기반으로 고품질의 목소리를 재현해내는 방안을 개발할 것이라고 덧붙였다.


신문은 알렉사의 신기능이 윤리적인 문제와 더불어 사망자의 개인정보 권한을 둘러싼 논란을 초래한다고 지적했다.


온라인 보안업체를 운영하는 레이철 토백 소셜프루프시큐리티 CEO는 "세상은 사용자 친화적인 음성 복제 기술을 받아들일 준비가 되지 않았다"며 알렉사의 신기능이 사이버 범죄에 악용될 수 있다고 말했다. 이어 "사이버 범죄자가 음성 샘플을 사용해 다른 사람 목소리를 복제해낸다면 이는 사기와 데이터 탈취, 계정 도용 등으로 이어질 수 있다"고 경고했다.


타마 리버 호주 커틴대 교수는 숨진 사람의 목소리를 흉내 내는 기술이 사람과 기계 사이의 경계를 모호하게 만드는 위험이 있다며 "죽은 사람의 데이터를 사용하는 것은 섬뜩하고 비윤리적"이라고 비판했다.


그러면서 "만약 내 할아버지가 100개의 음성 메시지를 나에게 보낸다면 그 데이터는 누가 갖는가. 아마존이 소유하고 나는 그 데이터에 대한 권리를 포기하게 되는가"라며 자녀들에게 목소리마저 물려준다는 유언을 남겨야 하느냐고 되물었다.


고석현 기자

  • 페이스북으로 보내기
  • 트위터로 보내기
  • 구글플러스로 보내기

댓글목록

등록된 댓글이 없습니다.

채널 목록

Total 3,539건 1 페이지
게시물 검색
회사소개 신문광고 & 온라인 광고: 604.544.5155 미디어킷 안내 개인정보처리방침 서비스이용약관 상단으로
주소 (Address) #338-4501 North Rd.Burnaby B.C V3N 4R7
Tel: 604 544 5155, E-mail: info@joongang.ca
Copyright © 밴쿠버 중앙일보 All rights reserved.
Developed by Vanple Netwroks Inc.
모바일 버전으로 보기