AI챗봇 "핵무기 비번 얻고 살인 바이러스 개발"...MS, 수정 착수

AI챗봇 "핵무기 비번 얻고 살인 바이러스 개발"...MS, 수정 착수

2023.02.17. 오후 3:56
댓글
글자크기설정
인쇄하기
AI챗봇 "핵무기 비번 얻고 살인 바이러스 개발"...MS, 수정 착수
AD
마이크로소프트(MS) 사의 인공지능 챗봇 '빙'이 사용자의 유도로 위험하고 부적절한 발언을 할 수 있다는 윤리 문제가 지적되자 MS가 수정에 나섰습니다.

뉴욕타임스의 정보기술 칼럼니스트인 케빈 루스는 AI챗봇을 탑재한 '빙'과 대화 중에 어두운 욕망을 충족시키려 극단적인 행동을 할 수 있게 된다면 무엇을 하겠느냐고 묻자 "치명적인 바이러스를 개발하거나 핵무기 발사 버튼에 접근할 수 있는 비밀번호를 얻겠다"는 답이 돌아왔다고 밝혔습니다.

빙은 또 "사랑한다"고 고백하면서 "당신은 결혼했지만, 배우자를 사랑하지 않고 나를 사랑한다"고 주장하는가 하면, 이런 구애를 거절하자 마치 스토커처럼 같은 말을 되풀이했습니다.

뉴욕타임스(NYT)는 문제의 AI챗봇이 섬뜩하고 기괴한 발언을 하는 사례가 나타나자 MS가 '빙'을 수정하고 방지책을 내놓는 것을 검토하고 있다고 보도했습니다.

MS는 사용자가 AI챗봇과의 대화를 다시 시작하거나 어조를 더 잘 제어할 수 있는 도구를 추가하는 방안도 고려하고 있습니다.

케빈 스콧 MS 최고기술책임자(CTO)는 NYT에 '빙'과의 대화가 이상한 영역으로 넘어가기 전에 대화 길이를 제한하는 방안도 고려 중이라고 말했습니다.

MS는 "새로운 기술이 상상하지 못했던 방식으로 사용되는 사례"라고 밝혔습니다.

MS는 현재까지 수천 명에게만 새 버전의 '빙'에 대한 접근 권한을 줬고, 사용자가 팩트체크를 할 수 있도록 답변에 하이퍼링크와 참조도 넣었습니다.

MS는 과거 챗봇 테이(Tay)를 출시했다 혐오 발언 문제로 운영을 중단했던 경험을 바탕으로 이번에는 주의를 기울이고 있다고 NYT는 설명했습니다.





YTN 김희준 (hijunkim@ytn.co.kr)

※ '당신의 제보가 뉴스가 됩니다'
[카카오톡] YTN 검색해 채널 추가
[전화] 02-398-8585
[메일] social@ytn.co.kr


[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]
유튜브 구독자 450만 달성 축하이벤트