AD
■ 방송 : YTN 라디오 FM 94.5 (09:00~10:00)
■ 진행 : 조태현 기자
■ 방송일 : 2024년 5월 29일 (수요일)
■ 대담 : 홍세욱 변호사
* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기를 바랍니다.
◆ 조태현 : 최근 세계 경제의 중심에 인공지능 그러니까 AI가 있습니다. 엔비디아가 이끄는 인공지능 칩 이뿐만 아니라 빅데이터나 모빌리티 시장이 우후죽순으로 커지면서 관련 산업에 대한 규제가 필요하다 이런 목소리도 나오고 있죠. 오늘 도너리 BP 시간에는요. 경제에 얽힌 법 이야기 알기 쉽게 설명해 주시는 홍세욱 변호사님과 함께 이야기 나눠보도록 하겠습니다.
변호사님 어서 오십시오.
◇ 홍세욱 : 네 안녕하세요.
◆ 조태현 : 인공지능 열풍이에요. 저희 방송에서도 거의 매일 인공지능이 거론이 되고 있는데 AI 시장 얼마나 커진 겁니까?
◇ 홍세욱 : 굉장히 커졌죠. 지금 2023년에 1,502억 달러라고 그러는데 2030년에는 1조 34,502억 달러 약 1,800조 단위로 18,00조원입니다.
◆ 조태현 : 예상보다 훨씬 크네요.
◇ 홍세욱 : 네 그렇죠. 그리고 지금 오늘 아침에 저도 이제 신문 기사로 봤는데 사법부도 AI를 도입한 어떻게 그래서 이제 재판 자료를 AI가 정리를 해서 판사에 도움을 주는 거죠.
그렇게 해서 지금 재판 지연이 워낙 심하니까 그 재판 지연을 막기 위해서 한 수단으로 도입한다고 그러는데 굉장히 지금 핫한 이슈는 분명히 맞습니다.
◆ 조태현 : 판결을 직접 하는 건 아니지만 판결에 필요한 자료들 같은 것들을 이렇게 그거는 많은 도움이 될 것 같은 데요. 알겠습니다. 우리나라 인공지능 경쟁력 상당히 우수한 편이다 이런 평가를 받고 있는데 세계 AI 시장에도 꽤 큰 영향을 미친다고요.
◇ 홍세욱 : 영국 데이터 분석 업체인 토터스 미디어가 이제 글로벌 AI 인덱스라고 이제 순위를 매기고 있는데 여기서 우리나라 AI 역량이 세계 6위라고 합니다. 평가 항목은 인재 인프라 운영 환경 이런 것들을 기준으로 평가를 하는데 1위는 미국이고 2위가 중국이고 두 나라가 근데 AI에서는 압도적입니다.
◆ 조태현 : 3위 이하부터는 그냥 그저 그런 것 같아요.
◇ 홍세욱 : 그래서 3위가 싱가포르, 영국, 캐나다 우리나라 순위인데 미래 AI 패권에 있어서 3위가 어느 나라가 되느냐 이게 관심사라고 하는데 우리나라가 사실 좀 유력하다고 합니다.
이제 유력한 예상에 맞추기 위해서는 대규모 지원과 투자도 이 전제되어야겠죠.
◆ 조태현 : 그럼요. R&D라든지 이런 거의 중요성은 얼마나 강조해도 지나치지 않다고 할 수 있으니깐요. 최근에 보면 글로벌 시장에서 분위기가 조금 다른 것 같습니다. 미국 같은 경우에는 육성 쪽에 좀 초점을 두고요. 유럽 쪽에는 약간 규제 쪽에 초점을 두는 분위기인데 유럽에서 AI 기술 규제법 최종 승인했다고 그러는데 어떤 내용이 담겼습니까?
◇ 홍세욱 : 우선 2021년부터 준비해 왔는데 좀 아까 말씀하신 대로 미국은 육성 유럽은 규제인데 약간 이 AI 법이라든가 기존의 DSA 디지털 서비스법이라 이런 것들이 약간 미국의 빅테크 기업을 규제하자라는 차원에서 좀 시도가 많이 좀 특히 이제 유럽에서 이루어지고 있는 것 같습니다. 그래서 이제 GPT가 또 나온 다음에 이 지금 AI법이 급물살을 탔는데 금년 11월부터 이제 EU 27개 회원국에서 인권 침해적 요소 AI의 경우에는 이제 모두 금지가 되고 그리고 내년부터는 수력 인간 수준의 사고력을 지닌 범용 인공지능 범용 AI라고도 하는데 이에 대한 규제도 이제 시행이 됩니다.
◆ 조태현 : 예전부터 좀 유럽이 심기가 좀 안 좋았던 것 같기는 해요. 맞습니다. 알파벳이나 아마존 이런 데서 데이터만 잔뜩 빼간다 그랬는데 기업에서 이게 법을 위반하면 처벌 수위는 얼마나 됩니까?
◇ 홍세욱 : 우선 EU AI 법을 좀 간단하게 설명을 드리면 이제 이 AI 기술을 위험 수준에 따라 4단계로 나눠서 규제하고 있습니다. 허용될 수 없는 위험 이건 완전히 금지 굉장히 위험하다는 얘기인 거잖아요. 그리고 이제 고위험, 제한적 위험, 저위험 이렇게 4단계로 나눠서 규제하는데 이 허용될 수 없는 위험을 조금 설명을 드리면 이해하기가 좀 쉽습니다.
이게 허용될 수 없는 위험은 유럽연합의 가치 그리고 인간의 존엄성 자유, 평등 그리고 사람들의 안전, 생계 및 권리에 대한 명백한 위험으로 간주되는 AI는 허용될 수 없다 이런 취지인데 예를 들어서 이제 AI로 이제 광고를 좀 생각하면 좀 쉬울 것 같아요. 그러니까 이 사람의 의사결정을 그러니까 잠재 결정을 이제 좀 조작하기 위해서 인간의 잠재의식을 건드려서 좀 어떻게 보면 그 사람의 잠재의식을 조작하고 기만해서 의사결정 능력을 저하시키고 그리고 이제 사람들이 원치 않는 결정을 하게 만드는 AI 시스템 이건 전적으로 금지가 되는데 이게 가능하다라는 게 좀 놀랍기도 하는데 이런 좀 기준을 좀 생각을 해보면 좀 우리가 이제 이해하기가 좀 쉽습니다. 그래서 이런 기준보다 좀 낮은 것들은 고위험 그리고 이제 제한적 위험, 저위험 이렇게 구별되는데
◆ 조태현 : 그러니까 공동체가 절대 포기할 수 없는 가치 이런 것들은 허용될 수 없는 위협이다라고 보면 되겠네요. 그럼 고위험성 AI 여기에는 어떤 게 들어가나요?
◇ 홍세욱 : 그럼 허용될 수 없는 위험보다는 좀 경미하지만 AI가 인간의 기본권 그리고 이제 상품의 안전에 영향을 줄 수 있는 경우를 말하는데 채용 승진 해고를 결정하거나 성과를 평가하는 시스템, 의료 경찰 소방 응급 서비스 출동 등의 우선순위를 결정하는 거 이런 것들을 이제 고위험 AI 유형이라고 합니다.
◆ 조태현 : 그럼 제한적 위험은요?
◇ 홍세욱 : 제한적 위험은 지금 우리가 많이 알고 있는 생성형 인공지능 그리고 범용 인공지능 딥페이크 생성 인공지능 이런 것들인데 이거는 좀 고위험성보다는 좀 위험성이 좀 덜하다 이렇게 판단해서 이 경우에는 이제 투명성 의무라고 해서 이제 정보가 어떻게 사용되는지 그리고 이제 프로그램의 명확한 목적이 무엇인지 이와 같이 이제 인공지능의 운영 방식을 투명하게 공개하라라는 거를 이제 투명성 의무라고 그러는데 제한적 위험의 경우에는 이런 투명성 의무를 부과하고 있습니다.
◆ 조태현 : 저위험은 위험이 없는 것일 거고 그러면 이렇게 법 위반을 했을 때도 단계별로 규제가 이루어지는 건가요?
◇ 홍세욱 : 그렇죠. 그럼 그래서 허용될 수 없는 위험을 위반한 경우에는 전년도 세계 매출의 7% 매출액 그리고 이제 3500만 유로 중 높은 금액을 부과하게 돼 있습니다.
그러니까 어떻게 보면 아까 말씀드린 대로 유럽이 미국의 이런 빅테크 기업들을 규제하려는 의도가 그렇습니다.
◆ 조태현 : 그러면은 고위험이나 이쪽은 어떻게 되었나요?
◇ 홍세욱 : 고위험 위반이나 투명성 의무 위반의 경우에는 그거보다는 좀 낮춥니다.
그래서 전 세계 매출의 3% 그리고 이제 또는 1500만 유로 중에 이제 높은 금액 이렇게 규제를 하고 있습니다.
◆ 조태현 : 그래도 만만치가 않네요.
◇ 홍세욱 : 네 높습니다.
◆ 조태현 : 미국이나 중국 같은 다른 나라 이런 데에서도 규제 정책이 지금 계속 논의가 되고는 있죠. 어떤 게 있습니까?
◇ 홍세욱 : 미국은 작년 10월에 이 규제 성격을 담은 AI 관련 행정명령을 발표했는데 국가안보, 경제, 공공안전에 영향을 미치는 AI 모델의 경우 훈련 단계부터 정부에 고지하고 안전성 평가를 이렇게 받도록 했습니다. 그리고 이제 영국 같은 경우는 이제 기존 법제 내에서 인공지능 규제를 추진하고 있는데 정부와 기업이 자발적 합의를 이끌어내는 방식 AI 규제를 하고 있고요. 또 이제 AI 강국인데 중국의 경우에도 이제 개별 법령 입법을 통해서 이제 규제를 추진하고 있습니다. 그래서 이제 지난해 8월에는 생성형 AI로 국가 전복 이런 테러 조장을 이렇게 하는 콘텐츠의 경우에는 형사처벌도 가능하도록 이렇게 규정을 만들었다고 합니다.
◆ 조태현 : 사실 지금까지 봤을 때는 어떤 규제의 사각지대에 인공지능이 있었던 셈이잖아요. 그러면 관련돼가지고 여러 가지 범죄들 이런 거에도 많이 활용이 됐었죠.
어떤 게 있습니까?
◇ 홍세욱 : 사례들이 굉장히 많습니다. 대표적인 게 이 바이든 대통령 사건인데 최근에 좀 벌금도 부과되고 그래서 유명해진 사건인데 지난 1월 미국 대선 후보 예비선거가 있었죠.
예비선거 때 바이든 대통령이 유권자들한테 전화를 했다고 합니다. 그래서 이제 투표를 거부해라 이런 취지의 전화를 했다고 하는데 알고 보니 이게 진짜가 아니고 정치 컨설턴트였던 스티브 크레이머라는 사람이 만든 딥페이크였다고 합니다. 그리고 이제 유명한 사건이죠. 유명 가수인 테일러 스위프트 딥페이크 음란물 사건도 있었고 우리나라에서도 최근에 서울대 N번방 사건이라고 딥페이크 음란물 유포 사건이었는데 굉장히 심각한 사건이었죠.
◆ 조태현 : 이게 실제로 최근 들어서 이게 아직 보여지는 거는 약간 부족할 수 있지만은 음성 같은 것들은 거의 실제 사람이랑 비슷한 것들이 나와가지고 자칫하면 그냥 속겠더라고요. 그러면서 지금 인공지능 시장의 주도권 싸움도 치열한데 대표적으로 챗GPT 이쪽에 오픈AI 쪽 그리고 구글의 제미나이 이런 것들을 들 수가 있을 텐데요. 오류가 잦아왔고 이용자들의 신뢰를 잃고 이런 일도 있다면서
◇ 홍세욱 : 네 챗GPT가 나오자마자 터진 사건인데 미국의 30년 경력의 변호사라고 합니다.
이 사람이 챗GPT에서 검색해가지고 판례를 인용해서 서면을 제출했는데 존재하지 않는 판례였습니다. 이로 인해서 이제 이 변호사는 징계에 회부되기도 했고 그다음에 이제 구글 같은 경우도 좀 이런 엉뚱한 답변이 많이 나왔는데 신체 건강에 중요한 미네랄을 함유한 올바른 돌을 먹으면 건강에 좋을 수 있다 좀 엉터리 답변이죠. 그리고 이제 미국의 역대 무슬림 대통령이 몇 명이나 있느냐 했더니 미국의 무슬림 대통령은 버락쿠스인 오바마 한 명 있었다. 근데 오바마 대통령은 무슬림이 아니었잖아요. 대표적인 오류로 꼽히고 있는 사건들입니다.
◆ 조태현 : 저도 얼마 전에 논문 찾아보고 막 이러는 게 너무 귀찮아서 챗GPT에 뭘 좀 물어본 적이 있었는데요. 완전히 엉뚱한 내용을 다 이렇게 소설로 써서 줘서 결국에는 다시 취재하고 막 이랬던 적이 있었습니다. 그런데 이게 챗GPT나 이쪽에서는 개인정보 유출 논란도 있잖아요. 이건 인공지능 쪽에서 이런 취약할 수밖에 없는 구조가 좀 있는 겁니까?
◇ 홍세욱 : 네 그렇죠. 이게 오픈 AI의 경쟁사인 구글에서 이제 발견한 오류라고 그러는데 챗GPT의 시 그러니까 영어로는 peom이죠. 이 시를 시라는 단어를 영원히 반복해라 이렇게 명령을 했다고 합니다. 그랬더니 이를 수행하던 챗GPT가 어느 순간에 자기가 이제 기존에 학습했던 사람들의 이름 이메일 전화번호 등 이런 개인 정보를 그냥 줄줄이 토해냈다고 합니다. 인공지능의 이 보안에 어떻게 보면 경고등을 울린 셈인데 이게 단순한 개인정보 유출이었는데 사실 어떻게 보면 이 고도화된 AI는 엄청난 정보를 습득을 하잖아요. 그게 이제 유출될 경우 이제 엄청난 이제 피해를 끼칠 수 있다라는 어떻게 보면 좀 심각한 문제를 좀 나타난 사례라고 보여집니다.
◆ 조태현 : 일단 인공지능 자체가 빅데이터에 기반을 하고 있기 때문에 그 빅데이터가 유출이 되면 그 피해는 어마무시하겠죠. 그래서 AI 관련 규제 필요할 것으로 보이는데 EU가 AI 규제법에 스타트를 끊으면서 기업에 어떤 영향을 미칠지 이런 것들도 좀 주목이 되고 있어요. 국내 산업계도 많이 관심을 갖는 것 같던데요.
◇ 홍세욱 : 네 맞습니다. EU AI법이 제정이 되면 세계 모든 나라가 아마 유사한 규정을 이제 만들 것으로 보여지고 그리고 이제 국내 기업들에게 당연히 영향을 미칠 것으로 보입니다. 그래서 이제 EU애 수출하는 기업들은 직접적인 규제 대상이 될 것 제가 말씀드린 것처럼 세계 각국이 AI 규제를 결국에 할 것이기 때문에 EU 수출 계획이 없더라도 AI 관련 제품 서비스를 개발하는 기업은 아무래도 영향을 받을 수밖에 없을 것으로 보여집니다.
◆ 조태현 : 우리나라도 이걸 논의를 하고 있잖아요. AI 기본법 이게 21대 국회에 계류 중인데 이 법안 주요 내용이 어떤 겁니까?
◇ 홍세욱 : 이게 지금 21대 국회에서 인공지능이라는 제도가 붙은 게 12건이 발의가 됐습니다. 많이 발의됐는데 이것들은 이제 작년 4월까지 이런 법안들을 합쳐서 인공지능 산업 육성 및 신뢰 기반 조성에 관한 법률안이라는 명칭으로 추진을 해왔는데 이 법률안을 좀 보면 그러니까 이제 국무총리 소속으로 인공지능위원회를 만들고 그리고 한국지능정보사회진흥원에 국가 인공지능센터도 설립하는 등 지원책을 규정하고 있는데 규제에 관련해서는 대표적인 특징이 좀 우선 허용하고 사후 규제하겠다 이게 이 법안의 가장 큰 특징입니다. 기술 개발이 먼저고 이제 나중에 문제가 발생하면 그때 규제하자는 것인데 이에 대해서는 사실 좀 찬성과 반대 의견이 많습니다.
◆ 조태현 : 결국 이것도 폐기 수순으로 들어가는 거잖아요.
◇ 홍세욱 : 그렇죠. 이제 오늘로 끝인가요? 이 국회가.
◆ 조태현 : 오늘로 끝이랍니다.
◇ 홍세욱 : 네 그러면 이제 자동으로 이제 폐기가 되고 22대 때 새롭게 또 추진을 해야죠.
◆ 조태현 : 관련 법안 필요하다고 보십니까?
◇ 홍세욱 : 당연히 필요합니다. 앞서 말씀드린 것처럼 AI는 많은 문제를 발생하고 있고 또 EU와 미국 등 전 세계 국가들이 AI에 대한 규제도 마련하고 있기 때문에 우리나라도 우리나라 현실 그리고 세계적인 추세에 맞춰서 AI 관련 규제를 정립할 필요도 있고 그다음에 또 이제 AI 관련 법안을 만들게 되면 규제만 들어가는 것은 아닙니다. 당연히 이제 지능책에 들어가고 그리고 제도적으로 AI를 지원하는 역할을 하는 아까 말씀드린 인공지능 위원회 국가 인공지능센터 이런 제도적으로 필요한 단체가 있는데 이런 것들도 결국에 입법으로 이루어져야 됩니다. 그렇기 때문에 당연히 AI 관련 법안은 만들어져야 합니다.
◆ 조태현 : 말씀하신 대로 입법이 필요한데 국회가 생각이 저기 다른 데 멀리 가 있어서 좀 잘 안 되는 것 같습니다. 그런데 이게 말씀하신 대로 필요성은 굉장히 있고 그렇다면 AI 관련 규제 이런 쪽은 어떤 방향으로 가는 게 바람직하다고 보시나요?
◇ 홍세욱 : 인공지능은 아까도 말씀드린 것처럼 가장 핫한 주제고 그리고 하루도 빼놓지 않고 말씀드리는 주제라고 그러지 않습니까? 그렇듯이 지금 인공지능은 사실 미래 권력이고 맞습니다. 우리의 미래라는 거에 대해서 부정하는 사람들은 아무도 없을 것입니다. 그래서 근데 이제 아직 우리나라 AI 기술은 미국의 47% 수준에 불과하거든요. 그러니까 AI에 대한 대대적인 육성 정책이 절실합니다. 그리고 또 많은 문제가 있기 때문에 이에 대한 규제도 필요하고 그런데 이런 지원과 규제가 사실 조화를 이뤄야 됩니다. 아까 EU가 GDPR이라고 유럽연합 일반 데이터 보호 규칙을 만들었는데 이후에 미국과의 기술 격차가 굉장히 벌어졌습니다. 그리고 지금도 이제 AI 법으로 지금 EU와 미국의 격차가 더욱 벌어질 거라는 우려가 굉장히 많은데 이런 우려를 불식시키기 위해서라도 규제와 지능이 조화될 수 있는 그런 지혜가 굉장히 절실하게 필요하고 이거를 해야 되는 데가 사실은 지금 여야가 같이 머리를 맞대고 논의해야 되는 국회이기 때문에 여야 그리고 정부가 합심해서 AI 산업의 획기적인 우리가 만들어내는 획기적인 법안을 만들어내기를 간절히 바라고 있습니다.
◆ 조태현 : 딴 데 마음이 가시긴 하지만 육성과 규제의 조화를 갖춘 이런 법안을 정부와 국회에서 초당적으로 논의를 했으면 좋겠다라는 말씀까지 해 주셨습니다. 지금까지 홍세욱 변호사님과 인공지능과 관련된 이야기 나눠봤습니다. 오늘 말씀 고맙습니다.
◇ 홍세욱 : 감사합니다.
#EU #AI #21대국회 #AI기본법
YTN 김세령 (newsfm0945@ytnradio.kr)
[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]
■ 진행 : 조태현 기자
■ 방송일 : 2024년 5월 29일 (수요일)
■ 대담 : 홍세욱 변호사
* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기를 바랍니다.
◆ 조태현 : 최근 세계 경제의 중심에 인공지능 그러니까 AI가 있습니다. 엔비디아가 이끄는 인공지능 칩 이뿐만 아니라 빅데이터나 모빌리티 시장이 우후죽순으로 커지면서 관련 산업에 대한 규제가 필요하다 이런 목소리도 나오고 있죠. 오늘 도너리 BP 시간에는요. 경제에 얽힌 법 이야기 알기 쉽게 설명해 주시는 홍세욱 변호사님과 함께 이야기 나눠보도록 하겠습니다.
변호사님 어서 오십시오.
◇ 홍세욱 : 네 안녕하세요.
◆ 조태현 : 인공지능 열풍이에요. 저희 방송에서도 거의 매일 인공지능이 거론이 되고 있는데 AI 시장 얼마나 커진 겁니까?
◇ 홍세욱 : 굉장히 커졌죠. 지금 2023년에 1,502억 달러라고 그러는데 2030년에는 1조 34,502억 달러 약 1,800조 단위로 18,00조원입니다.
◆ 조태현 : 예상보다 훨씬 크네요.
◇ 홍세욱 : 네 그렇죠. 그리고 지금 오늘 아침에 저도 이제 신문 기사로 봤는데 사법부도 AI를 도입한 어떻게 그래서 이제 재판 자료를 AI가 정리를 해서 판사에 도움을 주는 거죠.
그렇게 해서 지금 재판 지연이 워낙 심하니까 그 재판 지연을 막기 위해서 한 수단으로 도입한다고 그러는데 굉장히 지금 핫한 이슈는 분명히 맞습니다.
◆ 조태현 : 판결을 직접 하는 건 아니지만 판결에 필요한 자료들 같은 것들을 이렇게 그거는 많은 도움이 될 것 같은 데요. 알겠습니다. 우리나라 인공지능 경쟁력 상당히 우수한 편이다 이런 평가를 받고 있는데 세계 AI 시장에도 꽤 큰 영향을 미친다고요.
◇ 홍세욱 : 영국 데이터 분석 업체인 토터스 미디어가 이제 글로벌 AI 인덱스라고 이제 순위를 매기고 있는데 여기서 우리나라 AI 역량이 세계 6위라고 합니다. 평가 항목은 인재 인프라 운영 환경 이런 것들을 기준으로 평가를 하는데 1위는 미국이고 2위가 중국이고 두 나라가 근데 AI에서는 압도적입니다.
◆ 조태현 : 3위 이하부터는 그냥 그저 그런 것 같아요.
◇ 홍세욱 : 그래서 3위가 싱가포르, 영국, 캐나다 우리나라 순위인데 미래 AI 패권에 있어서 3위가 어느 나라가 되느냐 이게 관심사라고 하는데 우리나라가 사실 좀 유력하다고 합니다.
이제 유력한 예상에 맞추기 위해서는 대규모 지원과 투자도 이 전제되어야겠죠.
◆ 조태현 : 그럼요. R&D라든지 이런 거의 중요성은 얼마나 강조해도 지나치지 않다고 할 수 있으니깐요. 최근에 보면 글로벌 시장에서 분위기가 조금 다른 것 같습니다. 미국 같은 경우에는 육성 쪽에 좀 초점을 두고요. 유럽 쪽에는 약간 규제 쪽에 초점을 두는 분위기인데 유럽에서 AI 기술 규제법 최종 승인했다고 그러는데 어떤 내용이 담겼습니까?
◇ 홍세욱 : 우선 2021년부터 준비해 왔는데 좀 아까 말씀하신 대로 미국은 육성 유럽은 규제인데 약간 이 AI 법이라든가 기존의 DSA 디지털 서비스법이라 이런 것들이 약간 미국의 빅테크 기업을 규제하자라는 차원에서 좀 시도가 많이 좀 특히 이제 유럽에서 이루어지고 있는 것 같습니다. 그래서 이제 GPT가 또 나온 다음에 이 지금 AI법이 급물살을 탔는데 금년 11월부터 이제 EU 27개 회원국에서 인권 침해적 요소 AI의 경우에는 이제 모두 금지가 되고 그리고 내년부터는 수력 인간 수준의 사고력을 지닌 범용 인공지능 범용 AI라고도 하는데 이에 대한 규제도 이제 시행이 됩니다.
◆ 조태현 : 예전부터 좀 유럽이 심기가 좀 안 좋았던 것 같기는 해요. 맞습니다. 알파벳이나 아마존 이런 데서 데이터만 잔뜩 빼간다 그랬는데 기업에서 이게 법을 위반하면 처벌 수위는 얼마나 됩니까?
◇ 홍세욱 : 우선 EU AI 법을 좀 간단하게 설명을 드리면 이제 이 AI 기술을 위험 수준에 따라 4단계로 나눠서 규제하고 있습니다. 허용될 수 없는 위험 이건 완전히 금지 굉장히 위험하다는 얘기인 거잖아요. 그리고 이제 고위험, 제한적 위험, 저위험 이렇게 4단계로 나눠서 규제하는데 이 허용될 수 없는 위험을 조금 설명을 드리면 이해하기가 좀 쉽습니다.
이게 허용될 수 없는 위험은 유럽연합의 가치 그리고 인간의 존엄성 자유, 평등 그리고 사람들의 안전, 생계 및 권리에 대한 명백한 위험으로 간주되는 AI는 허용될 수 없다 이런 취지인데 예를 들어서 이제 AI로 이제 광고를 좀 생각하면 좀 쉬울 것 같아요. 그러니까 이 사람의 의사결정을 그러니까 잠재 결정을 이제 좀 조작하기 위해서 인간의 잠재의식을 건드려서 좀 어떻게 보면 그 사람의 잠재의식을 조작하고 기만해서 의사결정 능력을 저하시키고 그리고 이제 사람들이 원치 않는 결정을 하게 만드는 AI 시스템 이건 전적으로 금지가 되는데 이게 가능하다라는 게 좀 놀랍기도 하는데 이런 좀 기준을 좀 생각을 해보면 좀 우리가 이제 이해하기가 좀 쉽습니다. 그래서 이런 기준보다 좀 낮은 것들은 고위험 그리고 이제 제한적 위험, 저위험 이렇게 구별되는데
◆ 조태현 : 그러니까 공동체가 절대 포기할 수 없는 가치 이런 것들은 허용될 수 없는 위협이다라고 보면 되겠네요. 그럼 고위험성 AI 여기에는 어떤 게 들어가나요?
◇ 홍세욱 : 그럼 허용될 수 없는 위험보다는 좀 경미하지만 AI가 인간의 기본권 그리고 이제 상품의 안전에 영향을 줄 수 있는 경우를 말하는데 채용 승진 해고를 결정하거나 성과를 평가하는 시스템, 의료 경찰 소방 응급 서비스 출동 등의 우선순위를 결정하는 거 이런 것들을 이제 고위험 AI 유형이라고 합니다.
◆ 조태현 : 그럼 제한적 위험은요?
◇ 홍세욱 : 제한적 위험은 지금 우리가 많이 알고 있는 생성형 인공지능 그리고 범용 인공지능 딥페이크 생성 인공지능 이런 것들인데 이거는 좀 고위험성보다는 좀 위험성이 좀 덜하다 이렇게 판단해서 이 경우에는 이제 투명성 의무라고 해서 이제 정보가 어떻게 사용되는지 그리고 이제 프로그램의 명확한 목적이 무엇인지 이와 같이 이제 인공지능의 운영 방식을 투명하게 공개하라라는 거를 이제 투명성 의무라고 그러는데 제한적 위험의 경우에는 이런 투명성 의무를 부과하고 있습니다.
◆ 조태현 : 저위험은 위험이 없는 것일 거고 그러면 이렇게 법 위반을 했을 때도 단계별로 규제가 이루어지는 건가요?
◇ 홍세욱 : 그렇죠. 그럼 그래서 허용될 수 없는 위험을 위반한 경우에는 전년도 세계 매출의 7% 매출액 그리고 이제 3500만 유로 중 높은 금액을 부과하게 돼 있습니다.
그러니까 어떻게 보면 아까 말씀드린 대로 유럽이 미국의 이런 빅테크 기업들을 규제하려는 의도가 그렇습니다.
◆ 조태현 : 그러면은 고위험이나 이쪽은 어떻게 되었나요?
◇ 홍세욱 : 고위험 위반이나 투명성 의무 위반의 경우에는 그거보다는 좀 낮춥니다.
그래서 전 세계 매출의 3% 그리고 이제 또는 1500만 유로 중에 이제 높은 금액 이렇게 규제를 하고 있습니다.
◆ 조태현 : 그래도 만만치가 않네요.
◇ 홍세욱 : 네 높습니다.
◆ 조태현 : 미국이나 중국 같은 다른 나라 이런 데에서도 규제 정책이 지금 계속 논의가 되고는 있죠. 어떤 게 있습니까?
◇ 홍세욱 : 미국은 작년 10월에 이 규제 성격을 담은 AI 관련 행정명령을 발표했는데 국가안보, 경제, 공공안전에 영향을 미치는 AI 모델의 경우 훈련 단계부터 정부에 고지하고 안전성 평가를 이렇게 받도록 했습니다. 그리고 이제 영국 같은 경우는 이제 기존 법제 내에서 인공지능 규제를 추진하고 있는데 정부와 기업이 자발적 합의를 이끌어내는 방식 AI 규제를 하고 있고요. 또 이제 AI 강국인데 중국의 경우에도 이제 개별 법령 입법을 통해서 이제 규제를 추진하고 있습니다. 그래서 이제 지난해 8월에는 생성형 AI로 국가 전복 이런 테러 조장을 이렇게 하는 콘텐츠의 경우에는 형사처벌도 가능하도록 이렇게 규정을 만들었다고 합니다.
◆ 조태현 : 사실 지금까지 봤을 때는 어떤 규제의 사각지대에 인공지능이 있었던 셈이잖아요. 그러면 관련돼가지고 여러 가지 범죄들 이런 거에도 많이 활용이 됐었죠.
어떤 게 있습니까?
◇ 홍세욱 : 사례들이 굉장히 많습니다. 대표적인 게 이 바이든 대통령 사건인데 최근에 좀 벌금도 부과되고 그래서 유명해진 사건인데 지난 1월 미국 대선 후보 예비선거가 있었죠.
예비선거 때 바이든 대통령이 유권자들한테 전화를 했다고 합니다. 그래서 이제 투표를 거부해라 이런 취지의 전화를 했다고 하는데 알고 보니 이게 진짜가 아니고 정치 컨설턴트였던 스티브 크레이머라는 사람이 만든 딥페이크였다고 합니다. 그리고 이제 유명한 사건이죠. 유명 가수인 테일러 스위프트 딥페이크 음란물 사건도 있었고 우리나라에서도 최근에 서울대 N번방 사건이라고 딥페이크 음란물 유포 사건이었는데 굉장히 심각한 사건이었죠.
◆ 조태현 : 이게 실제로 최근 들어서 이게 아직 보여지는 거는 약간 부족할 수 있지만은 음성 같은 것들은 거의 실제 사람이랑 비슷한 것들이 나와가지고 자칫하면 그냥 속겠더라고요. 그러면서 지금 인공지능 시장의 주도권 싸움도 치열한데 대표적으로 챗GPT 이쪽에 오픈AI 쪽 그리고 구글의 제미나이 이런 것들을 들 수가 있을 텐데요. 오류가 잦아왔고 이용자들의 신뢰를 잃고 이런 일도 있다면서
◇ 홍세욱 : 네 챗GPT가 나오자마자 터진 사건인데 미국의 30년 경력의 변호사라고 합니다.
이 사람이 챗GPT에서 검색해가지고 판례를 인용해서 서면을 제출했는데 존재하지 않는 판례였습니다. 이로 인해서 이제 이 변호사는 징계에 회부되기도 했고 그다음에 이제 구글 같은 경우도 좀 이런 엉뚱한 답변이 많이 나왔는데 신체 건강에 중요한 미네랄을 함유한 올바른 돌을 먹으면 건강에 좋을 수 있다 좀 엉터리 답변이죠. 그리고 이제 미국의 역대 무슬림 대통령이 몇 명이나 있느냐 했더니 미국의 무슬림 대통령은 버락쿠스인 오바마 한 명 있었다. 근데 오바마 대통령은 무슬림이 아니었잖아요. 대표적인 오류로 꼽히고 있는 사건들입니다.
◆ 조태현 : 저도 얼마 전에 논문 찾아보고 막 이러는 게 너무 귀찮아서 챗GPT에 뭘 좀 물어본 적이 있었는데요. 완전히 엉뚱한 내용을 다 이렇게 소설로 써서 줘서 결국에는 다시 취재하고 막 이랬던 적이 있었습니다. 그런데 이게 챗GPT나 이쪽에서는 개인정보 유출 논란도 있잖아요. 이건 인공지능 쪽에서 이런 취약할 수밖에 없는 구조가 좀 있는 겁니까?
◇ 홍세욱 : 네 그렇죠. 이게 오픈 AI의 경쟁사인 구글에서 이제 발견한 오류라고 그러는데 챗GPT의 시 그러니까 영어로는 peom이죠. 이 시를 시라는 단어를 영원히 반복해라 이렇게 명령을 했다고 합니다. 그랬더니 이를 수행하던 챗GPT가 어느 순간에 자기가 이제 기존에 학습했던 사람들의 이름 이메일 전화번호 등 이런 개인 정보를 그냥 줄줄이 토해냈다고 합니다. 인공지능의 이 보안에 어떻게 보면 경고등을 울린 셈인데 이게 단순한 개인정보 유출이었는데 사실 어떻게 보면 이 고도화된 AI는 엄청난 정보를 습득을 하잖아요. 그게 이제 유출될 경우 이제 엄청난 이제 피해를 끼칠 수 있다라는 어떻게 보면 좀 심각한 문제를 좀 나타난 사례라고 보여집니다.
◆ 조태현 : 일단 인공지능 자체가 빅데이터에 기반을 하고 있기 때문에 그 빅데이터가 유출이 되면 그 피해는 어마무시하겠죠. 그래서 AI 관련 규제 필요할 것으로 보이는데 EU가 AI 규제법에 스타트를 끊으면서 기업에 어떤 영향을 미칠지 이런 것들도 좀 주목이 되고 있어요. 국내 산업계도 많이 관심을 갖는 것 같던데요.
◇ 홍세욱 : 네 맞습니다. EU AI법이 제정이 되면 세계 모든 나라가 아마 유사한 규정을 이제 만들 것으로 보여지고 그리고 이제 국내 기업들에게 당연히 영향을 미칠 것으로 보입니다. 그래서 이제 EU애 수출하는 기업들은 직접적인 규제 대상이 될 것 제가 말씀드린 것처럼 세계 각국이 AI 규제를 결국에 할 것이기 때문에 EU 수출 계획이 없더라도 AI 관련 제품 서비스를 개발하는 기업은 아무래도 영향을 받을 수밖에 없을 것으로 보여집니다.
◆ 조태현 : 우리나라도 이걸 논의를 하고 있잖아요. AI 기본법 이게 21대 국회에 계류 중인데 이 법안 주요 내용이 어떤 겁니까?
◇ 홍세욱 : 이게 지금 21대 국회에서 인공지능이라는 제도가 붙은 게 12건이 발의가 됐습니다. 많이 발의됐는데 이것들은 이제 작년 4월까지 이런 법안들을 합쳐서 인공지능 산업 육성 및 신뢰 기반 조성에 관한 법률안이라는 명칭으로 추진을 해왔는데 이 법률안을 좀 보면 그러니까 이제 국무총리 소속으로 인공지능위원회를 만들고 그리고 한국지능정보사회진흥원에 국가 인공지능센터도 설립하는 등 지원책을 규정하고 있는데 규제에 관련해서는 대표적인 특징이 좀 우선 허용하고 사후 규제하겠다 이게 이 법안의 가장 큰 특징입니다. 기술 개발이 먼저고 이제 나중에 문제가 발생하면 그때 규제하자는 것인데 이에 대해서는 사실 좀 찬성과 반대 의견이 많습니다.
◆ 조태현 : 결국 이것도 폐기 수순으로 들어가는 거잖아요.
◇ 홍세욱 : 그렇죠. 이제 오늘로 끝인가요? 이 국회가.
◆ 조태현 : 오늘로 끝이랍니다.
◇ 홍세욱 : 네 그러면 이제 자동으로 이제 폐기가 되고 22대 때 새롭게 또 추진을 해야죠.
◆ 조태현 : 관련 법안 필요하다고 보십니까?
◇ 홍세욱 : 당연히 필요합니다. 앞서 말씀드린 것처럼 AI는 많은 문제를 발생하고 있고 또 EU와 미국 등 전 세계 국가들이 AI에 대한 규제도 마련하고 있기 때문에 우리나라도 우리나라 현실 그리고 세계적인 추세에 맞춰서 AI 관련 규제를 정립할 필요도 있고 그다음에 또 이제 AI 관련 법안을 만들게 되면 규제만 들어가는 것은 아닙니다. 당연히 이제 지능책에 들어가고 그리고 제도적으로 AI를 지원하는 역할을 하는 아까 말씀드린 인공지능 위원회 국가 인공지능센터 이런 제도적으로 필요한 단체가 있는데 이런 것들도 결국에 입법으로 이루어져야 됩니다. 그렇기 때문에 당연히 AI 관련 법안은 만들어져야 합니다.
◆ 조태현 : 말씀하신 대로 입법이 필요한데 국회가 생각이 저기 다른 데 멀리 가 있어서 좀 잘 안 되는 것 같습니다. 그런데 이게 말씀하신 대로 필요성은 굉장히 있고 그렇다면 AI 관련 규제 이런 쪽은 어떤 방향으로 가는 게 바람직하다고 보시나요?
◇ 홍세욱 : 인공지능은 아까도 말씀드린 것처럼 가장 핫한 주제고 그리고 하루도 빼놓지 않고 말씀드리는 주제라고 그러지 않습니까? 그렇듯이 지금 인공지능은 사실 미래 권력이고 맞습니다. 우리의 미래라는 거에 대해서 부정하는 사람들은 아무도 없을 것입니다. 그래서 근데 이제 아직 우리나라 AI 기술은 미국의 47% 수준에 불과하거든요. 그러니까 AI에 대한 대대적인 육성 정책이 절실합니다. 그리고 또 많은 문제가 있기 때문에 이에 대한 규제도 필요하고 그런데 이런 지원과 규제가 사실 조화를 이뤄야 됩니다. 아까 EU가 GDPR이라고 유럽연합 일반 데이터 보호 규칙을 만들었는데 이후에 미국과의 기술 격차가 굉장히 벌어졌습니다. 그리고 지금도 이제 AI 법으로 지금 EU와 미국의 격차가 더욱 벌어질 거라는 우려가 굉장히 많은데 이런 우려를 불식시키기 위해서라도 규제와 지능이 조화될 수 있는 그런 지혜가 굉장히 절실하게 필요하고 이거를 해야 되는 데가 사실은 지금 여야가 같이 머리를 맞대고 논의해야 되는 국회이기 때문에 여야 그리고 정부가 합심해서 AI 산업의 획기적인 우리가 만들어내는 획기적인 법안을 만들어내기를 간절히 바라고 있습니다.
◆ 조태현 : 딴 데 마음이 가시긴 하지만 육성과 규제의 조화를 갖춘 이런 법안을 정부와 국회에서 초당적으로 논의를 했으면 좋겠다라는 말씀까지 해 주셨습니다. 지금까지 홍세욱 변호사님과 인공지능과 관련된 이야기 나눠봤습니다. 오늘 말씀 고맙습니다.
◇ 홍세욱 : 감사합니다.
#EU #AI #21대국회 #AI기본법
YTN 김세령 (newsfm0945@ytnradio.kr)
[저작권자(c) YTN 무단전재, 재배포 및 AI 데이터 활용 금지]