닫기

글로벌이코노믹

"인공지능 개발 및 입법화 때 산업별 이해 당사자-정부간 총체 논의 이뤄져야"

공유
1

"인공지능 개발 및 입법화 때 산업별 이해 당사자-정부간 총체 논의 이뤄져야"

국회 'AI의 윤리적 개발 동향과 입법대응 과제' 세미나
인간이 DB에 기반한 AI 판단과 과정을 해석할 수 있어야
공정성·신뢰성·안전성·개인정보 보호·투명성이 핵심 원칙
‘설명 가능한 AI’ 필요성...인간의 판단·, 통제 안에 있어야
정책 프레임워크 구축 시 윤리대응과 법적 규제 구분해야

[글로벌이코노믹 이수연 기자]
'인공지능의 윤리적 개발 동향과 입법대응 과제’ 세미나가 7일 신용현 바른미래당 의원과 한국인공지능법학회, KAIST 인공지능연구소 공동주최로 열렸다. 신용원 의원이 개회사를 하고 있다. (사진=이수연 기자)이미지 확대보기
'인공지능의 윤리적 개발 동향과 입법대응 과제’ 세미나가 7일 신용현 바른미래당 의원과 한국인공지능법학회, KAIST 인공지능연구소 공동주최로 열렸다. 신용원 의원이 개회사를 하고 있다. (사진=이수연 기자)

“인공지능(AI)은 19개에 달하는 산업을 망라하며 특히 한국에서 잠재력을 가지고 있는 만큼 산업별 이해 당사자들과 정부부처의 총체적 논의가 이뤄져야 한다”-안토니 쿡 마이크로소프트(MS) 아시아지역 법무정책협력실 총괄책임자
“AI는 규제 대상을 규정하는 것이 힘들기 때문에 기존 산업처럼 특정 규제 사안과 요건을 설정해 규제하기 힘들다는 문제가 있다. 우리나라의 경우 비식별성 개인정보는 개인정보로 인정하지 않는 점이 한계다."-심우민 경인교대 사회과교육과 교수

"설명 가능한 AI기술이 필요하다. 데이터베이스(DB)를 기반으로 나온 AI의 판단과 그 과정은 인간이 해석할 수 있어야 하고 궁극적으로 AI와 인간은 대화할 수 있어야 한다."-박현욱 KAIST 뇌과학연구센터 교수

"제조, 금융, 의료, 국방 같은 정책 프레임워크 구축 시 윤리 대응과 법적 규제를 구분해야 한다.민관학협력 모델을 구축하고 서비스 이용자를 고려해야 한다” 며 “서비스 이용자는 보호 객체를 넘어 적극적으로 기술을 활용하는 주체라는 점도 인지해야 한다”고 말했다. "-선지원 KISDI 부연구위원

7일 국회의원회관 제2 소회의실에서 열린 ‘인공지능의 윤리적 개발 동향과 입법대응 과제’ 세미나 참석자들은 4차산업혁명시대 핵심영역인 인공지능(AI) 개발과 상용화 과정에서 윤리적 문제 발생에 대한 우려가 심화되고 있는 가운데 ▲윤리담론 패러다임 전환 필요성 ▲인간 통제 아래 설명 가능한 AI ▲민관학 협력모델 구축 등 다양한 대응 방안을 제시했다. 이날 세미나는 바른미래당 신용현 의원과 한국인공지능법학회, KAIST 인공지능연구소 공동주최로 열렸다.

행사를 주최한 신용현 위원은 이날 “AI 시대의 도래를 앞두고 일자리 걱정 등 AI 발달에 의한 부작용에 대한 논의가 필요하다”며 “인공지능 개발 규제를 푸는 것도 중요하지만 이에 앞서 윤리적 가이드라인을 만드는 것이 중요하다” 고 말했다.

기조발제를 맡은 안토니 쿡 마이크로소프트(MS) 아시아지역 법무정책협력실 총괄책임자는 “인공지능은 19개에 달하는 산업을 망라하며 특히 한국에서 잠재력을 가지고 있는 만큼 산업별 이해당사자들과 정부부처의 총체적 논의가 이뤄져야 한다”고 지적했다. 그는 “MS의 경우 엔지니어, 변호사, 사회과학자들과 함께 정부위원회를 구성, 윤리적 문제에 대한 시나리오를 연구, 분석하고 잇따라 새로운 윤리 원칙 수립에 나서고 있다” 며 “AI 개발하는 데 있어 공정성, 신뢰성, 안전성, 개인정보 보호, 투명성, 등 핵심 원칙들을 지키고 있다”고 덧붙였다.
이어진 발표에서 심우민 경인교대 교수는 “인공지능은 규제 대상을 규정하는 것이 힘들기 때문에 기존 산업처럼 특정 규제 사안과 요건을 설정해 규제하기 힘들다는 문제가 있다” 고 말하며 한국의 경우 비식별성 개인정보는 개인정보로 인정하지 않는 점을 한계로 언급했다. 심 교수는 미국, 영국, 프랑스 등 주요국의 윤리적 문제 대응 동향을 소개하며 "국내 입법 단계에서 실증적인 데이터를 놓고 각계 전문가들, 시민들과의 의견 공유가 필요하며 이미 주요국에서는 이런 방법으로 윤리적 입법 제언이 이루어지고 있다"며 대응책을 제시했다. 또한 단편적, 결과 지향적 규제완화는 지양해야 한다고 주장했다.

박현욱 KAIST 뇌과학연구센터 교수는 '설명 가능한 AI기술의 필요성'을 역설했다. 그는 "데이터베이스를 기반으로 나온 인공지능의 판단과 그 과정은 인간이 해석할 수 있어야 하고 궁극적으로 AI와 인간은 대화할 수 있어야 한다"고 주장했다.

선지원 KISDI 부연구위원은 제조, 금융, 의료, 국방 4개 산업분야의 윤리이슈를 분석하며 정책 프레임워크 구축 시 고려 사항으로 윤리 대응과 법적 규제를 구분해야 한다고 강조했다. 이때 ”민관학협력 모델을 구축하고 서비스 이용자를 고려해야 한다” 며 “서비스 이용자는 보호 객체를 넘어 적극적으로 기술을 활용하는 주체라는 점도 인지해야 한다”고 말했다.

발표 후 이어진 토론에서 김지원 과학기술정보통신부 지능정보사회추진단 인공지능정책 팀장은 "과기정통부가 지난해 마련한 '지능정보사회 윤리가이드라인' 등이 실제 생태계 내에서 효과적으로 발동하기 위해서는 구체적이고 실효성 있는 적용방식이 필요하다" 며 과기정통부가 위험물의 자동판별기술 고도화를 위해 올해 신규로 개방하는 '위험물에 대한 엑스레이 이미지' 데이터셋을 언급했다. 김 팀장은 공개된 데이터셋이 악용되는 것을 방지하기 위해서 데이터셋을 필요로 하는 자에 대한 검증절차를 거쳐 제한적으로 제공하는 등 세부적인 대응책을 펼칠 것이라고 밝혔다.


이수연 기자 swoon77@g-enews.com