[현장] AI 자율 규제 가능성, 서울대서 논의…"윤리, 혁신의 촉진제 될 수 있다"

News

[현장] AI 자율 규제 가능성, 서울대서 논의…"윤리, 혁신의 촉진제 될 수 있다"

[지디넷코리아]

서울대학교가 전 세계 전문가들과 함께 인공지능(AI) 기술의 윤리적 활용과 위험 관리 방안을 논의했다. 민간 주도의 자율 규제 가능성과 공공 정책의 한계 사이에서 기술 혁신을 해치지 않으면서도 사회적 신뢰를 확보하려는 균형 전략이 주요 의제로 떠올랐다.

서울대학교 데이터사이언스대학원은 20일 서울 관악구 호암교수회관에서 '제3회 제트인스펙션 국제 컨퍼런스'를 개최하고 'AI 규제, 책임 있는 AI와 AI 혁신 : 균형 잡기의 과제'를 주제로 패널 토론을 진행했다.

이날 패널에서는 안띠 니에멜라 핀란드 대사관 부대사가 사회를 맡았으며 곽준호 한국정보통신기술협회(TTA) 팀장, 김명신 LG AI연구원 수석, 글로벌 기업 머크의 장 엔노 샤르통 책임, 앙드레안 사부랭 라플람 앙드레-로랑도 대학 교수가 패널로 참석했다.

토론은 "혁신과 규제 중 무엇이 우선인가"라는 질문으로 시작됐다. 산업계 패널들이 모두 혁신의 손을 든 가운데 학계 대표인 라플람 교수만이 규제의 필요성을 강조했다. 다만 그는 '규제'보다는 '거버넌스'가 중요하다고 선을 그으며 기회의 원천이자 위험이기도 한 AI의 이중적 성격을 지적했다.

김명신 LG AI연구원 수석은 "AI는 우리가 이전에 겪어보지 못한 속도로 발전하고 있다"며 "이 기술이 제공할 수 있는 공공성과 효용성을 감안할 때 정부가 성급히 규제에 나서면 오히려 기술의 장점이 훼손된다"고 설명했다.

이어 "미국, 유럽, 중국 등 각국이 AI 기술의 주도권을 놓고 경쟁하고 있는 상황에서 어느 한 조직이 전방위적 규제를 시행하는 것은 비현실적인 접근"이라며 "오히려 기업의 자율 규제 유도에 방점을 찍어야 한다"고 설명했다.

곽준호 TTA 팀장 역시 혁신의 중요성을 강조했다. 그는 "빠르게 발전하는 기술 속에서 안전은 규제의 영역이 아니라 기술적 혁신의 일부"라며 "신뢰성과 안전은 생태계 발전을 위한 기술 조건이어야 한다"고 강조했다.

실제로 TTA는 비영리 조직으로서 표준화와 시험 인증을 통해 국내 기업들이 자율적으로 신뢰성 기준을 구현할 수 있도록 돕고 있다.

장 엔노 샤르통 머크 책임 역시 기업의 입장에서 "AI가 책임감 있게 사용돼야 한다는 데에는 이견이 없다"면서도 "정부 규제는 항상 기술 발전에 뒤따르며 때로는 기술 발전을 억누를 위험이 있다"고 지적했다. 이어 "정부가 규제보다는 '예측적 시야(fore­sight)'를 가지고 기업에 인센티브를 제공해 자발적 안전 확보를 유도해야 한다"고 제안했다.

시장 중심의 안전 확보 가능성에 대한 사회자의 질문에는 곽준호 팀장이 오픈AI와 앤트로픽 사례를 들며 응답했다.

그는 "프론티어 AI 기업들이 정렬(alignment)이나 레드티밍(red-teaming) 등 모델의 위험을 조기에 탐색하려는 이유는 고객이 두려움을 느끼면 다음 기술 상용화가 어려워지기 때문"이라며 "시장 수요와 브랜드 신뢰는 자율 안전 확보의 구조적 동인이 된다"고 설명했다.

김명신 수석은 내부적으로 AI 윤리를 구현하는 현실적 난관을 언급하며 이를 가시화하고 조직 내 리더십의 인식을 전환하기 위한 전략을 강조했다. 실제로 현재 연구원은 이같은 목적을 달성하기 위해 매년 AI 윤리 리포트를 발간하고 있다.

김 수석은 "리더십을 설득해 인적·재정적 자원을 투입하게 하기 위해서는 우선 AI 윤리를 '가시화'해야 한다"며 "우리는 외부 소비자, 정부, 국제기구 등 이해관계자들이 해당 노력을 인지하도록 성과를 문서화해 공개하고 이를 통해 외부의 기대가 내부의 정책 결정에 압박으로 작용하는 구조를 설계했다"고 설명했다.

디지털 문해력과 AI 윤리 교육의 중요성도 강조됐다. 라플람 교수는 "우리는 이제 AI를 매일 사용하고 있다"며 "AI 윤리 또한 디지털 시민으로서의 기본 소양이 돼야 한다"고 말했다. 그러면서 "단순히 법적 보호만으로는 충분치 않다"며 "사용자들이 기술을 이해하고 능동적으로 통제할 수 있어야 한다"고 주장했다.

한국의 AI기본법과 관련된 논의에서는 김명신 수석과 곽준호 팀장이 각각 시행 시기와 실효성 측면을 지적했다.

앙드레안 사부랭 라플람 앙드레-로랑도 대학 교수(가운데)가 발언을 하고 있다. (사진=조이환 기자)

김 수석은 "지난해까지만 해도 EU와 미국 등 주요국이 AI 안전 중심의 규제에 무게를 두는 분위기였으나 최근 트럼프의 재부상 이후에는 각국이 기술 개발 경쟁에 다시 돌입하는 흐름"이라고 설명했다.

이같은 상황에서 AI기본법이 예정대로 내년부터 시행될 경우 중소기업들은 인력과 경험의 부족으로 인해 법률상 의무 조항을 이행하는 데 상당한 부담을 겪을 가능성이 크다.

곽 팀장은 해당 법안의 세부 조항, 특히 제31조 '고영향 모델', 제32조 '기업의 안전 확보 의무', 제33조 '기업의 신뢰성 확보 책임'를 언급했다.

그는 "현재 법안의 시행령과 기술 지침을 유연하게 설계 중인 단계"라며 "기술 기반의 세부 가이드라인이 실제 실행 가능성을 좌우할 것"이라고 말했다.

토론 말미에는 '윤리'의 역할에 대한 철학적 질문이 다시 제기됐다. 샤르퉁 박사는 "차가 빠르게 달리기 위해 브레이크가 필요하듯 윤리는 기술 혁신을 가능하게 만드는 전제 조건"이라며 "윤리를 단지 제약이 아닌 촉진 장치로 바라볼 필요가 있다"고 강조했다.

김명신 수석은 이같은 윤리를 위해 LG AI연구원이 실제로 운영 중인 윤리성 평가 체계와 위험 진단 프로세스를 소개했다. 기술 위험을 사전에 감지하고 내부적으로 자율 억제하는 기능을 수행하는 조직문화로 정착시키고자 한다는 설명이다.

김 수석은 "AI 윤리는 궁극적으로 기업 문화의 일부가 되어야 한다"며 "매년 실시하는 윤리 인식 조사와 전사 세미나 등을 통해 실무자의 감수성과 책임 의식을 제고하고 있다"고 밝혔다.

로베르토 지카리 서울대학교 교수는 행사를 마치며 "브레이크는 단순히 속도를 조절하는 수단이 아니라 자신과 타인의 생명을 보호하는 장치"라며 "윤리는 혁신의 도구만이 아니라 그 자체로 지켜야 할 가치"라고 강조했다.

0 Comments
제목
Category
접속자 통계
  • 현재 접속자 61 명
  • 오늘 방문자 275 명
  • 어제 방문자 1,389 명
  • 전체 방문자 288,427 명
  • 전체 게시물 6,599 개
  • 전체 댓글수 674 개
  • 전체 회원수 57 명
Facebook Twitter GooglePlus KakaoStory KakaoTalk NaverBand