본문 바로가기
칭기스깐학습법/미래직업연구원

인공지능 활용의 문제점

by 법천선생 2013. 8. 13.

조현욱객원 과학전문기자코메디닷컴 편집주간

 

 

 "인간은 완전히 새로운 형태의 인공지능을 창조했다.

그것이 어떻게 생각하고 추론하는지를 인간은 헤아릴 수 없다."

 

 

지난 8일 과학전문지 뉴사이언티스트는 최근 각광받는

빅 데이터 인공지능을 심층 분석했다.

 

 

엄청난 양의 정보를 제공해 기계로 하여금 통계적 기법으로

스스로 학습하게 만드는 것이 특징이라고 한다.

 

 

그 성과는 놀랍다. 지난해 10월 '마이크로소프트 리서치'의

릭 라시드 수석부회장이 중국 톈진(天津)에서 실연을 보인

번역기가 그런 예다.

 

 

영어 연설을 그의 목소리 그대로 표준 중국어로

매끄럽게 옮기는 데 성공했다.

인공지능은 삶의 모든 영역에 영향을 미치기 시작했다.

지난해 IBM과 뉴욕의 '메모리얼 슬로언 케터링 암센터'는

'왓슨' 인공지능 시스템을 활용해 의사들의 암 진단과

치료법 선택을 돕는 내용의 업무협약을 체결했다.

 

 

구글의 자동운전 시스템은 30만 마일 무사고를 기록하며

미국 3개 주에서 합법화됐다. 구글 번역기도 있다.

 

 

이 모든 것은 컴퓨터가 스스로 학습해 데이터로부터

패턴을 추출하게 해주는 기술, 즉 기계 학습의 산물이다.

 

 

성공적인 기계학습 시스템 중 많은 수가 베이즈 통계기법에

기반을 두고 있다.

 

 

이 기법은 가능성을 측정하게 해주는 수학적 틀이다.

통계적 상관관계를 토대로 어떤 결과가 나타날 가능성에

숫자(값)를 부여하는 것이 특징이다.

문제는 그 추론 과정을 인간이 이해할 수 없다는 점이다.

인공지능의 초창기에는 기계가 어떤 선택을 하면 사람이

그 이유를 추적해 설명할 수 있었다.

하지만 오늘날 인공지능엔 그것이 불가능하다.

 

 

엄청난 양의 데이터 요소를 가지고 극도로 복잡한

통계분석을 수행하기 때문이다.

머지않아 인공지능이 대출 가능 액수, 의학 진단,

유죄 여부에 대해 판단을 내리기 시작할 것이다.

 

 

이것은 윤리적 문제를 제기한다.

어떤 기계가 당신에 대해 2, 3년 내로 술꾼이 될 것이라는

결론을 내린다고 생각해 보자.

 

 

그래서 의사가 장기이식을 보류한다면 이는 정당화될 수 있을까.

기계가 어떻게 해서 그런 결론을 내렸는지 아무도 모른다면

어떻게 이 결정을 따질 수 있을까.

 

 

"많은 사람이 빅데이터 시대의 프라이버시를 걱정한다.

솔직히 말해 그보다는 확률적 예측의 남용이 나는 더욱 걱정스럽다."

 

 

옥스퍼드 인터넷 연구소의 빅터 메이어숀버거의 말이다.

이런 사태를 피할 길은 없다고 뉴사이언티스는 보도하고 있다.

조현욱 객원 과학전문기자·코메디닷컴 편집주간