인공지능
-
국어사전
- 컴퓨터 인간의 지능이 가지는 학습, 추리, 적응, 논증 따위의 기능을 갖춘 컴퓨터 시스템. 전문가 시스템, 자연 언어의 이해, 음성 번역, 로봇 공학, 인공 시각, 문제 해결, 학습과 지식 획득, 인지 과학 따위에 응용한다. ≒에이아이(AI).
-
인공지능의 분류
- 약 인공지능
약 인공지능은 구글의 알파고와 사진 검색 서비스, 스펨메일 필터 등이 있다. 인간의 통제가 가능하고 특정 분야에서만 인간을 앞서는 인공지능을 약 인공지능이라고 한다.
- 강 인공지능
강 인공지응은 특정 분야뿐 아니라 모든 분야에서 인간과 동등하거나 우월한 능력을 가진 인공지능이라고 한다. ‘범용 인공지능’이라고도 하는데, SF영화에 등장하는 인공지능들이 대표적이다.
- 초 인공지능
초 인공지능은 모든 면에서 인간의 능력을 훨씬 초월하는 인공지능이다. 초인공지능의 능력의 한계는 인간의 상상을 초월하기 때문에 인간이 초인공지능을 이해하기는 어렵다고 한다. 인공지능의 특이점(singularity)가 먼 미래에 올 것이라는 의견이 많다. 특이점을 어떻게 맞이하는지에 따라 인류사가 달라질 수 있을것이다.
1. 영화속 인공지능
많은 SF영화에서 인공지능에 대한 주제를 다루고 있다. 대부분 인공지능과 인간이 대립하는 이야기를 그린다.
-
아이로봇
아이로봇은 2004년 7월 29일 개봉되었다. 원작은 아이작 아시모프의 소설 ‘아이로봇’이다. 로봇이 인간과 함께 공존하는 미래사회 이야기이다.
‘비키’는 네트워크가 연결되어 있으면 어디든지 제어할 수 있으며 비서역할을 한다. 비키는 로봇의 3원칙을 재해석하여 기계가 세상을 다스려야 인간을 보호 할 수 있다고 생각하고 NS-5로봇들을 이용해 세계를 다스릴려고 했다.
로봇 3원칙을 로봇이 스스로 어길 수 있다는 것은 충분히 인간에게 위협적일 수 있다는 것을 보여준다.
-
이글아이
2008년에 개봉되었다. ‘아리아’는 미 국방부에서 사용하는 정보 감시용 컴퓨터 이다. 정부는 테러리스트를 잡기 위해 노력하지만 아리아가 작전을 취소할 것을 요청한다.
실제 테러리스트일 확률이 30%밖에 되지 않는다는 것이다. 하지만 잘못된 결정이었으며, 아리아는 정부의 판단이 미국에 해가된다고 판단하고 스스로 동작한다. 자의식이 있는 아리아는 어디에나 존재하여, 제리와 레이첼에게 명령을 내린다.
아리아는 국회 행사가 있을때 미국의 각료들을 암살할 계획을 실행하지만 폭탄이 터지기 직전에 제리가 막아 참사는 일어나지 않게 된다.
-
채피
채피는 2015년에 개봉되었다. ‘채피’는 로봇 경찰 개발자 ‘디온’이 개발한 인간과 유사한 인공지능 로봇이다. 디온은 갱스터들에게 납치된 채 오래된 로봇을 조립하여 채피를 만들어 낸다. 채피는 깨어났을때 어린아이가 하는 행동을 보이지만 점점 학습을 통하여 말도 배우고 행동도 따라하게 된다.
이 영화에서는 채피가 학습을 할 수록 인간과 같은 감정을 느끼는것을 볼 수 있다.
2. 윤리적인 인공지능
- 아실로마 인공지능 원칙
- 2017년 1월 미국 캘리포니아에서 열린 AI conference에서 발표된 인공지능 개발 원칙이다.
- 인공지능 연구의 목적은 인간에게 유용하고 혜택을 주어야 하며, 인간의 존엄성·권리·자유·이상 등과 양립할 수 있어야 하며, 장기적으로 위험에 대응하고 공동의 이익을 위해 활용되어야 한다는 원칙
크게 연구이슈, 윤리 및 가치, 장기 이슈 3가지로 나뉜다.
윤리 및 가치에는 10가지가 있다.
- 안전
인공지능 시스템은 작동 수명 전반에 걸쳐 안전하고 또 안전해야 하며, 적용 가능하고 실현 가능할 경우 그 안전을 검증할 수 있어야 한다.
- 장애 투명성
인공지능 시스템이 손상을 일으킬 경우 그 이유를 확인할 수 있어야 한다.
- 사법적 투명성
사법제도 결정에 있어 자율시스템이 사용된다면, 권위 있는 인권기구가 감사 할 경우 만족스러운 설명을 제공할 수 있어야 한다.
- 책임
고급 인공지능 시스템의 디자이너와 설계자는 인공지능의 사용, 오용 및 행동의 도덕적 영향에 관한 이해관계자이며, 이에 따라 그 영향을 형성하는 책임과 기회를 가진다.
- 가치관 정렬
고도로 자율적인 인공지능 시스템은 작동하는 동안 그의 목표와 행동이 인간의 가치와 일치하도록 설계되어야 한다.
- 인간의 가치
인공지능 시스템은 인간의 존엄성, 권리, 자유 및 문화적 다양성의 이상에 적합하도록 설계되어 운용되어야 한다.
- 개인정보 보호
인공지능 시스템의 데이터를 분석 및 활용능력의 전제하에, 사람들은 그 자신들이 생산한 데이터를 액세스, 관리 및 통제할 수 있는 권리를 가져야 한다.
- 자유와 개인정보
개인정보에 관한 인공지능의 쓰임이 사람들의 실제 또는 인지된 자유를 부당하게 축소해서는 안된다.
- 공동 이익
인공지능 기술은 최대한 많은 사람에게 혜택을 주고 힘을 실어주어야 한다.
- 공동 번영
AI에 의해 이루어진 경제적 번영은 인류의 모든 혜택을 위해 널리 공유되어야 한다.
- 인간 의 통제력
인간이 선택한 목표를 달성하기 위해 인간은 의사결정을 인공지능 시스템에 위임하는 방법 및 여부를 선택해야 한다.
- 비파 괴
고도화된 인공지능 시스템의 통제로 주어진 능력은 건강한 사회가 지향하는 사회적 및 시정 과정을 뒤엎는 것이 아니라 그 과정을 존중하고 개선해야 한다.
- 인공 지능 무기 경쟁
치명적인 인공지능 무기의 군비 경쟁은 피해야 한다.
3. 기계윤리의 필요성
현재 인공지능은 우리 생활에 다양하게 사용되고 있다. 이런 인공지능의 오류로 인한 피해도 생겼다.
- 구글의 자율주행차와 버스 충돌
- 2016년 미국 캘리포니아주에서 구글의 자율주행차가 시속 3km로 도로를 달리다 버스와 충돌했다. 프로그램은 차로 변경을 하면서 버스가 속도를 늦출 것이라고 예측하였지만 예상대로 되지 않자 그대로 버스와 충돌을 하였다.
- 한맥투자증권 차익거래 자동매매시스템 오류
- 2013년 한맥투자증권은 차익거래 자동매매시스템의 알고리즘 오류로 단 2분만에 460억원의 손실이 발생해 파산했다.
- 중동 예맨 결혼식장 무인기 공격
- 2013년 중동 예멘에서 결혼식장으로 향하던 차량이 갑작스런 무인기 공격을 받아 10여명이 숨졌다.
위 사례만 보아도 인공지능의 오류는 인명피해와 금전적 손해를 초래한다. 인공지능이 동작하는 도중 한순간의 오류가 만들어낸 피해이다.
4. 정리
일부 국가에서 개발중인 전투로봇 또한 문제가 될 수 있는 상황이다. 로봇에 무기만 장착하면 적군을 살상하기에 충분하다.
인공지능을 개발하는데 있어 윤리적인 규제가 필요하며, 인공지능 자체에도 윤리가 필요하다고 생각된다.
REFERENCES