Page 214 - 고등학교 인공지능 기초
P. 214
윤리 세 번째 상황에서는 도로 위의 사람 9명과 운전자 중에서 선택을 해야 한다.
사람으로서 마땅히 행하거나 지켜
도로 위의 9명과 운전자 중 누구를 살려야 할까? 자율 주행 자동차의 신뢰성
야 할 도덕적 도리를 뜻한다. 우리
는 동물에게 윤리적·도덕적 선택 때문에 9명의 인명 피해를 용인해도 되는 것일까? 그렇지 않다면 자율 주행 자
을 기대하지 않는다. 기계 역시 사
람이 아니기 때문에 윤리 개념을 동차를 믿고 사용한 운전자의 피해를 선택해야 하는 것일까?
가지고 있지 않다.
앞에서 살펴본 세 가지 경우는 트롤리 딜레마 를 현대적으로 수정한 것으로,
딜레마 윤리적 딜레마를 잘 표현하고 있다. 윤리적 딜레마란 어떤 선택지도 윤리적으
선택해야 할 길은 두 가지 중 하
로 옳지 않고 도덕적으로 만족스럽지 않은 상황이지만, 한 가지를 선택해야 하
나로 정해져 있는데, 그 어느 쪽을
선택해도 바람직하지 못한 결과가 는 딜레마이다.
나오는 곤란한 상황을 의미한다.
트롤리 딜레마
윤리학 분야의 사고 실험으로, 다
섯 사람을 구하기 위해 한 사람을
희생시키는 것이 도덕적으로 허용
가능한지에 관한 질문이다.
그림Ⅳ-5 l 선택의 딜레마
인공지능 이전의 컴퓨터는 사람이 의도한 대로 계산만 했을 뿐, 상황을 판단
하거나 사람에게 영향을 끼치는 선택은 하지 않았다. 하지만 인공지능은 상황
을 인식하고 판단하며 실시간으로 그 다음 행동을 선택한다. 인공지능은 윤리
개념을 가지고 있지 않기 때문에 기계적으로 최적의 값만 찾는다. 인간도 윤리
적 판단을 내리기 힘든 딜레마 상황이 있듯이, 인공지능도 이런 딜레마 상황에
직면할 수 있다.
잠깐 활동
1. 위 세 가지 상황에서 본인의 선택과 그 이유를 정리해 보자.
상황 1 상황 2 상황3
본인의
선택과
이유
2. 모둠별로 의견을 공유하고 그 내용을 정리해 보자.
상황 1 상황 2 상황3
친구의
선택과
이유
212 Ⅳ 인공지능의 사회적 영향