Page 210 - 고등학교 인공지능 기초
P. 210

3









                                        윤리적




                                        딜레마





















                            학습 목표
                        •인공지능 사회에서 고려해야 할 윤리적 딜레마가 무엇인지 이해한다.
                        •인공지능을 올바르게 사용하기 위해 충분한 사회적 논의의 필요성을 인식한다.



                            학습 요소
                        윤리적 딜레마, 사회적 합의



                         생각해 볼까요?
                        알프레드 노벨은 폭약의 단점을 보완하기 위해 다이너마이트를 발명했다. 기존의
                        폭약은 약한 충격에도 쉽게 폭발해 인부들의 인명 피해가 컸다. 인명 피해를 줄이
                        기 위해 노벨이 만든 안전한 화약이 바로 다이너마이트이다. 하지만 전쟁에 사용되
                        어 많은 사람을 죽게 하자 노벨은 다이너마이트를 발명한 것을 후회했다고 한다.
                        다이너마이트는 사람을 위험에서 구하기도 했지만, 더 많은 사람을 해치기도 했다.
                        다이너마이트를 올바르게 사용하려면 사회적으로 어떠한 것을 논의했어야 할까?
                        인공지능도 다이너마이트처럼 사람을 위해 개발되었지만, 올바른 합의나 법적 규제
                        가 없다면 사람을 해칠 수도 있다. 이 단원에서는 인공지능의 윤리적 딜레마에 대
                        해 알아보고, 사회적 합의의 중요성에 대해 살펴본다.
   205   206   207   208   209   210   211   212   213   214   215