우리는 매일 크고 작은 선택을 하며 살아갑니다. 점심 메뉴를 고르는 일부터 중요한 진로 결정까지, 선택은 삶의 일부입니다. 그런데, 세상에는 그 어떤 답도 명확하지 않은 ‘선택의 문제’가 있습니다. 바로 트롤리 딜레마(Trolley Dilemma)입니다.
이 윤리적 딜레마는 수십 년 전 철학 강의실에서 제기되었지만, 지금은 AI 윤리, 자율주행차, 인공지능의 의사결정 분야에서 다시 조명받고 있습니다. 인간조차도 정답을 내리기 힘든 문제를, 과연 AI는 해결할 수 있을까요?
트롤리 딜레마란 무엇인가?
트롤리 딜레마는 다음과 같은 상황에서 시작됩니다.
달리는 트롤리(전차)가 앞으로 5명을 향해 달려가고 있습니다.
그런데 당신 앞에는 선로를 전환할 수 있는 스위치가 있습니다.
스위치를 당기면 트롤리는 다른 선로로 방향을 바꾸지만, 그곳에는 1명이 있습니다.
질문: 당신은 스위치를 당기시겠습니까?
이 단순한 시나리오는 한 사람을 희생해서 다섯 명을 살릴 수 있는 기회처럼 보이지만, 그 한 명을 '의도적으로' 죽음에 이르게 한 것이기 때문에 도덕적 논란이 발생합니다.
이 딜레마는 생명을 숫자로 환산할 수 있는가, 행동과 무행동의 윤리적 차이는 무엇인가, 선택의 책임은 누구에게 있는가 등 수많은 질문을 던집니다.
다양한 트롤리 딜레마의 변형
트롤리 딜레마는 다양한 형태로 확장되어 논의됩니다.
- 터널 딜레마: 자율주행차가 충돌을 피하려면 보행자를 희생해야 하는 상황
- 기관사 딜레마: 당신이 트롤리의 기관사라면 스스로 방향을 바꿀 수 있는가?
- 강제로 한 명을 미는 경우: 육체적으로 개입해서 한 명을 희생시키는 상황에서는 대답이 달라지는가?
이처럼 같은 구조의 문제라도 맥락이 달라지면 도덕적 판단도 바뀌는 것이 인간의 특징입니다.
AI는 어떻게 판단할까?
자율주행차를 개발하는 기업들이 실제로 겪는 고민이 바로 이 딜레마입니다.
- 보행자와 탑승자 중 누구를 우선할 것인가?
- 고령자와 어린아이 중 누구를 우선할 것인가?
- 법적 책임은 누가 질 것인가?
AI는 데이터를 기반으로 판단하지만, 윤리적 기준은 각 나라마다, 사람마다 다릅니다. MIT에서는 Moral Machine이라는 실험을 통해 세계 각국 사람들이 어떤 도덕적 판단을 내리는지 수집하기도 했습니다.
하지만 그 어떤 데이터도 ‘모두를 만족시키는 선택’을 보장하지 못합니다. 결국 AI도 이 문제 앞에서는 “정답 없음”이라는 인간의 고뇌를 공유하게 됩니다.
우리는 어떤 선택을 할 수 있을까?
트롤리 딜레마는 단순히 철학적 게임이 아닙니다. 실제로 우리는 일상 속에서 비슷한 선택을 끊임없이 하고 있습니다.
- 회사에서 팀원 중 누구를 먼저 챙길지
- 가족과 일 중 무엇을 우선할지
- 소비를 통해 어떤 가치를 지지할지
선택의 기준은 상황, 가치관, 책임감 등에 따라 모두 다릅니다. 그리고 트롤리 딜레마가 우리에게 알려주는 것은 한 가지입니다.
"모든 선택에는 대가가 따르며, 책임은 결국 우리 자신에게 돌아온다."
결론: 당신이라면 어떻게 하시겠습니까?
AI는 아직 도덕적 직관을 완벽히 이해하지 못합니다. 우리는 그 어느 때보다 기술과 윤리의 조화를 고민해야 하는 시대에 살고 있습니다.
트롤리 딜레마는 단순한 논쟁을 넘어, 우리가 어떤 세상을 원하는가, 어떤 가치를 우선시할 것인가를 묻는 질문입니다.
지금 이 순간, 당신이라면 스위치를 당기시겠습니까?
그리고, 그 선택의 무게를 감당할 준비가 되어 있나요?