[기술윤리: 자율주행차의 트롤리 딜레마]
자율주행차가 보편화되면서 윤리적 난제인 '트롤리 딜레마(Trolley Problem)'가 현실의 문제로 부상했습니다. 만약 자율주행차가 브레이크 고장으로 직진하면 5명의 보행자를 치게 되고, 방향을 틀면 인도에 있는 1명의 보행자(혹은 탑승자 본인)를 희생시켜야 하는 상황에 부닥친다면 어떻게 프로그래밍되어야 할까요? 다수를 살리기 위해 소수를 희생하는 공리주의적 선택을 하도록 알고리즘을 짜야 할지, 아니면 탑승자를 최우선으로 보호해야 할지 명확한 합의가 없습니다. 소비자는 다수를 살리는 철학에 동의하면서도, 정작 본인의 목숨을 담보로 하는 차량은 구매하려 하지 않는 모순된 태도를 보입니다. 이는 알고리즘이 단순한 논리 회로를 넘어 복잡한 인간의 도덕적 타협을 요구받고 있음을 시사합니다.