ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • 트롤리 딜레마, 모럴 머신(Moral Machine)으로 해결하자! 볼까요
    카테고리 없음 2020. 2. 13. 11:03

    트롤리 딜레마는 알고리즘이 사람의 생명에 직접적인 영향을 미친다면 무엇을 기준으로 판단하도록 해야 하는지, 그런 판단을 알고리즘에 맡겨도 되는지에 대한 질문으로 윤리학 분야의 대표적인 사건 점검입니다.현재 자율주행 부분이 많이 개발되어 있는데, 여기서 과인되는 부분은 트롤리의 딜레마입니다.


    >



    알고리즘은 어떤 사건을 해결하기 위한 절차입니다.만약 분명한 사고가 발생한다면 누군가 한 사람이 물리적인 피해를 입을 것이다.사람의 개입 없이 인공지능이 승차한 사람을 데리고 목적지로 이동하는 기술이 자율주행입니다.하지만 화면에 보이는 귀추가 발생했을 때 인공지능은 어떻게 판단해야 할까요?어떤 기준으로 절차를 수행합니까? 경우의 수는 여러 가지가 있습니다.● 노인과 젊은이 중 한명을 살려야 한다면.다수와 소수 중에서 생명의 가치를 어떻게 측정하는가?남성과 여성 가운데 분명히 희를 살려야 한다면 누구를 살려야 할까.사람도 판단하기 어려운 사건인데 기계는 과연 이 사건을 해결할 수 있을까요?


    >



    차량 시스템은 인간의 표결을 따라야 한다.전체 동의하십니까?인간의 표결을 대체해야 할 자율주행차에 인간의 표결을 따르라는 내용이라면 진정한 자율주행이 아니지 않느냐고 말씀하실 수도 있습니다.하지만 인간 생명에 대한 존엄성과 가치판단을 기계에만 양보할 수는 없습니다. 따라서 자율주행 자동차가 대다수가 사회적으로 동의하는 부분에 대해 판단의 기준을 제공할 수 있도록 새로운 플랫폼이 만들어졌습니다. 바로모럴머신이라는플랫폼입니다.


    >


    ​​​


    이런 자율주행차의 윤리적 딜레마를 해결하기 위해 라판 MIT 교수는 '모럴 머신(Moral Machine)'이라는 플랫폼을 개발했습니다.이는 다양한 딜레마를 설정하고 각 딜레마에 대해 사람들의 소견을 파악하는 플랫폼입니다. 데이터를 도출하면 사회적 합의를 얻을 수 있습니다. 탑승자와 보행자의 연령, 성별, 인종 및 행동의 청천 등 여러 변수를 넣어 10개의 언어를 사용하여 다양한 정부의 400만명을 대상으로 설문 조사한 데이터를 입력하 슴니다. 화면에 표시되어 있는 화면은, 실제로 모럴 머신 테스트를 실시함으로써 만날 수 있는 화면입니다.http://moralmachine.mit.edu/hl/kr



    상단에 기재된 사이트에서 회원가입을 하지 않고 바로 진행할 수 있습니다.테스트를 하면 나쁘지 않다는 대략적인 결론은 그 후와 함께 화면에 표시됩니다.인간과 동물, 비만인 사람과 항상 그렇듯이 신인, 남성과 여성 등 어느 쪽을 좋아하는지 확인할 수 있습니다.​


    >



    >


    >


    ​​


    대부분의 사람들은 이렇게 반응해요.첫째, 탑승자보다 보행자의 안전이 우선입니다.보행자를 때리는 정세의 경우, 탑승자가 목숨을 걸고 다른 곳에 부딪쳐야 한다는 의미네요.​


    둘째, 성인보다는 어린이를 보호해야 한다는 소견이다.기타 동물보다 인간을 중시하거나 이들 데이터는 대다수 사람들의 견해를 대변하기 때문에 자율주행차 사고생성시 판단의 기준으로 삼을 수 있다.​


    >


    ​​


    댓글

Designed by Tistory.