Cần phải làm gì để hoàn thiện xe tự lái?
————————
Chúng ta cần giải quyết vấn đề đạo đức mà nó tạo ra:
Nếu máy tính phải quyết định người chết thì đó sẽ ai? Người đi đường hay tài xế? Nếu không thể tránh được va chạm, máy tính sẽ chọn làm gì?
Những điều này sẽ phải được lập trình sẵn.
Có thể chấp nhận được việc bảo vệ tài xế bằng cách giết chết người đi đường hay không? Liệu những người đi đường có chấp nhận được việc 1 chiếc ô tô được lập trình sẵn để giết họ và bảo vệ tài xế? Liệu điều này có dẫn tới 1 hệ thống giai cấp nơi máy tính được thiết kế để giết người nghèo để bảo vệ người giàu?
Có thể chấp nhận được việc chủ động gây thương tích cho tài xế để tránh giết chết người đi đường? Việc đặt người đi đường lên hàng đầu có thể chấp nhận được hay không? Liệu mọi người có còn muốn mua xe trong trường hợp đó?
Ở tấm hình bên dưới, nếu không thể tránh khỏi va chạm, chiếc xe nên chọn người nào để đâm? Nó hơi giống với 1 cảnh trong phim “I, robot” (cảnh bảo spoiler). Will Smith và 1 đứa trẻ đang bị đuối nước, robot đã chọn cứu người “hữu ích” nhất là Will Smith. Đây không phải là quyết định mà 1 người bình thường sẽ chọn. Điều này thật đáng lo ngại.
Tôi thích chết 1 cách tình cờ hơn là bị 1 phần mềm chọn lựa để chết.
————————
Bình luận: Geoffrey Widdison
Ý tưởng cho rằng 1 chiếc xe tự lái “cần” phải giải quyết vấn đề này khiến tôi cảm thấy khá nực cười. Thật dễ thương khi bạn viết về 1 vấn đề triết học nhưng lại giả vờ như mình đang viết về công nghệ. Điều này thực sự không đúng ở thế giới thực.
Tại sao ư? Có 1 vài lý do cho việc đó.
Đầu tiên, ý tưởng xe tự lái đủ tiên tiến để phân biệt giữa trẻ sơ sinh và người già rất khó xảy ra, chưa nói đến việc lập trình để tính toán giá trị tương đối về mạng sống của mỗi người. Ngay cả khi chúng ta có thể, thì không có lý do gì phải làm việc đó cả.
Hầu hết các phần mềm của xe tự lái sẽ cố gắng quyết định giữa 2 việc: đâm người đi đường hoặc chủ động đâm xe gây thương tích cho tài xế. Nhưng câu trả lời cho điều đó rất đơn giản, bởi nó không phải vấn đề về đạo đức, mà là về tiền.
Chúng ta từ lâu đã có sẵn 1 hệ thống áp dụng những câu hỏi triết học như vậy vào thế giới thực, nó được gọi là pháp luật. Luật pháp rõ ràng là không hoàn hảo, chẳng điều gì có thể như vậy cả.
Nhưng các công ty sản xuất ô tô không được điều hành bởi các nhà triết gia, chúng được điều hành bởi các doanh nhân muốn có được tối đa lợi nhuận và giảm thiểu các trách nhiệm pháp lý. Do đó, họ sẽ lập trình phần mềm để tuân thủ toàn bộ các luật giao thông liên quan. Trong trường hợp không có luật cụ thể nào để giải quyết vấn đề đó, họ sẽ lập trình để chiếc xe làm bất kì điều gì giúp giảm thiểu khả năng bị kiện.
Thành thật mà nói, trừ khi những chiếc xe được thiết kế cực kì tồi tệ, thì rất hiếm khi chúng phải đưa ra những quyết định như vậy: 1 phương tiện không bao giờ được phép đi nhanh đến mức không thể dừng lại khi gặp chướng ngại vật hoặc người đi bộ.
Nhưng nếu có ai đó đang đi ẩu, hoặc 1 đứa trẻ đột nhiên lao ra đường khiến bạn không thể dừng lại kịp thời, không luật nào quy định người lái phải tự đâm xe chứ không được phép đâm vào người đi bộ. Luật pháp sẽ coi đó là 1 tai nạn đáng tiếc nhưng không thể tránh khỏi, vì vậy nhà sản xuất ô tô cũng sẽ lập trình để mọi chuyện xảy ra như vậy.
Đó có phải là hành động đúng đắn về mặt đạo đức không? Ai thèm quan tâm chứ! Đó là việc hợp pháp phải làm, nó cũng bảo vệ khách hàng của họ và khiến họ không phải chịu trách nhiệm pháp lý, vì vậy đó chính xác là những gì họ sẽ làm.
Vấn đề ở đây là các công ty ô tô không quan tâm đến cách áp dụng triết lý đạo đức vào các quyết định trong thế giới thực. Họ sẽ để quyết định đó cho các nhà lập pháp. Nếu luật pháp thay đổi, phần mềm cũng sẽ như vậy.