Thành phố, khách sạn, điểm đến24-25 Apr, 2 Khách, 1 đêm
Tìm kiếm
Ngày đến Wed, Apr 24
1
Ngày vềThu, Apr 25
Số phòng, số khách1 phòng, 2 người lớn, 0 trẻ em

Lo lắng về đạo đức của Trí tuệ Nhân tạo (AI)? Hãy lo lắng về đạo đức của các nhà phát triển trước tiên.

Bởi: Minprice.com
26/03/20240like

Nội dung bài viết
  • Tương lai tự lái
  • Một sinh mệnh có giá trị như thế nào?
  • Những trăn trở triết học
  • Trí tuệ nhân tạo đã thực hiện những quyết định trong lĩnh vực kinh doanh, chăm sóc sức khỏe và sản xuất. Tuy nhiên, các thuật toán AI thường vẫn cần sự hỗ trợ từ con người trong việc áp dụng kiểm tra và đưa ra quyết định cuối cùng.

    Nếu hệ thống AI phải đưa ra quyết định độc lập, đặc biệt là những quyết định có thể ảnh hưởng đến tính mạng con người, điều gì sẽ xảy ra?

    Văn hóa đại chúng đã lâu đã mô tả sự không tin tưởng tổng quát của chúng ta đối với AI. Trong bộ phim khoa học viễn tưởng năm 2004 I, Robot, thám tử Del Spooner (do Will Smith đóng) nghi ngờ robot sau khi được một con robot cứu từ tai nạn xe hơi, trong khi một cô gái 12 tuổi bị bỏ đói. Anh nói:

    Tôi là sự lựa chọn hợp lý. Nó tính toán rằng tôi có 45% cơ hội sống sót. Sarah chỉ có 11% cơ hội. Đó là đứa trẻ của ai đó - 11% là đủ. Một con người sẽ biết điều đó.

    Ba Đạo luật về Robot của Asimov. #MSInspire pic.twitter.com/A4FkpBOBYa

    \n

    — Richard Hay (@WinObs) July 17, 2019

    Khác với con người, robot thiếu ý thức đạo đức và tuân theo "đạo đức" được lập trình vào họ. Đồng thời, đạo đức của con người biến đổi rất nhiều. Việc "đúng" trong bất kỳ tình huống nào sẽ phụ thuộc vào người bạn hỏi.

    Để máy móc có thể giúp chúng ta đạt đến tiềm năng tối đa của mình, chúng ta cần đảm bảo rằng chúng hành xử đạo đức. Vậy câu hỏi đặt ra là: đạo đức của các nhà phát triển và kỹ sư trí tuệ nhân tạo làm thế nào ảnh hưởng đến các quyết định của trí tuệ nhân tạo?

    Tương lai tự lái

    Hãy tưởng tượng một tương lai với những chiếc ô tô tự lái hoàn toàn tự động. Nếu mọi thứ diễn ra đúng như dự kiến, việc đi làm vào buổi sáng sẽ là cơ hội để chuẩn bị cho cuộc họp trong ngày, đọc tin tức hoặc ngồi lại và thư giãn.

    Nhưng nếu mọi thứ gặp sự cố? Chiếc ô tô tiếp cận đèn đỏ, nhưng đột ngột hệ thống phanh hỏng và máy tính phải đưa ra quyết định trong chớp mắt. Nó có thể đánh lái vào cột gần đó và giết người lái, hoặc tiếp tục đi và giết người đi bộ phía trước.

    Máy tính kiểm soát chiếc ô tô chỉ có quyền truy cập thông tin hạn chế được thu thập thông qua cảm biến của ô tô và sẽ phải đưa ra quyết định dựa trên điều này. Mặc dù có vẻ ấn tượng, nhưng chúng ta chỉ cách vài năm nữa có thể đối mặt với những tình thế khó khăn như vậy.

    Ô tô tự lái nói chung sẽ cung cấp trải nghiệm lái xe an toàn hơn, nhưng tai nạn sẽ là không thể tránh khỏi - đặc biệt là trong tương lai gần, khi những chiếc xe này sẽ chia sẻ đường với người lái xe và người tham gia giao thông khác.

    Tesla vẫn chưa sản xuất các ô tô hoàn toàn tự lái, mặc dù họ có kế hoạch làm điều này. Trong các tình huống va chạm, ô tô Tesla không tự động hoạt động hoặc tắt hệ thống Phanh Khẩn cấp Tự động (AEB) nếu một người lái đang kiểm soát.

    Nói cách khác, hành động của người lái không bị gián đoạn - ngay cả khi chính họ gây ra va chạm. Thay vào đó, nếu xe phát hiện nguy cơ va chạm, nó gửi cảnh báo cho người lái phải hành động.

    Tuy nhiên, ở chế độ "tự lái", ô tô sẽ tự động phanh để tránh người đi bộ. Một số người bảo rằng nếu ô tô có thể ngăn chặn một va chạm, thì có trách nhiệm đạo đức để nó ghi đè hành động của người lái trong mọi tình huống. Nhưng liệu chúng ta có muốn một chiếc ô tô tự lái đưa ra quyết định này không?

    Một sinh mệnh có giá trị như thế nào?

    Nếu máy tính của chiếc ô tô có thể đánh giá giá trị tương đối của hành khách trong xe và người đi bộ? Nếu quyết định của nó xem xét giá trị này, lý thuyết nó chỉ đang thực hiện một phân tích chi phí lợi ích.

    Dù có vẻ đáng báo động, nhưng đã có các công nghệ đang được phát triển có thể cho phép điều này xảy ra. Ví dụ, Meta (trước đây là Facebook) với công nghệ nhận diện khuôn mặt tiên tiến có thể dễ dàng nhận diện cá nhân trong một tình huống.

    Nếu những dữ liệu này được tích hợp vào hệ thống trí tuệ nhân tạo của một phương tiện tự lái, thuật toán có thể đặt một giá trị tiền cho mỗi sinh mệnh. Khả năng này được miêu tả trong một nghiên cứu chi tiết năm 2018 được tiến hành bởi các chuyên gia tại Viện Công nghệ Massachusetts và đồng nghiệp.

    Thông qua thí nghiệm Moral Machine, các nhà nghiên cứu đưa ra các tình huống xe tự lái đa dạng, buộc người tham gia phải quyết định liệu họ sẽ giết người đi bộ vô gia cư hay một giám đốc đi bộ.

    Kết quả cho thấy sự lựa chọn của người tham gia phụ thuộc vào mức độ bất平 kinh tế trong nước của họ, trong đó mức bất bình đẳng kinh tế cao hơn có nghĩa là họ có khả năng hy sinh người đàn ông vô gia cư cao hơn.

    Mặc dù không phải là hoàn toàn tiên tiến, việc tổng hợp dữ liệu như vậy đã được sử dụng trong Hệ thống điểm xã hội của Trung Quốc, quyết định những quyền lợi xã hội mà người dân có.

    Ngành y tế là một lĩnh vực khác nơi chúng ta sẽ thấy Trí tuệ Nhân tạo đưa ra quyết định có thể cứu sống hoặc gây hại cho con người. Các chuyên gia ngày càng phát triển AI để phát hiện bất thường trong hình ảnh y khoa, và hỗ trợ bác sĩ ưu tiên chăm sóc y tế.

    Hiện tại, bác sĩ vẫn là người quyết định cuối cùng, nhưng khi những công nghệ này trở nên ngày càng tiên tiến, điều gì sẽ xảy ra khi một bác sĩ và thuật toán Trí tuệ Nhân tạo không đưa ra chẩn đoán giống nhau?

    Một ví dụ khác là hệ thống nhắc thuốc tự động. Hệ thống nên phản ứng như thế nào nếu một bệnh nhân từ chối uống thuốc của họ? Và điều đó làm thế nào ảnh hưởng đến tự chủ của bệnh nhân và trách nhiệm tổng thể của hệ thống?

    Các máy bay không người lái và vũ khí được trang bị Trí tuệ Nhân tạo cũng gây lo ngại về mặt đạo đức, vì chúng có thể đưa ra quyết định về việc giết người. Có những quan điểm mâu thuẫn về việc liệu có nên hoàn toàn cấm hay quy định các công nghệ như vậy. Ví dụ, việc sử dụng máy bay không người lái tự động có thể được giới hạn chỉ để giám sát.

    Một số người đã yêu cầu robot quân sự được lập trình với đạo đức. Nhưng điều này đặt ra vấn đề về trách nhiệm của người lập trình trong trường hợp một chiếc máy bay không người lái giết người dân vô tội.

    Những trăn trở triết học

    Đã có nhiều cuộc tranh luận triết học về quyết định đạo đức mà Trí tuệ Nhân tạo sẽ phải đưa ra. Ví dụ điển hình về điều này là vấn đề vấn đề xe điện.

    \n
    \n \n
    \n

    Người ta thường gặp khó khăn khi đưa ra quyết định có thể thay đổi cuộc đời. Khi đánh giá cách chúng ta phản ứng trong những tình huống như vậy, một nghiên cứu cho biết sự lựa chọn có thể thay đổi tùy thuộc vào một loạt các yếu tố bao gồm độ tuổi, giới tính và văn hóa của người tham gia.

    Khi đến với các hệ thống Trí tuệ Nhân tạo, quá trình đào tạo thuật toán là quyết định quan trọng đối với cách chúng sẽ hoạt động trong thế giới thực. Một hệ thống được phát triển ở một quốc gia có thể bị ảnh hưởng bởi quan điểm, chính trị, đạo đức và đạo đức của quốc gia đó, khiến nó không phù hợp để sử dụng ở một nơi và thời điểm khác nhau.

    Nếu hệ thống đang điều khiển máy bay, hoặc hướng dẫn một tên lửa, bạn muốn có một mức độ tin cậy cao rằng nó được đào tạo với dữ liệu đại diện cho môi trường nó đang được sử dụng.

    Các ví dụ về thất bại và thiên vị trong triển khai công nghệ đã bao gồm bộ phát xà phòng có tính chất phân biệt chủng tộcgắn nhãn hình ảnh tự động không thích hợp.

    Trí tuệ Nhân tạo không phải là "tốt" hoặc "xấu". Các ảnh hưởng mà nó tạo ra đối với con người sẽ phụ thuộc vào đạo đức của những người phát triển nó. Vì vậy, để tận dụng tối đa, chúng ta cần đạt được một sự đồng thuận về điều chúng ta coi là "đạo đức".

    Bài viết này do Jumana Abu-Khalaf, Nghiên cứu viên về Tin học và An ninh, Đại học Edith CowanPaul Haskell-Dowland, Giáo sư Thực hành An ninh Mạng, Đại học Edith Cowan, xuất bản từ The Conversation theo giấy phép Creative Commons. Đọc bài viết gốc.