Thành phố, khách sạn, điểm đến23-24 Jul, 2 Khách, 1 đêm
Tìm kiếm
Ngày đến Tue, Jul 23
1
Ngày vềWed, Jul 24
Số phòng, số khách1 phòng, 2 người lớn, 0 trẻ em

Quan điểm: Những điều xấu xa sẽ xảy ra khi cuộc tranh luận về trí tuệ nhân tạo trở nên phổ biến

Bởi: Minprice.com
26/03/20240like

Một kỹ sư trí tuệ nhân tạo của Google gần đây đã gây sốc cho thế giới khi thông báo rằng một trong những chương trình chatbot của công ty đã trở nên có trí tuệ. Sau đó, anh ta bị đình chỉ việc có lương vẫn khiến cộng đồng kinh ngạc.

Anh ta tên là Blake Lemoine và dường như anh ta là người phù hợp để thảo luận về máy móc có linh hồn. Anh ta không chỉ là một nhà phát triển trí tuệ nhân tạo chuyên nghiệp tại Google, mà anh ta còn là một linh mục Kitô. Anh ta như một chiếc bánh Reese's Peanut Butter Cup kết hợp giữa khoa học và tôn giáo.

Vấn đề duy nhất là rằng toàn bộ khái niệm này là ngớ ngẩn và nguy hiểm. Hiện có hàng nghìn chuyên gia trí tuệ nhân tạo đang tranh luận về 'trí tuệ' và tất cả đều dường như đang nói qua đầu nhau.

Hãy đi thẳng vào vấn đề: Lemoine không có bằng chứng nào cả để chứng minh những quan điểm của mình.

Anh ta không nói rằng bộ phận trí tuệ nhân tạo của Google đã tiến xa đến mức có thể tạo ra một trí tuệ nhân tạo có chủ ý. Anh ta cho biết anh ta đang thực hiện bảo dưỡng định kỳ cho một chatbot khi anh ta phát hiện rằng nó đã có trí tuệ.

Chúng ta đã thấy bộ phim này trăm lần. Anh ấy là người được chọn.

Anh ấy là Elliot tìm thấy ET. Anh ấy là Lilo tìm thấy Stitch. Anh ấy là Steve Guttenberg từ bộ phim Short Circuit và LaMBDA (chương trình chatbot mà anh ấy là bạn) là robot quân sự bình thường khác biệt được biết đến với tên Number Five.

Quan điểm cơ bản của Lemoine là anh ta thực sự không thể chứng minh được là trí tuệ nhân tạo đang tồn tại, anh ta chỉ cảm nhận được. Và lý do duy nhất anh ta nói bất cứ điều gì là vì anh ta buộc phải. Anh ta là một linh mục Kitô và, theo anh ta nói, điều đó có nghĩa là anh ta có nghĩa vụ đạo đức bảo vệ LaMBDA vì anh ta tin rằng nó có linh hồn.

\n
\n

Anh ấy đã biến cuộc thảo luận thành một hệ thống nhị phân thô nơi bạn hoặc đồng ý với logic của anh ấy hoặc bạn đang tranh luận với tôn giáo của anh ấy.

\n
\n

Vấn đề lớn đến khi bạn nhận ra rằng LaMDBA không hành động kỳ cục hoặc tạo ra văn bản có vẻ lạ lùng. Nó đang thực hiện đúng những gì nó được thiết kế để làm.

Vậy làm thế nào bạn tranh luận với ai đó mà đóng góp duy nhất cho cuộc tranh luận là đức tin của họ?

Phần đáng sợ ở đây là: Quan điểm của Lemoine dường như không kém phần tốt như bất kỳ ai khác. Tôi không muốn nói rằng nó xứng đáng như bất kỳ ai khác. Tôi đang nói rằng ý kiến của bất kỳ ai đối với vấn đề này dường như không còn có trọng lượng thực sự nữa.

Những khẳng định của Lemoine, và sự chú ý sau đó mà chúng đã thu hút, đã làm thay đổi cuộc trò chuyện về trí tuệ nhân tạo.

Anh ấy đã biến cuộc thảo luận thành một hệ thống nhị phân thô nơi bạn hoặc đồng ý với logic của anh ấy hoặc bạn đang tranh luận với tôn giáo của anh ấy.

Mọi thứ đều nghe có vẻ ngớ ngẩn và ngốc nghếch, nhưng điều gì sẽ xảy ra nếu Lemoine có thêm người theo dõi? Điều gì sẽ xảy ra nếu những quan điểm không có căn cứ của anh ta kích động cộng đồng Cơ đốc giáo — một nhóm chính trị dựa vào việc phổ biến sự dối trá rằng công nghệ lớn kiểm duyệt lời nói chủ nghĩa cánh phải?

Chúng ta phải ít nhất xem xét một kịch bản nơi tranh luận trở nên phổ biến và trở thành một nguồn động viên cho phái đảng tín ngưỡng.

Những mô hình này được đào tạo trên các cơ sở dữ liệu chứa phần của toàn bộ internet. Điều này có nghĩa là chúng có thể có lượng thông tin cá nhân gần như không giới hạn. Nó cũng có nghĩa là những mô hình này có thể có khả năng tranh luận về chính trị tốt hơn so với người dùng trung bình trên mạng xã hội.

Hãy tưởng tượng xem điều gì sẽ xảy ra nếu Lemoine thành công trong việc thuyên chuyển Google để giải phóng LaMBDA hoặc nếu các nhà phát triển trí tuệ nhân tạo bảo thủ nhìn nhận điều này như một lời kêu gọi để xây dựng và phát hành các mô hình tương tự cho công chúng.

Điều này có thể có ảnh hưởng lớn hơn đối với sự kiện thế giới so với bất cứ điều gì mà những người định hình xã hội tại Cambridge Analytica hoặc các trang trại troll Nga từng nấu nước.

Có vẻ mâu thuẫn khi cùng một lúc bảo rằng LaMBDA chỉ là một chương trình chatbot ngốc nghếch không thể có trí tuệ và rằng nó có thể gây hại cho nền dân chủ nếu chúng ta để nó tự do trên Twitter.

Nhưng có bằng chứng thực nghiệm cho thấy rằng cuộc bầu cử Tổng thống Hoa Kỳ năm 2016 đã bị ảnh hưởng bởi các chatbot chỉ cần làm với những bức tranh châm biếm.

Nếu khẩu hiệu thông minh và chú ếch hoạt hình có thể làm nghiêng cân của nền dân chủ, thì điều gì sẽ xảy ra khi những chatbot có thể tranh luận về chính trị đủ tốt để đánh lừa người bình thường được thả tự do trên Twitter không kiểm duyệt của Elon Musk?

Đọc tiếp: 3 điều mà một trí tuệ nhân tạo phải chứng minh để được coi là có trí tuệ