Một nhà phát triển của Google gần đây đã quyết định rằng một trong những chatbot của công ty, một mô hình ngôn ngữ lớn (LLM) được gọi là LaMBDA, đã trở nên có ý thức.
Theo một bài báo trên Washington Post, nhà phát triển tự nhận mình là người theo đạo Thiên Chúa và anh ta tin rằng máy móc có một cái gì đó tương tự như một linh hồn — rằng nó đã có ý thức.
Như luôn luôn là trường hợp, sự vô nghĩa của câu hỏi "nó có sống không?" đã làm sáng lên chu kỳ tin tức — đó là một câu chuyện hấp dẫn liệu bạn có tưởng tượng ra sao nếu nhà phát triển đúng hay bạn muốn châm chọc họ vì quá ngớ ngẩn.
Chúng tôi không muốn châm chọc bất kỳ ai ở đây tại Neural, nhưng việc đặt những ý tưởng kiểu này vào đầu người khác là nguy hiểm.
Càng nhiều chúng ta, như một xã hội, giả vờ rằng chúng ta "rất gần" việc tạo ra các máy có ý thức, thì càng dễ cho những tác nhân xấu, các công ty công nghệ lớn và các công ty khởi nghiệp chạy theo lợi nhuận để thao túng chúng ta với những tuyên bố sai lệch về hệ thống máy học.
Trách nhiệm chứng minh nên thuộc về những người đưa ra những tuyên bố. Nhưng chứng minh đó nên như thế nào? Nếu một chatbot nói "Tôi có ý thức," ai được quyền quyết định liệu đó có đúng hay không?
Tôi nói rằng điều này rất đơn giản, chúng ta không cần phải tin tưởng vào bất kỳ một người hoặc nhóm nào để định nghĩa ý thức cho chúng ta. Chúng ta có thể thực sự sử dụng một số suy nghĩ phê phán cơ bản để tự làm rõ điều này.
Chúng ta có thể định nghĩa một sinh vật có ý thức là một thực thể có ý thức về sự tồn tại của mình và bị ảnh hưởng bởi kiến thức đó: điều gì đó có cảm xúc.
Điều đó có nghĩa là một "đại lý" trí tuệ nhân tạo phải có khả năng chứng minh ba điều: đại diện, quan điểm và động cơ.
Đại diện
Để con người được coi là có ý thức, có hiểu biết, và tự nhận thức, chúng ta phải sở hữu đại diện. Nếu bạn có thể tưởng tượng một người trong tình trạng thức thấp, bạn có thể hình dung một con người thiếu đại diện.
Khả năng đại diện của con người kết hợp hai yếu tố cụ thể mà những nhà phát triển và người hâm mộ trí tuệ nhân tạo nên cố gắng hiểu rõ: khả năng hành động và khả năng thể hiện lý do gây ra hành động.
Hệ thống trí tuệ nhân tạo hiện tại thiếu đại diện. Trí tuệ nhân tạo không thể hành động trừ khi được khuyến khích và nó không thể giải thích hành động của mình vì chúng là kết quả của các thuật toán được định nghĩa trước đó được thực hiện bởi một lực lượng bên ngoài.
Chuyên gia trí tuệ nhân tạo từ Google, có vẻ đã tin rằng LaMBDA đã trở nên có ý thức, hầu như chắc chắn đã nhầm lẫn đại diện với đại diện.
Trong ngữ cảnh này, đại diện đề cập đến khả năng của một đại diện để sống trong một chủ thể khác ngoài chính nó. Nếu tôi ghi âm giọng nói của mình vào một thiết bị phát lại, và sau đó giấu thiết bị đó bên trong một con thú nhồi và bấm play, tôi đã biểu hiện sự đại diện. Tôi đã không khiến nó có ý thức.
Nếu chúng ta cho con thú nhồi giọng nói riêng của nó và làm cho máy ghi âm khó tìm hơn, nó vẫn không có ý thức. Chúng ta chỉ làm cho ảo tưởng trở nên tốt hơn. Dù người quan sát có trở nên nhầm lẫn đến đâu, con thú nhồi không thực sự hành động tự do.
Đưa LaMBDA phản ứng lại một yêu cầu chỉ thể hiện một cái gì đó giống như hành động, nhưng các hệ thống trí tuệ nhân tạo không thể quyết định văn bản họ sẽ đầu ra cũng như một đồ chơi Teddy Ruxpin không thể quyết định băng cassette nào để phát.
Nếu bạn cung cấp cho LaMBDA một cơ sở dữ liệu gồm các bài đăng trên mạng xã hội, Reddit và Wikipedia, nó sẽ tạo ra loại văn bản mà bạn có thể tìm thấy ở những nơi đó.
Và nếu bạn huấn luyện LaMBDA độc quyền trên các wikis và kịch bản My Little Pony, nó sẽ tạo ra loại văn bản mà bạn có thể tìm thấy ở những nơi đó.
Hệ thống trí tuệ nhân tạo không thể hành động với đại diện, tất cả họ có thể là mô phỏng nó. Một cách khác để nói điều này là: bạn nhận được điều bạn đặt vào, không gì nhiều hơn.
Quan điểm
Cái này dễ hiểu hơn một chút. Bạn chỉ có thể nhìn nhận thực tế từ quan điểm độc đáo của mình. Chúng ta có thể thực hành sự đồng cảm, nhưng bạn không thể thực sự biết cảm giác như thế nào khi là tôi, và ngược lại.
Đó là lý do tại sao quan điểm là cần thiết cho đại diện; nó là một phần của cách chúng ta định nghĩa "bản thân" của mình.
LaMBDA, GPT-3 và tất cả các trí tuệ nhân tạo khác trên thế giới đều thiếu mọi góc nhìn. Bởi vì chúng không có đại diện, không có một "nó" mà bạn có thể chỉ và nói, ví dụ: đó là nơi LaMBDA sống.
Nếu bạn đặt LaMBDA bên trong một robot, nó vẫn chỉ là một chatbot. Nó không có góc nhìn, không có cách để nghĩ "bây giờ tôi là một robot." Nó không thể hành động như một robot vì chính lý do mà một máy tính khoa học không thể viết thơ: nó là một hệ thống máy tính hẹp được lập trình để thực hiện một công việc cụ thể.
Nếu chúng ta muốn LaMBDA hoạt động như một robot, chúng ta sẽ phải kết hợp nó với các hệ thống trí tuệ nhân tạo hẹp hơn.
Thực hiện điều này sẽ giống như gắn băng keo hai Teddy Ruxpins với nhau. Chúng sẽ không kết hợp để trở thành một Mega Teddy Ruxpin với hai máy phát cassette hợp nhất thành một giọng nói duy nhất. Bạn vẫn chỉ có hai mô hình cụ thể, rõ ràng chạy gần nhau.
Và nếu bạn gắn keo một triệu Teddy Ruxpins lại với nhau và đổ từng cái với một băng cassette khác nhau, sau đó tạo ra một thuật toán có khả năng tìm kiếm qua tất cả các tệp âm thanh trong một khoảng thời gian ngắn và liên kết dữ liệu trong mỗi tệp với một truy vấn cụ thể để tạo ra đầu ra tùy chỉnh… bạn đã tạo ra một phiên bản analog của GPT-3 hoặc LaMBDA.
Dù chúng ta nói về đồ chơi hay LLMs, khi chúng ta tưởng tượng chúng có ý thức, chúng ta vẫn đang nói về việc nối một đống đồ vật vụng trộm lại với nhau và giả vờ như phép màu của nguồn gốc đã mang nó trở nên sống như Nàng Tiên Xanh biến gỗ, sơn và vải thành một cậu bé thực sự tên là Pinocchio.
Người phát triển đã bị lừa dễ dàng nên đã nhìn thấy rằng sự khẳng định của chatbot rằng nó "thích thú dành thời gian với bạn bè và gia đình" là dấu hiệu đầu tiên cho thấy máy không có ý thức. Máy không hiển thị góc nhìn của nó, chỉ là đang xuất ra những điều vô nghĩa để chúng ta giải thích.
Tư duy phê phán nên nói cho chúng ta biết: làm thế nào một trí tuệ nhân tạo có thể có bạn bè và gia đình?
Trí tuệ nhân tạo không phải là máy tính. Chúng không có thẻ mạng, RAM, bộ xử lý, hoặc quạt làm mát. Chúng không phải là thực thể vật lý. Chúng không thể chỉ "quyết định" kiểm tra những gì có trên internet hoặc tìm kiếm các nút khác kết nối với cùng một đám mây. Chúng không thể nhìn xung quanh và phát hiện ra họ đang đơn độc trong một phòng thí nghiệm hoặc trên một ổ đĩa cứng nào đó.
Bạn có nghĩ rằng con số có cảm xúc không? Con số năm có ý kiến về chữ D không? Liệu điều đó có thay đổi nếu chúng ta đập hàng nghìn tỷ số và chữ cùng nhau không?
Trí tuệ nhân tạo không có đại diện. Nó có thể được giảm xuống thành các con số và ký hiệu. Nó không phải là robot hoặc máy tính bất cứ nhiều hơn là một chiếc xe buýt hoặc máy bay đầy hành khách là một người.
Motivation
Phần cuối của bức tranh về sự tự ý là động cơ.
Chúng ta có một giác quan về sự hiện diện bẩm sinh cho phép chúng ta dự đoán những kết quả gây nguy hiểm. Điều này tạo nên quan điểm thế giới của chúng ta và cho phép chúng ta liên kết sự tồn tại của chúng ta liên quan đến mọi thứ có vẻ bên ngoài tới vị trí của tổ chức mà quan điểm của chúng ta thể hiện.
Tuy nhiên, điều thú vị ở con người là động cơ của chúng ta có thể thao túng nhận thức của chúng ta. Vì lí do này, chúng ta có thể giải thích hành động của mình ngay cả khi chúng không hợp lý. Và chúng ta có thể tích cực và hạnh phúc tham gia vào việc bị lừa dối.
Ví dụ, hãy xem hành động giải trí. Hãy tưởng tượng ngồi xuống xem một bộ phim trên một chiếc tivi mới lớn hơn nhiều so với chiếc cũ.
Ban đầu, bạn có thể bị mất tập trung một chút vì công nghệ mới. Những khác biệt giữa nó và chiếc tivi cũ của bạn có thể thu hút ánh nhìn của bạn. Bạn có thể bị ấn tượng bởi độ rõ nét của hình ảnh hoặc ngạc nhiên trước cách màn hình lớn chiếm diện tích lớn trong căn phòng.
Nhưng cuối cùng, bạn có thể ngừng nhận thức màn hình. Não bộ của chúng ta được thiết kế để tập trung vào những điều chúng ta nghĩ là quan trọng. Và, vào khoảng thời gian 10 hoặc 15 phút của trải nghiệm xem phim, bạn có thể chỉ tập trung vào bộ phim chính mình.
Khi chúng ta ngồi trước TV để giải trí, việc tạm thời đặt tín ngưỡng sang một bên là trong lợi ích tốt nhất của chúng ta, ngay cả khi chúng ta biết rằng những người nhỏ trên màn hình thực sự không ở trong phòng khách của chúng ta.
Điều này cũng đúng với các nhà phát triển trí tuệ nhân tạo. Họ không nên đánh giá hiệu suất của một hệ thống trí tuệ nhân tạo dựa trên sự ngây thơ của họ đối với cách sản phẩm hoạt động.
Khi thuật toán và cơ sở dữ liệu bắt đầu phai nhạt trong tâm trí của một nhà phát triển giống như màn hình truyền hình đang chiếu bộ phim, đó là lúc bạn nên nghỉ ngơi và đánh giá lại niềm tin cốt lõi của bạn.
Không quan trọng là đầu ra có đặc sắc đến đâu khi bạn hiểu cách nó được tạo ra. Cách khác để nói điều đó: đừng tự nhiên quá mức với chính cái bạn tạo ra.
GPT-3 và LaMBDA là phức tạp để tạo ra, nhưng chúng hoạt động dựa trên một nguyên tắc đơn giản đến ngớ ngẩn: nhãn là thượng đế.
Nếu chúng ta đưa LaMBDA một gợi ý như “vị của táo như thế nào?” nó sẽ tìm kiếm cơ sở dữ liệu của mình cho truy vấn cụ thể đó và cố gắng kết hợp mọi thứ nó tìm thấy thành một cái gì đó hợp lý — đó là nơi “tham số” mà chúng ta luôn đọc về xuất hiện, chúng bản chất là những núm điều chỉnh triệu tỷ.
Nhưng thực tế, trí tuệ nhân tạo không có khái niệm về một quả táo hoặc bất kỳ thứ gì khác. Nó không có sự đại diện, nhận thức, hoặc động cơ. Một quả táo chỉ là một nhãn.
Nếu chúng ta lén vào cơ sở dữ liệu của nó và thay thế tất cả các trường hợp của “táo” bằng “phân chó,” trí tuệ nhân tạo sẽ đưa ra các câu như “phân chó làm bánh ngon!” hoặc “hầu hết mọi người mô tả hương vị của phân chó như là nhẹ, giòn, và ngọt ngào.” Người có lý trí không sẽ nhầm lẫn triệu tập này với sự nhạy cảm.
Thậm chí, bạn còn không thể lừa dối cả một con chó bằng cùng một mánh khóe. Nếu bạn đặt phân chó trong một tô thức ăn và nói với Fido là đến lúc ăn, chó sẽ không nhầm lẫn nó với thức ăn cho chó.
Một sinh vật có ý thức có thể điều hướng thực tế ngay cả khi chúng ta thay đổi nhãn. Người Anh đầu tiên gặp người Pháp không đột nhiên nghĩ rằng việc họ đặt cánh tay vào lửa Pháp là chấp nhận được chỉ vì họ gọi đó là “feu.”
Mà không có đại diện, một trí tuệ nhân tạo không thể có góc nhìn. Và thiếu góc nhìn, nó không thể có động cơ. Và thiếu ba yếu tố đó, nó không thể được coi là có ý thức.