Thành phố, khách sạn, điểm đến19-20 Apr, 2 Khách, 1 đêm
Tìm kiếm
Ngày đến Fri, Apr 19
1
Ngày vềSat, Apr 20
Số phòng, số khách1 phòng, 2 người lớn, 0 trẻ em

Dừng cuộc tranh luận về việc trí tuệ nhân tạo có 'trí tuệ' hay không — câu hỏi là liệu chúng ta có thể tin tưởng vào nó hay không

Bởi: Minprice.com
26/03/20240like

Nội dung bài viết
  • Tại sao các mô hình ngôn ngữ lớn không nói ngôn ngữ của chúng ta
  • Trí tuệ so với sự tương thích và sự tin cậy
  • Quan điểm giải quyết vấn đề
  • Tháng trước đã chứng kiến một loạt bài viết, cuộc phỏng vấn và các hình thức truyền thông khác về Blake Lemoine, một kỹ sư của Google, người cho biết rằng LaMDA, một mô hình ngôn ngữ lớn được tạo ra để trò chuyện với người dùng, là “trí tuệ”.

    Sau khi đọc hàng chục quan điểm khác nhau về chủ đề, tôi phải nói rằng truyền thông đã trở nên (một chút) mất niềm tin vào sự hứng thú xoay quanh công nghệ trí tuệ nhân tạo hiện tại. Nhiều bài viết đã thảo luận vì sao các mạng thần kinh sâu không “trí tuệ” hoặc “tâm thức”. Điều này là một cải thiện so với vài năm trước, khi các phương tiện truyền thông tạo ra những câu chuyện giọng điệu về hệ thống trí tuệ nhân tạo sáng tạo ra ngôn ngữ riêng, chiếm mọi công việc, và tiến về phía trí tuệ nhân tạo tổng quát.

    Nhưng việc chúng ta đang thảo luận về trí tuệ và ý thức lại nhấn mạnh một điểm quan trọng: Chúng ta đang ở một điểm mà các hệ thống trí tuệ nhân tạo của chúng ta — đặc biệt là các mô hình ngôn ngữ lớn — đang trở nên ngày càng thuyết phục mặc dù vẫn gặp phải những khuyết điểm cơ bản mà các nhà khoa học đã chỉ ra ở các dịp khác nhau. Và tôi biết rằng “trí tuệ nhân tạo đánh lừa con người” đã được thảo luận từ thời chatbot ELIZA trong những năm 1960, nhưng những mô hình ngôn ngữ ngày nay thực sự ở một cấp độ khác. Nếu bạn không biết cách mô hình ngôn ngữ hoạt động, cuộc trò chuyện giữa Blake Lemoine và LaMDA có vẻ hầu như như một bức tranh siêu thực — ngay cả khi chúng đã được chọn lọc và chỉnh sửa.

    Tuy nhiên, điểm tôi muốn đưa ra ở đây là “trí tuệ” và “ý thức” không phải là cuộc thảo luận tốt nhất về các mô hình ngôn ngữ lớn và công nghệ trí tuệ nhân tạo hiện tại. Một cuộc thảo luận quan trọng hơn sẽ là về tính tương thích và sự tin tưởng của con người, đặc biệt là khi những công nghệ này đang được chuẩn bị để tích hợp vào các ứng dụng hàng ngày.

    Tại sao các mô hình ngôn ngữ lớn không nói ngôn ngữ của chúng ta

    Cách mà các mạng thần kinh và mô hình ngôn ngữ lớn hoạt động đã được thảo luận kỹ lưỡng trong tuần qua (tôi mạnh mẽ khuyến nghị đọc cuộc phỏng vấn của Melanie Mitchell với MSNBC để có một tường thuật cân nhắc về cách LaMDA và các LLM khác hoạt động). Tôi muốn đưa ra một cái nhìn toàn cảnh hơn về tình hình, bắt đầu với ngôn ngữ con người, với đó mà LLM được so sánh.

    Đối với con người, ngôn ngữ là một phương tiện để truyền đạt những kích thích phức tạp và đa chiều xảy ra trong não của chúng ta. Ví dụ, khi hai anh em đang trò chuyện và một trong số họ nói “mẹ,” từ này liên quan đến nhiều kích thích ở các phần khác nhau của não, bao gồm ký ức về giọng của mẹ, khuôn mặt, cảm giác và các trải nghiệm khác từ quá khứ đến (có thể) những ngày gần đây. Trên thực tế, có thể có sự khác biệt lớn giữa loại biểu diễn mà các anh em giữ trong não họ, tùy thuộc vào những trải nghiệm mà mỗi người đã có. Từ “mẹ,” tuy nhiên, mang lại một ước lượng được nén và biểu diễn tốt giúp họ đồng ý với khái niệm chung.

    Khi bạn sử dụng từ “mẹ” trong một cuộc trò chuyện với người lạ, sự khác biệt giữa các trải nghiệm và ký ức trở nên rộng hơn. Nhưng một lần nữa, bạn vẫn quản lý đạt được sự đồng thuận dựa trên các khái niệm chung mà bạn có trong tâm trí.

    Hãy xem xét ngôn ngữ như một thuật toán nén giúp chuyển đổi thông tin khổng lồ trong não sang người khác. Sự tiến hóa của ngôn ngữ liên quan trực tiếp đến những trải nghiệm chúng ta đã có trong thế giới, từ giao tiếp vật lý trong môi trường của chúng ta đến giao tiếp xã hội với con người khác.

    Ngôn ngữ được xây dựng dựa trên những trải nghiệm chung của chúng ta trong thế giới. Trẻ con biết về trọng lực, kích thước, tính nhất quán vật thể, và các khái niệm vật lý khác cũng như những khái niệm xã hội như đau đớn, buồn bã, nỗi sợ, gia đình và tình bạn ngay trước khi họ phát âm từ đầu tiên. Thiếu những trải nghiệm đó, ngôn ngữ không có ý nghĩa. Đây là lý do tại sao ngôn ngữ thường bỏ qua kiến thức thông thường và thông tin mà người nói chung có. Ngược lại, mức độ trải nghiệm và ký ức chung sẽ xác định sâu sắc cuộc trò chuyện bạn có thể có với người khác.

    Ngược lại, các mô hình ngôn ngữ lớn không có kinh nghiệm vật lý và xã hội. Chúng được đào tạo trên hàng tỷ từ và học cách phản ứng với các đầu vào bằng cách dự đoán chuỗi từ tiếp theo. Đây là một phương pháp đã mang lại những kết quả xuất sắc trong vài năm qua, đặc biệt là sau khi giới thiệu kiến trúc transformer.

    Làm thế nào các bộ biến áp quản lý việc đưa ra dự đoán rất thuyết phục? Chúng chuyển đổi văn bản thành “token” và “embedding,” biểu diễn toán học của từ trong không gian đa chiều. Sau đó, chúng xử lý embedding để thêm các chiều khác nhau như mối quan hệ giữa các từ trong một chuỗi văn bản và vai trò của chúng trong câu và đoạn văn. Với đủ ví dụ, các embedding này có thể tạo ra ước lượng tốt về cách từ nên xuất hiện trong các chuỗi. Bộ biến áp trở nên đặc biệt phổ biến vì chúng có thể mở rộng: Độ chính xác của chúng cải thiện khi chúng trở nên lớn hơn và được đào tạo trên nhiều dữ liệu hơn, và chúng có thể được đào tạo chủ yếu thông qua học không giám sát.

    Nhưng sự khác biệt cơ bản vẫn tồn tại. Mạng thần kinh xử lý ngôn ngữ bằng cách chuyển chúng thành các embedding. Đối với con người, ngôn ngữ  sự nhúng của suy nghĩ, cảm xúc, ký ức, trải nghiệm vật lý và nhiều điều khác mà chúng ta vẫn chưa khám phá về não.

    Đây là lý do tại sao có thể nói rằng bất kể sự tiến bộ và kết quả ấn tượng của chúng, các bộ biến áp, các mô hình ngôn ngữ lớn, các mạng thần kinh sâu, v.v. vẫn còn rất xa để nói chung ta.

    Trí tuệ so với sự tương thích và sự tin cậy

    Nhiều cuộc thảo luận ngày nay xoay quanh việc chúng ta có nên gán các thuộc tính như trí tuệ, ý thức và tính cá nhân cho trí tuệ nhân tạo hay không. Vấn đề của những cuộc thảo luận này là chúng tập trung vào các khái niệm mà được định nghĩa mơ hồ và có nghĩa khác nhau đối với mỗi người.

    Ví dụ, người theo học chức có thể sẽ đề xuất rằng các mạng thần kinh và mô hình ngôn ngữ lớn có ý thức vì chúng thể hiện (ít nhất là một phần) cùng loại hành vi mà bạn mong đợi từ một con người, mặc dù chúng được xây dựng trên một chất cơ khác nhau. Người khác có thể sẽ luận rằng chất hữu cơ là một yếu tố quan trọng cho ý thức và kết luận rằng mạng thần kinh sẽ không bao giờ có ý thức. Bạn có thể ném vào những cuộc tranh luận về qualia, thử nghiệm phòng Trung Quốc, kiểm tra Turing, v.v., và cuộc thảo luận có thể kéo dài mãi mãi.

    Tuy nhiên, một câu hỏi thực tế hơn là, mạng thần kinh hiện tại có độ “tương thích” như thế nào với tâm trí con người, và chúng ta có thể tin tưởng chúng đối với các ứng dụng quan trọng đến đâu? Và đây là một cuộc thảo luận quan trọng vì các mô hình ngôn ngữ lớn chủ yếu được phát triển bởi các công ty muốn chuyển đổi chúng thành các ứng dụng thương mại.

    Ví dụ, với đủ đào tạo, bạn có thể đào tạo một con tinh tinh lái xe ô tô. Nhưng bạn có đặt nó sau vô-lăng trên một con đường mà người đi bộ sẽ băng qua không? Bạn sẽ không, vì bạn biết rằng dù cho chúng có thông minh đến đâu, tinh tinh không nghĩ theo cách giống như con người và không thể được giao trách nhiệm cho các nhiệm vụ liên quan đến an toàn của con người.

    Tương tự, một con vẹt có thể được dạy nhiều từ ngữ. Nhưng bạn có tin tưởng nó có thể làm nhân viên chăm sóc khách hàng của bạn không? Có lẽ không.

    Ngay cả khi đến con người, một số tổn thương kognitiv loại trừng cử những người thực hiện một số công việc và nhiệm vụ yêu cầu tương tác với con người hoặc liên quan đến an toàn của con người. Trong nhiều trường hợp, những người này có thể đọc, viết, nói lưu loát và duy trì sự nhất quán và hợp lý trong cuộc trò chuyện dài. Chúng ta không đặt vấn đề về tính trí hay ý thức của họ. Nhưng chúng ta biết rằng quyết định của họ có thể trở nên không nhất quán và không dự đoán được do bệnh tật của họ (xem trường hợp của Phineas Gage, ví dụ).

    Quan trọng là bạn có thể tin tưởng người đó suy nghĩ và quyết định như một con người bình thường hay không. Trong nhiều trường hợp, chúng ta tin tưởng người thực hiện các nhiệm vụ vì chúng ta biết hệ thống giác quan của họ, kiến thức chung, cảm xúc, mục tiêu và phần thưởng của họ chủ yếu tương thích với chúng ta, ngay cả khi họ không nói chung một ngôn ngữ.

    Chúng ta biết gì về LaMDA? Thì, trước hết, nó không cảm nhận thế giới như chúng ta. “Kiến thức” của nó về ngôn ngữ không được xây dựng trên cùng loại trải nghiệm như chúng ta. Kiến thức chung của nó được xây dựng trên một nền tảng không ổn định vì không có đảm bảo rằng lượng lớn văn bản sẽ bao phủ tất cả những điều chúng ta bỏ qua trong ngôn ngữ.

    Với sự không tương thích như vậy, bạn có thể tin tưởng LaMDA và các mô hình ngôn ngữ lớn khác đến đâu, dù chúng có giỏi đến mức nào trong việc tạo ra văn bản đầu ra? Một chương trình chatbot thân thiện và giải trí có thể không phải là ý tưởng tồi, miễn là nó không đưa cuộc trò chuyện vào các chủ đề nhạy cảm. Các công cụ tìm kiếm cũng là một lĩnh vực ứng dụng tốt cho LLMs (Google đã sử dụng BERT trong tìm kiếm một vài năm nay). Nhưng bạn có thể tin tưởng chúng với các nhiệm vụ nhạy cảm hơn, chẳng hạn như một chatbot dịch vụ khách hàng không giới hạn hoặc một tư vấn ngân hàng (mặc dù chúng đã được đào tạo hoặc điều chỉnh lại trên một lượng lớn các bản ghi cuộc trò chuyện có liên quan)?

    Quan điểm của tôi là chúng ta sẽ cần các chỉ số cụ thể cho từng ứng dụng để kiểm tra tính nhất quán của LLMs và tính tương thích của chúng với sự hiểu biết chung của con người trong các lĩnh vực khác nhau. Khi đối mặt với các ứng dụng thực tế, luôn nên có rõ ràng ranh giới xác định nơi cuộc trò chuyện trở nên nằm ngoài giới hạn cho phép của LLM và nên được chuyển giao cho một nhân viên con người.

    Quan điểm giải quyết vấn đề

    Khá lâu trước đây, tôi đã viết một bài luận về “người tìm vấn đề” và “người giải quyết vấn đề.” Đơn giản là, những gì tôi nói là trí tuệ con người liên quan đến việc tìm ra những vấn đề đúng và trí tuệ nhân tạo (hoặc AI chúng ta có ngày nay) liên quan đến việc giải quyết những vấn đề đó một cách hiệu quả nhất.

    Chúng ta đã thấy nhiều lần rằng máy tính có thể tìm ra cách giải quyết các vấn đề phức tạp mà không cần phải có khả năng nhận thức của con người. Chúng ta đã thấy điều này ở trò cờ, cờ vua, Go, cuộc thi lập trình, gập protein và những vấn đề khác được định nghĩa rõ ràng.

    Ngôn ngữ tự nhiên ở một số khía cạnh khác nhau nhưng cũng giống như tất cả những vấn đề khác mà AI đã giải quyết. Một mặt, transformers và LLMs đã cho thấy rằng chúng có thể tạo ra những kết quả ấn tượng mà không cần phải trải qua quá trình học ngôn ngữ như một con người bình thường, đó là trước hết khám phá thế giới và hiểu các quy tắc cơ bản của nó và sau đó học ngôn ngữ để tương tác với những người khác dựa trên kiến thức chung này. Mặt khác, chúng thiếu kinh nghiệm con người đi kèm với việc học ngôn ngữ. Chúng có thể hữu ích để giải quyết các vấn đề liên quan đến ngôn ngữ được định nghĩa rõ ràng. Nhưng chúng ta không nên quên rằng tính tương thích của chúng với xử lý ngôn ngữ con người có hạn và do đó chúng ta nên cẩn trọng khi tin tưởng chúng.

    Bài viết này ban đầu được xuất bản bởi Ben Dickson trên TechTalks, một xu hướng xem xét trong công nghệ, cách chúng ảnh hưởng đến cách chúng ta sống và kinh doanh, và những vấn đề chúng giải quyết. Nhưng chúng tôi cũng thảo luận về mặt tối của công nghệ, những hệ quả đen tối của công nghệ mới và những điều chúng ta cần phải chú ý. Bạn có thể đọc bài viết gốc tại đây.