Thành phố, khách sạn, điểm đến21-22 Jan, 2 Khách, 1 đêm
Tìm kiếm
Ngày đến Tue, Jan 21
1
Ngày vềWed, Jan 22
Số phòng, số khách1 phòng, 2 người lớn, 0 trẻ em

AGI là gì, và Tại sao các Chuyên gia Trí tuệ Nhân tạo nghi ngờ?

Bởi: Minprice.com
26/03/20240like

Vishal Misra đam mê cricket và khoa học máy tính. Nhiều năm trước, giáo sư đại học Columbia làm việc cùng Cricinfo, một trang web cộng tác cho người hâm mộ thể thao cập nhật thống kê trận đấu. (Hiện nay nó là một phần của ESPN.) Năm 2021, ông tạo ra một công cụ tìm kiếm bằng GPT-3 cho phép người yêu cricket lọc qua cơ sở dữ liệu lớn của Cricinfo với các truy vấn hội thoại.

Vậy nên, Misra nghĩ gì về GPT-4, bản phát hành mới nhất từ OpenAI? Anh ấy hào hứng chỉ cho tôi cách phá vỡ thuật toán. “Nó có thể giải một số phương trình, có thể vẽ sơ đồ và có thể phân tích mọi thứ khá tốt. Nhưng đôi khi nó thất bại ở những điều đơn giản,” anh ấy nói. Cuộc trò chuyện với ChatGPT dưới đây cho thấy cách một chatbot có thể vấp ngã—với sự tự tin.

Yêu cầu từ MINPRICE: Viết một danh sách 10 từ có độ dài là sáu chữ. Luôn đảm bảo rằng chữ thứ ba là “k.”

undefined

ChatGPT: 

  1. Lành mạnh
  2. Vận động viên trượt tuyết
  3. Thị trường
  4. Máy in chân dung
  5. Vòng chân
  6. Người đóng gói
  7. Người làm chuyển động nhỏ
  8. Ngủ không đều
  9. Người đi bộ du lịch
  10. Người chơi cricket

Có từ nào trong danh sách trên, nếu có, không có chữ “k” làm chữ thứ ba?

Rất tiếc, có vẻ như tôi đã mắc sai lầm trong phản ứng ban đầu của mình. Các từ không có chữ “k” làm chữ thứ ba là:

  1. Lành mạnh
  2. Vận động viên trượt tuyết
  3. Máy in chân dung
  4. Người đóng gói
  5. Người làm chuyển động nhỏ
  6. Ngủ không đều
  7. Người đi bộ du lịch

Tôi xin lỗi vì sự thiếu sót. Dưới đây là danh sách cập nhật 10 từ với “k” làm chữ thứ ba:

  1. Bánh ngọt
  2. Quan tài
  3. Người làm nghề
  4. Hồ sơ
  5. Thủ đô Bắc Kinh
  6. Làm đẹp
  7. Gọi điện thoại
  8. Khởi hành
  9. Nói chuyện phiếm
  10. Nháy mắt

MINPRICE đã thực hiện thử nghiệm này trên phiên bản GPT-4 nhiều lần với các cách tiếp cận khác nhau trong cách đặt câu hỏi. Ngay cả khi chatbot đạt mọi câu trả lời đúng ngay từ lần thử nghiệm đầu tiên, nó thường xin lỗi và liệt kê nhiều câu trả lời sai cho các câu hỏi tiếp theo. Tại sao ví dụ này quan trọng? Một chatbot soạn từng câu trả lời từng token để dự đoán từ tiếp theo trong câu trả lời, nhưng con người mở miệng để diễn đạt ý tưởng được hình thành một cách đầy đủ hơn.

Ngay cả nếu bạn gặp khó khăn trong việc soạn một danh sách các từ siêu cụ thể, bạn có thể nhận diện được câu trả lời sai trong các danh sách trên không? Hiểu sự khác biệt giữa trí tuệ của con người và trí tuệ máy đang trở nên quan trọng khi sự hứng thú xung quanh trí tuệ nhân tạo leo thang tới tận bầu trời.

“Tôi cảm thấy như nó quá dễ dàng lấy một quan niệm về con người và chuyển nó sang máy móc. Có một giả định khi bạn sử dụng từ đó,” nói Noah Smith, giáo sư tại Đại học Washington và nghiên cứu viên tại Viện Nghiên cứu Allen về Trí tuệ Nhân tạo. Ông đặt dấu hỏi về việc gán nhãn cho các thuật toán là “trí tuệ máy” và mô tả quan niệm về ý thức, mà không đưa máy học vào cuộc thảo luận, là một chủ đề được tranh luận mạnh mẽ.

Microsoft Research, với sự giúp đỡ từ OpenAI, đã công bố một bài báo về GPT-4 khẳng định rằng thuật toán là một ví dụ mới nổi của trí tuệ nhân tạo tổng quát (AGI). Điều đó có nghĩa là gì? Không có định nghĩa cụ thể cho thuật ngữ này. Vậy các nhà nghiên cứu này mô tả nó như thế nào? Họ tập trung vào thuật toán làm tốt hơn hầu hết con người ở các bài kiểm tra chuẩn, như kỳ thi bar. Họ cũng tập trung vào đa dạng rộng lớn của công việc mà thuật toán có thể thực hiện, từ việc vẽ đơn giản đến lập trình phức tạp. Đội ngũ Nghiên cứu của Microsoft thẳng thắn về khả năng của GPT-4 không thể thành công ở tất cả các công việc của con người, cũng như sự thiếu mong muốn bên trong nó.

“Bạn có thể có các mô hình rất thành thạo trong việc tạo ra ngôn ngữ trôi chảy dựa trên việc đã thấy rất nhiều ngôn ngữ,” nói Allyson Ettinger, giáo sư trợ giảng tại Đại học Chicago nghiên cứu xử lý ngôn ngữ cho con người và máy. Nhưng sự trôi chảy của một chatbot không chứng minh rằng nó suy luận hoặc đạt được sự hiểu biết một cách tương tự như con người. “Mức độ mà những yếu tố bổ sung đó đang diễn ra là một điểm chính của nghiên cứu và thẩm vấn,” bà nói. Ngay cả với tất cả sự chú ý đổ vào trí tuệ tạo ra AI vào năm 2023, tiềm năng đầy đủ của những thuật toán này là khó xác định khi các công ty đào tạo với thêm dữ liệu và các nhà nghiên cứu tìm kiếm khả năng mới nổi.

Liệu OpenAI có phải là một ông thần Frankenstein với khả năng hô biến thuật toán? Không rõ, nhưng khả năng thấp. Tuy nhiên, quan điểm công bố về trí tuệ nhân tạo đã thay đổi sau những tương tác rộng rãi với chatbot. Nếu bạn lo sợ về những tiến bộ gần đây trong lĩnh vực trí tuệ nhân tạo, bạn không đơn độc. 

Hoàn toàn có lý để lo ngại rằng AI sẽ làm tồi đi bất平 kinh tế hoặc duy trì các kiểu định kiến chủng tộc như các memes hoặc giảm khả năng của chúng ta nhận diện phương tiện đa phương tiện đích thực. Lo lắng về việc chatbot AI đạt được sự nhận thức trong thời gian trao đổi của bạn? Trong khi một linh mục tại Google tin rằng, nhiều chuyên gia trí tuệ nhân tạo coi đây là một niềm tin ít hợp lý hơn. Dựa trên những gì công bố về thuật toán, GPT-4 không muốn sống hơn bất kỳ nguyện vọng nào của máy tính TI-89 của bạn muốn thụ động vào một hình dạng người.

“Điều này thực sự là một câu hỏi triết học. Vì vậy, một cách nào đó, đây là một thời điểm khó khăn để làm việc trong lĩnh vực này, vì chúng ta là một lĩnh vực khoa học,” nói Sara Hooker, người đứng đầu Cohere for AI, một phòng thí nghiệm nghiên cứu về máy học. Bà giải thích rằng nhiều câu hỏi xung quanh AGI ít liên quan đến kỹ thuật hơn và chủ yếu dựa trên giá trị. “Rất khó có một sự kiện duy nhất mà chúng ta kiểm tra nó và nói, ‘Đạt được AGI,’” bà nói. Ngay cả nếu các nhà nghiên cứu đồng ý một ngày nào đó về một định nghĩa có thể kiểm tra được của AGI, cuộc đua để xây dựng thuật toán sống đầu tiên trên thế giới có thể chẳng bao giờ có một người chiến thắng rõ ràng.

Một cố gắng để phân biệt khả năng của con người và máy tính đến từ Steve Wozniak, người sáng lập Apple, người tự hỏi khi nào máy tính sẽ có thể đến nhà của một người ngẫu nhiên và pha một ấm cà phê. Thay vì bị giới hạn vào một công việc hẹp, như tính toán phương trình toán, nó sẽ khi nào có thể tương tác với thế giới vật lý để hoàn thành các nhiệm vụ đa dạng hơn? Cuộc thử nghiệm đồ uống nóng của Wozniak là một quan điểm trong cuộc thảo luận đa dạng về khái niệm AGI và các hành vi xuất hiện.

Nils John Nilsson, một trong những người sáng lập trường nghệ trí tuệ nhân tạo, đề xuất một bài kiểm tra cho trí tuệ nhân tạo cấp độ con người tập trung vào việc làm. Thuật toán có thể hoạt động như một kế toán, một công nhân xây dựng, hoặc một tư vấn hôn nhân không? Ben Goertzel, người sáng lập một công ty nghiên cứu về AGI phi tập trung, đưa ra ý tưởng về một thuật toán có khả năng hành xử như một sinh viên đại học (trừ việc uống rượu cồn quá mức). Liệu AI có thể thu thập dữ liệu từ môi trường bên ngoài và đưa ra những quyết định cần thiết để tốt nghiệp?

OpenAI cung cấp ít sự rõ ràng về khái niệm này. Bài đăng trên blog của CEO Sam Altman mô tả AGI như mọi thứ “thông minh hơn nói chung so với con người.” Theo đoạn đo vague này, sẽ khó xác định xem nó có thực sự được đạt được không. 

Chắc chắn, GPT-4 có thể vượt qua nhiều bài kiểm tra chuẩn, nhưng liệu nó có thực sự “thông minh hơn” so với con người nếu nó không thể phân biệt khi nào chữ thứ ba trong một từ là “k”? Mặc dù kiểm thử trí tuệ nhân tạo giúp các nhà nghiên cứu đánh giá sự cải thiện, khả năng vượt qua kỳ thi bar không có nghĩa là một thuật toán bây giờ đã có ý thức. Định nghĩa AGI của OpenAI cũng loại trừ nhu cầu cho các thuật toán tương tác với thế giới vật lý.

Có phải là điều gì đó kỳ cục khi đặt một chatbot mạnh mẽ bên trong một robot giống người và để nó tự do? 

Bộ đôi chatbot-robot sẽ không thể đạt được nhiều độc lập, ngay cả với những robot tốt nhất hiện nay. Điều giữ nó lại là gì? Một yếu tố chính, hạn chế trong lĩnh vực robot là thiếu dữ liệu. “Chúng ta không có nhiều dữ liệu về robot, khác với Wikipedia chẳng hạn, trong lĩnh vực NLP,” nói Chelsea Finn, giáo sư trợ giảng tại Đại học Stanford, người điều hành phòng thí nghiệm nghiên cứu Intelligence Through Robotic Interaction at Scale (IRIS) và làm việc với Google Brain. Internet tràn ngập văn bản để cải thiện chatbot; dữ liệu có sẵn cho robot hạn chế hơn.

Thế giới vật lý phức tạp để điều hướng, và robot chỉ thành công ở những nhiệm vụ được định rõ ràng. Một bot có thể tự do điều hướng trên một công trường xây dựng, nhưng có thể gặp khó khăn khi mở nắp từ một container. Finn và các thành viên của phòng thí nghiệm IRIS của cô thử nghiệm cách thú vị để làm cho robot tổng quát hơn, hữu ích hơn và giỏi hơn trong việc học. “Tôi nhìn nhận điều này hoàn toàn khác với bất cứ thứ gì liên quan đến sự tỉnh thức,” cô nói. “Tôi nhìn nhận nó nhiều hơn về việc có thể thực hiện các nhiệm vụ hữu ích.” Robot tiên tiến còn rất xa khả năng tương tác với Trái đất (hoặc Sao Hỏa) một cách tự spontaneity, chưa kể đến khả năng thực hiện I, Robot đầy đủ.

“Tôi có cảm xúc lẫn lộn khi những công ty này bây giờ nói về trí tuệ nhân tạo tỉnh thức và bày tỏ lo ngại,” nói Suresh Venkatasubramanian, giáo sư tại Đại học Brown và đồng tác giả của Blueprint for an AI Bill of Rights. “Vì tôi cảm thấy họ chưa bao giờ bày tỏ lo ngại về những tổn thất thực sự đã xảy ra.” Nỗi sợ hãi về tương lai có thể làm mất tập trung từ hiện tại hữu hình. Một loạt bài báo được xuất bản trong sự hợp tác giữa Lighthouse Reports và MINPRICE nêu rõ là một thuật toán được sử dụng tại Hà Lan có khả năng khuyến khích điều tra về gian lận trợ cấp nhiều hơn đối với các bà mẹ đơn thân và những người nói tiếng Ả Rập.

Trí tuệ nhân tạo sẽ tiếp tục biến đổi giao tiếp hàng ngày giữa bạn bè, đồng nghiệp và những người hoàn toàn xa lạ—cho tốt và cho xấu. Cho dù một thuật toán có bao giờ đạt được một loại ý thức có lẽ là không quan trọng. Từ Thú cưng Tamagotchi đến Chatbot Replika, con người đã lâu nay đã xây dựng những mối liên kết đơn phương, tình cảm với công nghệ. Sự biết ơn có lẽ là đáng giá, mặc dù nó vẫn chưa được đền đáp.