Thành phố, khách sạn, điểm đến12-13 Apr, 2 Khách, 1 đêm
Tìm kiếm
Ngày đến Fri, Apr 12
1
Ngày vềSat, Apr 13
Số phòng, số khách1 phòng, 2 người lớn, 0 trẻ em

Công Cụ Nghệ Thuật AI Không Kiểm Duyệt Có Thể Tạo Ra Ảo Tưởng—và Cả Ác Mộng

Bởi: Minprice.com
26/03/20240like

Trong vài tháng qua, Elle Simpson-Edin, một nhà khoa học vào ban ngày, đã cùng với vợ bắt tay vào viết một cuốn tiểu thuyết sắp phát hành vào cuối năm nay, mà cô mô tả như là một 'khoa học viễn tưởng kỳ ảo đen tối dành cho cộng đồng LGBT.'

Khi cô chuẩn bị một trang web để quảng bá cuốn sách, Simpson-Edin quyết định thử nghiệm với việc minh họa nội dung của nó bằng một trong những công cụ nghệ thuật mới mạnh mẽ dựa trên trí tuệ nhân tạo, có thể tạo ra những hình ảnh nổi bật và thậm chí là giống như ảnh thật để phù hợp với yêu cầu văn bản. Nhưng hầu hết các công cụ tạo ảnh này được thiết kế để hạn chế những gì người dùng có thể miêu tả, cấm các hình ảnh khiêu dâm, bạo lực và hình ảnh hiển thị khuôn mặt của những người thật. Mọi lựa chọn mà cô thử nghiệm đều quá kín đáo. “Cuốn sách khá nặng về bạo lực và tình dục, vì vậy nghệ thuật được tạo ra trong môi trường nơi máu và tình dục bị cấm không phải là một lựa chọn,” Simpson-Edin chia sẻ.

May mắn cho Simpson-Edin, cô phát hiện ra Unstable Diffusion, một cộng đồng Discord dành cho những người sử dụng phiên bản không kiểm duyệt của một công cụ tạo ảnh AI mới được phát hành gần đây mang tên Stable Diffusion. Người dùng chia sẻ những bức tranh minh họa và bức ảnh mô phỏng có thể được coi là khiêu dâm hoặc có chủ đề kinh dị, cũng như nhiều hình ảnh có hình dạng nude được làm kỳ cục do sự thiếu hiểu biết của phần mềm về cách cơ thể thực sự nên trông như thế nào.

không xác định

Simpson-Edin đã sử dụng công cụ không lọc để tạo ra một số hình ảnh phù hợp với nội dung gợi dục và bạo lực cho cuốn sách của mình. Mặc dù khá nhẹ nhàng và có giới hạn về nudity, những công cụ tạo hình ảnh khác sẽ không thể tạo ra chúng. “Điểm chào bán lớn của các biến thể Stable Diffusion không kiểm duyệt là chúng cho phép nhiều sự tự do hơn,” Simpson-Edin chia sẻ.

Các dự án trí tuệ nhân tạo mạnh mẽ nhất thế giới vẫn bị khóa bên trong các công ty công nghệ lớn không muốn cung cấp quyền truy cập không kiểm soát vào chúng—hoặc vì chúng quá quý giá hoặc vì chúng có thể bị lạm dụng. Tuy nhiên, trong khoảng một năm trở lại đây, một số nhà nghiên cứu về trí tuệ nhân tạo đã bắt đầu xây dựng và phát hành các công cụ mạnh mẽ cho bất kỳ ai sử dụng. Xu hướng này đã gây lo ngại về việc sử dụng sai mục đích của công nghệ AI có thể được sử dụng cho những mục đích khác nhau. Một số người sử dụng trang 4chan nổi tiếng đã thảo luận về việc sử dụng Stable Diffusion để tạo ra khiêu dâm nghệ sĩ nổi tiếng, hoặc deepfakes của các chính trị gia như một cách để lan truyền thông tin sai lệch. Tuy nhiên, không rõ liệu đã có bất kỳ nỗ lực nào để thực sự thực hiện điều này.

Một số người hâm mộ nghệ thuật AI lo lắng về tác động của việc loại bỏ rào cản từ các công cụ tạo hình ảnh. Người dẫn dắt một kênh YouTube dành riêng cho nghệ thuật AI, có tên là Bakz T. Future, cho rằng cộng đồng Unstable Diffusion cũng đang tạo ra nội dung có thể bị coi là khiêu dâm trẻ em. “Đây không phải là các chuyên gia đạo đức AI,” anh ta nói. “Đây là những người từ những góc tối của internet thực sự đã được trao quyền để theo đuổi giấc mơ của họ.”

Người cung cấp những chiếc chìa khóa đó là Emad Mostaque, một người quản lý quỹ đầu tư trước đây đến từ Anh đã tạo ra Stable Diffusion phối hợp với một tập thể gọi là Stability.Ai, đang làm việc trên nhiều dự án trí tuệ nhân tạo mã nguồn mở.

Mostaque cho biết ý tưởng làm cho việc tạo hình ảnh AI mạnh mẽ và dễ tiếp cận hơn. Anh ta cũng đã tạo ra một công ty để thương mại hóa công nghệ này. “Chúng tôi hỗ trợ toàn bộ không gian nghệ thuật mã nguồn mở và muốn tạo ra điều gì đó mà bất kỳ ai cũng có thể phát triển và sử dụng trên phần cứng người tiêu dùng,” anh ấy nói, thêm rằng anh ấy đã ngạc nhiên trước sự đa dạng của các ứng dụng mà mọi người nhanh chóng tìm thấy cho Stable Diffusion. Các nhà phát triển đã tạo ra các plugin thêm chức năng tạo hình ảnh AI vào các ứng dụng hiện tại như Photoshop và Figma, thêm khả năng mới như áp dụng ngay một phong cách nghệ thuật cụ thể cho một hình ảnh hiện tại.

Phiên bản chính thức của Stable Diffusion thực sự có rào cản để ngăn chặn việc tạo ra nội dung khiêu dâm hoặc đẫm máu, nhưng vì toàn bộ mã nguồn của mô hình AI đã được phát hành, nó đã có thể cho người khác loại bỏ những hạn chế đó.

Mostaque nói rằng mặc dù một số hình ảnh được tạo ra bằng sự sáng tạo của anh có thể không mong muốn, công cụ của anh ta không làm gì khác so với các công nghệ tạo hình ảnh được thiết lập hơn. “Việc sử dụng công nghệ luôn liên quan đến trách nhiệm cá nhân của mọi người,” anh ta nói. “Nếu họ sử dụng Photoshop cho mục đích bất hợp pháp hoặc không đạo đức, đó là lỗi của người đó. Mô hình chỉ có thể tạo ra những điều xấu nếu người dùng cố ý làm cho nó như vậy.”

Công cụ tạo hình ảnh như Stable Diffusion có thể tạo ra những bức ảnh giống như các bức ảnh thực tế hoặc minh họa được làm bằng tay miêu tả hầu hết mọi thứ mà một người có thể tưởng tượng. Điều này là khả thi nhờ vào các thuật toán học cách liên kết các thuộc tính của một bộ sưu tập lớn các hình ảnh được lấy từ web và cơ sở dữ liệu hình ảnh với các nhãn văn bản tương ứng. Thuật toán học cách tạo ra những bức ảnh mới để phù hợp với một yêu cầu văn bản trong quá trình bao gồm thêm và loại bỏ nhiễu ngẫu nhiên từ một bức ảnh.

Bởi vì các công cụ như Stable Diffusion sử dụng các hình ảnh được thu thập từ web, dữ liệu đào tạo của chúng thường bao gồm các hình ảnh khiêu dâm, làm cho phần mềm có khả năng tạo ra những bức hình mới có tính chất tình dục. Một lo ngại khác là rằng các công cụ như vậy có thể được sử dụng để tạo ra hình ảnh có vẻ như thể hiện một người thực sự đang làm điều gì đó đ compromi— một điều có thể lan truyền thông tin sai lệch.

Chất lượng hình ảnh được tạo ra bằng trí tuệ nhân tạo đã tăng vọt trong một năm và nửa trở lại, bắt đầu từ thông báo vào tháng 1 năm 2021 về một hệ thống mang tên DALL-E của công ty nghiên cứu trí tuệ nhân tạo OpenAI. Nó phổ biến mô hình tạo ra hình ảnh từ yêu cầu văn bản và được tiếp theo vào tháng 4 năm 2022 bởi một phiên bản mạnh mẽ hơn, DALL-E 2, hiện có dưới dạng dịch vụ thương mại.

Từ khi bắt đầu, OpenAI đã hạn chế ai có thể truy cập các công cụ tạo hình ảnh của mình, chỉ cung cấp quyền truy cập thông qua yêu cầu để lọc những gì có thể được yêu cầu. Điều này cũng đúng đối với dịch vụ cạnh tranh có tên Midjourney, được phát hành vào tháng 7 năm nay, giúp phổ biến hóa nghệ thuật làm bằng trí tuệ nhân tạo bằng cách trở nên phổ biến rộng rãi.

Stable Diffusion không phải là công cụ tạo nghệ thuật AI nguồn mở đầu tiên. Không lâu sau khi phiên bản gốc DALL-E được phát hành, một nhà phát triển đã xây dựng một bản sao gọi là DALL-E Mini đã được phát hành cho bất kỳ ai, và nhanh chóng trở thành hiện tượng tạo meme. DALL-E Mini, sau này đổi tên thành Craiyon, vẫn bao gồm guardrails tương tự như những phiên bản chính thức của DALL-E. Clement Delangue, CEO của HuggingFace, một công ty chủ trì nhiều dự án trí tuệ nhân tạo nguồn mở, bao gồm Stable Diffusion và Craiyon, nói rằng việc công nghệ chỉ được kiểm soát bởi một vài công ty lớn sẽ gây ra vấn đề.

“Nếu nhìn vào sự phát triển dài hạn của công nghệ, việc làm cho nó mở, hợp tác và bao gồm nhiều người hơn, thực sự tốt hơn từ góc độ an toàn,” ông nói. Công nghệ đóng làm cho việc hiểu được của các chuyên gia ngoại vi và công chúng trở nên khó khăn hơn, và nó tốt hơn nếu người ngoại vi có thể đánh giá các mô hình để phát hiện vấn đề như độ chệch về chủng tộc, giới tính hoặc tuổi tác; ngoài ra, người khác không thể xây dựng trên công nghệ đóng. Tổng cộng, ông nói, những lợi ích của việc công bố công nghệ vượt qua những rủi ro.

Delangue chỉ ra rằng các công ty truyền thông xã hội có thể sử dụng Stable Diffusion để xây dựng các công cụ của riêng họ để phát hiện hình ảnh được tạo ra bằng trí tuệ nhân tạo được sử dụng để lan truyền thông tin sai lệch. Ông nói rằng các nhà phát triển cũng đã đóng góp một hệ thống để thêm watermark vô hình vào các hình ảnh được tạo ra bằng Stable Diffusion để dễ theo dõi, và xây dựng một công cụ để tìm kiếm các hình ảnh cụ thể trong dữ liệu đào tạo của mô hình để có thể loại bỏ những hình ảnh gây vấn đề.

Sau khi quan tâm đến Unstable Diffusion, Simpson-Edin trở thành một người quản trị trên Discord của Unstable Diffusion. Máy chủ cấm người đăng loại nội dung nhất định, bao gồm hình ảnh có thể được hiểu là pornografia dưới tuổi. “Chúng tôi không thể kiểm soát những gì mọi người làm trên máy của họ, nhưng chúng tôi rất nghiêm túc với những gì được đăng,” cô nói. Trong tương lai gần, việc kiểm soát những ảnh hưởng gây rối của nghệ thuật AI có thể phụ thuộc nhiều hơn vào con người hơn là máy móc.